Formation IA – Deep Learning : Tensorflow, Caffe, Putorch

  • Référence : PYIA020
  • Durée : 21 heures
  • Certification : Non
  • Eligible CPF : Non

CONNAISSANCES PREALABLES

  • Avoir une culture informatique générale

PROFIL DES STAGIAIRES

  • Toute personne intéressée par le Deep Learning et les réseaux de neurones : Ingénieurs, Analystes, Data Scientists, Data Analysts, Data Steward, Développeurs...

OBJECTIFS

  • Comprendre les apports du deep learning et de l'IA
  • Comprendre les principes de fonctionnement
  • Comprendre les différents outils disponibles

METHODES PEDAGOGIQUES

  • 6 à 12 personnes maximum par cours, 1 poste de travail par stagiaire
  • Remise d’une documentation pédagogique papier ou numérique pendant le stage
  • La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions

METHODES D'EVALUATION DES ACQUIS

  • Auto-évaluation des acquis par le stagiaire via un questionnaire
  • Attestation de fin de stage adressée avec la facture

FORMATEUR

Consultant-Formateur expert Intelligence Artificielle

CONTENU DU COURS Intelligence Artificielle

1 - Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds)

  • Les apports du deep learning, état de l’art
  • Définitions et positionnement IA, deep learning et Machine Learning
  • Exemple d’Atelier : Mise en oeuvre sur cloud AutoML : langages naturels, traduction, reconnaissance d’images, …
  • Outils DeepLearning de haut niveau : Keras/TensorFlow, Caffe/PyTorch, Lasagne
  • Exemples, domaines d’application. Présentation de deepmind
  • Outils disponibles. Exemple de projets

2 - Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones

  • Fonctionnement d’un réseau de neurones. Comprendre le fonctionnement de l’apprentissage d’un réseau de neurones
  • Comprendre la rétro-propagation de l’erreur et la convergence
  • Comprendre la descente de gradient. Les fonctions d’erreur : MSE, BinaryCrossentropy, et les optimiseurs SGD, RMSprop, Adam
  • Définitions : couche, epochs, batch size, itérations, loss, learning rate, momentum
  • Optimiser un entraînement par découpage d’entraînements peu profonds
  • Comprendre le principe des hyper-paramètres. Choix des hyper-paramètres
  • Exemple d’Atelier : construire un réseau capable de reconnaître une courbe

3 - Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs

  • Exemple d’Atelier : Construction d’un réseau de neurones de reconnaissance d’images
  • Les modèles de DeepLearning pour Keras : Xception, Inception, ResNet, VGG, LeNet
  • Exemple dAtelier : Comparaison de courbes d’apprentissage avec TensorFlow sur plusieurs paramètres
  • Apprendre à lire une courbe d’apprentissage
  • Fonctionnement d’une couche de convolution. Définitions : kernel, padding, stride. Fonctionnement d’une couche de Pooling
  • Couches d’entrée, de sortie, de calcul
  • Les différentes formes de réseaux : MultiLayer Perceptron FNN/MLP, CNN
  • Les réseaux de neurones : principe, différents types de réseaux de neurones (artificiels, convolutifs, récurrents, …)
  • APIs standard, modèles d’apprentissage

4 - Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement

  • Exemple d’Atelier : entraînement d’un autoencodeur variationnel sur un jeu d’images
  • Traitement NLP : encodage des caractères et des mots, traduction
  • Évolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory)
  • Comment optimiser les récompenses ?
  • Comprendre les réseaux antagonistes génératifs (GANS) et leur limites de convergences. Apprentissage par transfert
  • Représentations des données. Bruits. Couches d’encodage : codage entier, One-hot, embedding layer. Notion d’autoencodeur. Autoencodeurs empilés, convolutifs, récurrents

5 - Comprendre les méthodologies de mise en place de réseaux de neurones

  • Préparation des données, régularisation, normalisation, extraction des caractéristiques
  • Optimisation de la politique d’apprentissage
  • Exploitation des modèles, mise en production. TensorFlow Hub. Serving
  • Visualiser les reconstructions
  • Exemple d’Atelier : mise en place d’un serveur de modèles et d’une application tf-lite

6 - Comprendre les points forts et les limites de ces outils

  • Mise en évidence des problèmes de convergence et du vanishing gradient
  • Les erreurs d’architecture. Comment distribuer un réseau de neurones
  • Les limites du DeepLearning : imiter/créer. Cas concrets d’utilisation
  • Introduction aux machines quantiques
Cookies