Formation IA – Deep Learning : Tensorflow, Caffe, Putorch
- Référence : PYIA020
- Durée : 21 heures
- Certification : Non
- Eligible CPF : Non
CONNAISSANCES PREALABLES
- Avoir une culture informatique générale
PROFIL DES STAGIAIRES
- Toute personne intéressée par le Deep Learning et les réseaux de neurones : Ingénieurs, Analystes, Data Scientists, Data Analysts, Data Steward, Développeurs...
OBJECTIFS
- Comprendre les apports du deep learning et de l'IA
- Comprendre les principes de fonctionnement
- Comprendre les différents outils disponibles
METHODES PEDAGOGIQUES
- 6 à 12 personnes maximum par cours, 1 poste de travail par stagiaire
- Remise d’une documentation pédagogique papier ou numérique pendant le stage
- La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions
METHODES D'EVALUATION DES ACQUIS
- Auto-évaluation des acquis par le stagiaire via un questionnaire
- Attestation de fin de stage adressée avec la facture
FORMATEUR
Consultant-Formateur expert Intelligence Artificielle
CONTENU DU COURS Intelligence Artificielle
1 - Comprendre les concepts de Machine Learning et l’évolution vers le Deep Learning (réseaux de neurones profonds)
- Les apports du deep learning, état de l’art
- Définitions et positionnement IA, deep learning et Machine Learning
- Exemple d’Atelier : Mise en oeuvre sur cloud AutoML : langages naturels, traduction, reconnaissance d’images, …
- Outils DeepLearning de haut niveau : Keras/TensorFlow, Caffe/PyTorch, Lasagne
- Exemples, domaines d’application. Présentation de deepmind
- Outils disponibles. Exemple de projets
2 - Appréhender les bases théoriques et pratiques d'architecture et de convergence de réseaux de neurones
- Fonctionnement d’un réseau de neurones. Comprendre le fonctionnement de l’apprentissage d’un réseau de neurones
- Comprendre la rétro-propagation de l’erreur et la convergence
- Comprendre la descente de gradient. Les fonctions d’erreur : MSE, BinaryCrossentropy, et les optimiseurs SGD, RMSprop, Adam
- Définitions : couche, epochs, batch size, itérations, loss, learning rate, momentum
- Optimiser un entraînement par découpage d’entraînements peu profonds
- Comprendre le principe des hyper-paramètres. Choix des hyper-paramètres
- Exemple d’Atelier : construire un réseau capable de reconnaître une courbe
3 - Connaitre les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
- Exemple d’Atelier : Construction d’un réseau de neurones de reconnaissance d’images
- Les modèles de DeepLearning pour Keras : Xception, Inception, ResNet, VGG, LeNet
- Exemple dAtelier : Comparaison de courbes d’apprentissage avec TensorFlow sur plusieurs paramètres
- Apprendre à lire une courbe d’apprentissage
- Fonctionnement d’une couche de convolution. Définitions : kernel, padding, stride. Fonctionnement d’une couche de Pooling
- Couches d’entrée, de sortie, de calcul
- Les différentes formes de réseaux : MultiLayer Perceptron FNN/MLP, CNN
- Les réseaux de neurones : principe, différents types de réseaux de neurones (artificiels, convolutifs, récurrents, …)
- APIs standard, modèles d’apprentissage
4 - Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement
- Exemple d’Atelier : entraînement d’un autoencodeur variationnel sur un jeu d’images
- Traitement NLP : encodage des caractères et des mots, traduction
- Évolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory)
- Comment optimiser les récompenses ?
- Comprendre les réseaux antagonistes génératifs (GANS) et leur limites de convergences. Apprentissage par transfert
- Représentations des données. Bruits. Couches d’encodage : codage entier, One-hot, embedding layer. Notion d’autoencodeur. Autoencodeurs empilés, convolutifs, récurrents
5 - Comprendre les méthodologies de mise en place de réseaux de neurones
- Préparation des données, régularisation, normalisation, extraction des caractéristiques
- Optimisation de la politique d’apprentissage
- Exploitation des modèles, mise en production. TensorFlow Hub. Serving
- Visualiser les reconstructions
- Exemple d’Atelier : mise en place d’un serveur de modèles et d’une application tf-lite
6 - Comprendre les points forts et les limites de ces outils
- Mise en évidence des problèmes de convergence et du vanishing gradient
- Les erreurs d’architecture. Comment distribuer un réseau de neurones
- Les limites du DeepLearning : imiter/créer. Cas concrets d’utilisation
- Introduction aux machines quantiques