Formation IA – Génération de modèles
- Référence : PYIA060
- Durée : 14 heures
- Certification : Non
- Eligible CPF : Non
CONNAISSANCES PREALABLES
- Posséder des notions de probabilités et statistiques et les bases du machine learning
PROFIL DES STAGIAIRES
- Toute personne intéressée par les data-sciences, et l'utilisation de modèles performants, ou l'adaptation ou la création de modèles
OBJECTIFS
- Savoir identifier les modèles pertinents selon les cas d'usage
- Maitriser les outils et méthodes pour améliorer des modèles existants et en créer
METHODES PEDAGOGIQUES
- 6 à 12 personnes maximum par cours, 1 poste de travail par stagiaire
- Remise d’une documentation pédagogique papier ou numérique pendant le stage
- La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions
METHODES D'EVALUATION DES ACQUIS
- Auto-évaluation des acquis par le stagiaire via un questionnaire
- Attestation de fin de stage adressée avec la facture
FORMATEUR
Consultant-Formateur expert Intelligence Artificielle
CONTENU DU COURS Intelligence Artificielle
1 - Définitions et positionnement IA, deep learning et Machine Learning
- Outils disponibles. Exemple de projets
- Exemples, domaines d’application. Présentation de deepmind
- Outils DeepLearning de haut niveau : Keras/TensorFlow, Caffe/PyTorch, Lasagne
- Exemple d’Atelier : Mise en oeuvre sur cloud AutoML : langages naturels, traduction, reconnaissance d’images, …
- Les apports du deep learning, état de l’art
2 - Convergence de réseaux de neurones
- Comprendre la rétro-propagation de l’erreur et la convergence
- Comprendre la descente de gradient
- Les fonctions d’erreur : MSE, BinaryCrossentropy, et les optimiseurs SGD, RMSprop, Adam
- Définitions : couche, epochs, batch size, itérations, loss, learning rate, momentum
- Optimiser un entraînement par découpage d’entraînements peu profonds
- Comprendre le principe des hyper-paramètres. Choix des hyper-paramètres
- Exemple d’Atelier : construire un réseau capable de reconnaître une courbe
3 - Modèles avancés : auto-encodeurs, gans, apprentissage par renforcement
- Comprendre les réseaux antagonistes génératifs (GANS) et leur limites de convergences. Apprentissage par transfert
- Exemple d’Atelier : entraînement d’un autoencodeur variationnel sur un jeu d’images
- Traitement NLP : encodage des caractères et des mots, traduction
- Évolutions vers les GRU (Gated Recurrent Units) et LSTM (Long Short Term Memory)
- Représentations des données. Bruits. Couches d’encodage : codage entier, One-hot, embedding layer. Notion d’autoencodeur. Autoencodeurs empilés, convolutifs, récurrents
4 - Exploitation, création de modèles
- Préparation des données, régularisation, normalisation, extraction des caractéristiques
- Optimisation de la politique d’apprentissage
- Exploitation des modèles, mise en production. TensorFlow Hub. Serving
- Visualiser les reconstructions
- Exemple d’Atelier : mise en place d’un serveur de modèles et d’une application tf-lite
5 - Comprendre les points forts et les limites de ces outils
- Mise en évidence des problèmes de convergence et du vanishing gradient
- Les erreurs d’architecture. Comment distribuer un réseau de neurones
- Les limites du DeepLearning : imiter/créer. Cas concrets d’utilisation
- Introduction aux machines quantiques