Formation IA – Gestion de modèles
- Référence : PYIA091
- Durée : 14 heures
- Certification : Non
- Eligible CPF : Non
CONNAISSANCES PREALABLES
- Maîtrise de l'utilisation de modèles de deep learning
PROFIL DES STAGIAIRES
- Cette formation IA Gestion de modèles s'adresse à toute personne intéressée par les data-sciences, l'utilisation et le choix de modèles et la gestion de modèles
OBJECTIFS
- Comprendre l'intérêt et les méthodes de gestion de modèles
- Apprendre les bonnes pratiques, et les outils principaux de gestion de modèles
- Savoir mettre en oeuvre la gestion de modèles avec Airflow
METHODES PEDAGOGIQUES
- 6 à 12 personnes maximum par cours, 1 poste de travail par stagiaire
- Remise d’une documentation pédagogique papier ou numérique pendant le stage
- La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions
METHODES D'EVALUATION DES ACQUIS
- Auto-évaluation des acquis par le stagiaire via un questionnaire
- Attestation de fin de stage adressée avec la facture
FORMATEUR
Consultant-Formateur expert Intelligence Artificielle
CONTENU DU COURS Intelligence Artificielle
1 - Introduction à MLOps et la gestion de modèles
- Définition. Importance de la collaboration entre data scientists et ingénieurs
- Les défis de la mise en production de modèles (dérive, réentraînement, monitoring), et les avantages d’une gestion efficace
- Exemple d’Atelier : cycle de vie d’un modèle en MLOps : vue d’ensemble des différentes étapes, de la conception à la mise hors service
2 - Outils et technologies clés
- Plateformes MLOps : Présentation des principales plateformes (MLflow, Kubeflow, AWS SageMaker, Azure Machine Learning) et de leurs fonctionnalités clés
- Outils de versioning : Git, DVC, comment gérer le code, les données et les modèles
- Registres de modèles : Stockage, versioning, et partage des modèles
- Orchestration de workflows : Airflow, Luigi, pour automatiser les pipelines MLOps
- Exemple d’Atelier : mise en oeuvre de Airflow
3 - Les bonnes pratiques de gestion de modèles
- Versioning et suivi : Importance de la version, des métadonnées, et des logs pour la reproductibilité
- Déploiement : Stratégies de déploiement (A/B testing, canary releases), et les environnements de déploiement (cloud, on-premise)
- Monitoring : Suivi des performances des modèles en production, détection d’anomalies, et alertes
- Réentraînement et mise à jour : Stratégies pour maintenir les modèles à jour, et les défis liés au réentraînement continu
- Exemple d’Atelier : exemples de monitoring
4 - Défis et tendances
- Gouvernance des données : Questions de confidentialité, de sécurité, et de conformité
- Expérience utilisateur : Faciliter l’utilisation des modèles par les équipes métier Intégrabilité : Intégrer les modèles dans les applications existantes
- Tendances futures : MLOps décentralisé, MLOps pour l’IA générative