Formation Intelligence artificielle : enjeux et outils

  • Référence : SEAIAENJEUX
  • Durée : 14 heures
  • Certification : Non
  • Eligible CPF : Non

RÉSUMÉ

Ce séminaire présente les principales approches de l'Intelligence Artificielle en insistant sur le Machine Learning et tout particulièrement sur les réseaux de neurones. Vous verrez comment sont utilisés les principales solutions du marché, pour résoudre différents problèmes : apprentissage, classification, prévision…

CONNAISSANCES PREALABLES

  • Bonnes connaissances en gestion de projet numérique. Expérience requise.

PROFIL DES STAGIAIRES

  • Dirigeants, DSI, chefs de projets, développeurs, architectes…

OBJECTIFS

  • Comprendre ce que sont les outils Machine et Deep Learning, leurs potentiels et leurs limites
  • Avoir une vision à date de l'état de l'art de ces domaines
  • Connaître et comprendre les applications de ces domaines à différents domaines de l'industrie
  • Maîtriser les méthodologies et connaître les outils propres aux projets d'Intelligence Artificielle
  • Appréhender les enjeux juridiques et éthiques de l’IA
  • Identifier les apports potentiels par métier, activité ou secteurs dans l’entreprise

METHODES PEDAGOGIQUES

  • 6 à 12 personnes maximum par cours, 1 poste de travail par stagiaire
  • Remise d’une documentation pédagogique papier ou numérique pendant le stage
  • La formation est constituée d’apports théoriques, d’exercices pratiques et de réflexions

METHODES D'EVALUATION DES ACQUIS

  • Auto-évaluation des acquis par le stagiaire via un questionnaire
  • Attestation de fin de stage adressée avec la facture

FORMATEUR

Consultant-Formateur expert Intelligence Artificielle

CONTENU DU COURS Intelligence Artificielle

1 - Qu'est-ce que l'Intelligence Artificielle (jusqu'aux réseaux de neurones) ?

  • Le fantasme de l’Intelligence Artificielle et la réalité d’aujourd’hui
  • Tâche intellectuelle versus algorithmes
  • Types d’actions : classification, régression, clustering, estimation de densité, réduction de dimensionnalité
  • Intelligence collective : agréger une connaissance partagée par de nombreux agents virtuels
  • Algorithmes génétiques : faire évoluer une population d’agents virtuels par sélection
  • Machine Learning : présentation et principaux algorithmes (XGBoost, Random Forest)

2 - Réseaux de neurones et Deep Learning

  • Qu’est-ce qu’un réseau de neurones ?
  • Qu’est-ce que l’apprentissage d’un réseau de neurones ? Deep versus shallow network, overfit, underfit, convergence
  • Appréhender une fonction par un réseau de neurones : présentation et exemples
  • Génération de représentations internes au sein d’un réseau de neurones
  • Généralisation des résultats d’un réseau de neurones
  • Révolution du Deep Learning : généricité des outils et des problématiques
  • Démonstration : Présentation d’un algorithme de classification et de ses limites

3 - Applications du Deep Learning

  • Classification de données. Les différents scénarios : donnée brute, image, son, texte, etc.
  • Les enjeux d’une classification de données et les choix impliqués par un modèle de classification
  • Outils de classification : des réseaux de type Multilayer Perceptron ou Convolutional Neural Network. Machine Learning
  • Prédiction d’information et donnée séquentielle/temporelle. Enjeux et limites d’une prédiction d’information
  • Règles structurelles au sein de la donnée pouvant permettre une logique de prédiction. Outils usuels de prédiction
  • Transformation/génération de données. Opération de réinterprétation d’une donnée : débruitage, segmentation d’image…
  • Opération de transformation sur un même format : traduction de texte d’une langue à une autre…
  • Opération de génération de donnée "originale" : Neural Style, génération d’images à partir de présentations textuelles
  • Reinforcement Learning : contrôle d’un environnement
  • Experience Replay et apprentissage de jeux vidéo par un réseau de neurones
  • Démonstrations : Classification d’images médicales. Prévision des images suivant une séquence vidéo. Contrôle de simulations numériques

4 - Quels problèmes peut-on adresser avec le Machine/Deep Learning ?

  • Condition sur les données : volumétrie, dimensionnement, équilibre entre les classes, description
  • Donnée brute versus features travaillées : que choisir ?
  • Machine Learning versus Deep Learning : les algorithmes plus anciens du Machine Learning ou les réseaux de neurones ?
  • Qualifier le problème : Unsupervised Learning versus Supervised Learning
  • Qualifier la solution d’un problème : comprendre la distance entre une affirmation et le résultat d’un algorithme
  • Exemple d’étude de cas : Qualification d’une problématique pouvant être traitée avec l’IA

5 - Génération d'un Dataset

  • Qu’est-ce qu’un Dataset ?
  • Stocker/contrôler la donnée : surveiller les biais, nettoyer/convertir sans s’interdire des retours en arrière
  • Comprendre la donnée : représentation des outils statistiques permettant une vision d’une donnée, sa distribution…
  • Formater une donnée : décider d’un format d’entrée et de sortie, faire le lien avec la qualification du problème
  • Préparer la donnée : définition des Train Set, Validation Set et Test Set
  • Mettre en place une structure permettant de garantir que les algorithmes utilisés sont réellement pertinents (ou non)
  • Echanges : Définition d’un Dataset et sa différence avec un BDD usuel

6 - Recherche de la solution optimale

  • Méthodologie pour avancer dans la recherche d’une meilleure solution à un problème ML/DL
  • Choix d’une direction de recherche, localisation de publications ou de projets similaires existants
  • Itérations successives depuis les algorithmes les plus simples jusqu’aux architectures les plus complexes
  • Conservation d’un banc de comparaison transversal
  • Arriver à une solution optimale
  • Exemple d’étude de cas : Grouper et balancer un ensemble de solutions pour obtenir une solution optimale

7 - Les outils

  • Quels outils existe-t-il aujourd’hui ?
  • Quels outils pour la recherche et quels outils pour l’industrie ?
  • De Keras/Lasagne à Caffe en passant par Torch, Theano, Tensorflow ou Apache Spark ou Hadoop
  • Industrialiser un réseau de neurones par un encadrement strict de son processus et un monitoring continu
  • Mise en place de réapprentissages successifs pour conserver un réseau à jour et optimal
  • Former des utilisateurs à la compréhension du réseau
  • Démonstration : Mise en place de réapprentissages successifs
Cookies