Dernière mise à jour le 13/03/2025

IA Générative – Les modèles de langages massifs (LLMs)

Informations générales

Type de formation : Formation continue
Domaine : IA, Big Data et Bases de données
Filière : IA
Rubrique : Microsoft Azure OpenAI Service
Formation éligible au CPF : Non
Formation Action collective : Non

Objectifs & compétences

A l’issue de cette formation, les participants seront en capacité de :
- Utiliser Azure OpenAI Service
- Appliquer l’ingénierie rapide avec Azure OpenAI Service

Public visé

Chefs de projets
Développeurs
Data scientists

Pré-requis

Une connaissance de base des principes de Machine Learning et de Deep Learning
La maîtrise d’une langage de script type Python est recommandé

Programme

1 - Introduction
Un changement de paradigme
Qu’est ce qui change ?
Une publication fondatrice
Une loi d’échelle pour les modèles de langage
Évolution temporelle des LLMs
De nouveaux écosystèmes
L’ère du Post Deep Learning
Personnalisation par Prompts
Personnalisation par enrichissement
Personnalisation par réglage fin
2 - Cas d'usage
Agents conversationnels et assistants virtuels
Génération de code et debuggage
Analyse de sentiments / opinions
Classification de texte et clusterisation
Synthèse de texte ou corpus
Traduction
Génération de contenu
Autres cas d'usages significatifs
LAB : Proof of concept sur cas concrets
3 - Fondations
Le traitement du langage naturel (TAL)
L’architecture disruptive des Transformers
La tokenisation des textes
L’encodeur d’un Transformer
La couche d’embedding
L’encodage de positionnement
Vecteur de positionnement
Le mécanisme d’attention multi-têtes
Points essentiels du mécanisme d’attention
La “spécialisation” des têtes d’attention
Calcul des scores d’attention
Addition et Normalisation des sorties
Le Décodeur d’un Tranformer
L’entraînement d’un Transformer
La couche d’auto-attention masquée
La couche d’attention du décodeur
Les couches supérieures du décodeur
4 - En pratique
Choisir un LLM
Critères de choix
Trois classes de modèles
Modèles à encodeur simple
Focus modèles BERTs
Modèles à décodeur simple
Focus modèles GPTs
Un foisonnement de modèles dérivés
La bataille des LLMs
La course vers des LLMs légers
L’exemple de LLaMa
Trois approches de réduction
Écosystèmes clés
APIs de modèles Fermés
HuggingFace et les modèles ouverts
Écosystèmes applicatifs type LangChain
LLMops et MLFlow
Atelier
Prise en main des écosystèmes LLMs clés
 
5 - Mise en oeuvre
Choix service / in house / hybrid
In house workflow
Service workflow
Écosystèmes d'entraînement et d'inférence
L'entraînement d'un modèle massif
L'étape d'évaluation des modèles
Le réglage des hyperparamètres
Déploiement d'un modèle
Model fine-tuning
Prompt engineering
MLOps d'un LLMs
LAB : Environnement de déploiement d'un LLM
6 - Le Prompt Engineering
Configuration des paramètres des LLMs
Qu’est ce qu’un token ?
Notion de distribution des probabilités des LLMs
Les échantillonnages Top-K et top-p
La température du modèle
Le réglage des paramètres en pratique
Les composantes d’un prompt
Règles générales
L’approche Few-Shot Learning
Zero, one to Few-shot learning
L’approche Chain of thoughts
L’incitation par chaînes de pensées
Des approches plus avancées
ReAct Prompting
Méthode ReAct
Atelier
Prompt Engineering sur cas concrets
 
7 - LLMs augmentés
Au delà du prompt, l’enrichissement des LLMs
Ajout de capacité mémorielle
Mémoire tampon (Buffer Memory)
Plusieurs mécanismes de mémorisation
Les mémoires de l’écosystème LangChain
Élargissement des connaissances
Retrieval Augmented Generation (RAG)
Le partitionnement des textes externes
Projection sémantique des documents (Embeddings)
Les bases de données vectorielles
Les algorithmes du search dans les bases vectorielles
Une galaxie d’outils possibles !
Atelier
Mise en oeuvre d’un agent conversationnel
 
8 - Déploiement de LLMs
Quand le prompt engineering ne suffit plus
Qu’est ce que le réglage fin
Trois techniques classiques
Reinforcement learning by Human feedback (RLHF)
Détails d’un réglage fin Supervisé
Les trois options pour l’ajustement des paramètres
Les approches PEFT (Parameter Efficient Tuning)
La méthode LoRA (Low Rank Adaptation)
Une variante efficiente : QLoRA
Qu’est ce que la mise en service d’un LLM
Journaliser le modèle dans le registre des modèles
Création d’un point de terminaison vers le modèle
Interroger le point de terminaison

Modalités

Modalités : en présentiel, distanciel ou mixte . Toutes les formations sont en présentiel par défaut mais les salles sont équipées pour faire de l'hybride. – Horaires de 9H à 12H30 et de 14H à 17H30 soit 7H – Intra et Inter entreprise.
Pédagogie : essentiellement participative et ludique, centrée sur l’expérience, l’immersion et la mise en pratique. Alternance d’apports théoriques et d’outils pratiques.
Ressources techniques et pédagogiques : Support de formation au format PDF ou PPT Ordinateur, vidéoprojecteur, Tableau blanc, Visioconférence : Cisco Webex / Teams / Zoom.
Pendant la formation : mises en situation, autodiagnostics, travail individuel ou en sous-groupe sur des cas réels.

Méthodes

Fin de formation : entretien individuel.
Satisfaction des participants : questionnaire de satisfaction réalisé en fin de formation.
Assiduité : certificat de réalisation.
Validations des acquis : grille d'evalution  des acquis établie par le formateur en fin de formation.
Code de formation : MSAI050

Tarifs

Prix public : 2050
Tarif & financement :
Nous vous accompagnons pour trouver la meilleure solution de financement parmi les suivantes :
Le plan de développement des compétences de votre entreprise : rapprochez-vous de votre service RH.
Le dispositif FNE-Formation.
L’OPCO (opérateurs de compétences) de votre entreprise.
France Travail: sous réserve de l’acceptation de votre dossier par votre conseiller Pôle Emploi.
CPF -MonCompteFormation
Contactez nous pour plus d’information : contact@aston-institut.com

Lieux & Horaires

Durée : 14 heures
Délai d'accès : Jusqu'a 8 jours avant le début de la formation, sous condition d'un dossier d'insciption complet

Prochaines sessions

Handi-accueillante Accessible aux personnes en situations de handicap. Pour toutes demandes, contactez notre référente, Mme Rizlene Zumaglini Mail : rzumaglini@aston-ecole.com

à voir aussi dans le même domaine...

Formation continue

IA

LEDN211

IA – langage : NLP, traduction, analyse

A l’issue de la formation, le stagiaire sera capable :

        • Comprendre les principes du NLP et savoir les mettre en œuvre avec Python.
 

14 heures de formations sur 2 Jours
En savoir plus

Formation continue

IA

LEDN215

OpenAI Initiation – Génération de contenus avec ChatGPT et DALL-E 2

A l’issue de la formation, le stagiaire sera capable :

        • Pouvoir développer de façon autonome des solutions applicatives tirant parti des  services fournis par les API fournies par OpenAI, notamment ChatGPT et DALL-E 2
  

21 heures de formations sur 3 Jours
En savoir plus

Formation continue

IA

LEDN216

OpenAI Initiation + Approfondissement : Génération de contenus avec ChatGPT et DALL-E 2 et reconnaissance vocale

A l’issue de la formation, le stagiaire sera capable :

        • Pouvoir développer de façon autonome des solutions applicatives tirant parti des services fournis par les API fournies par OpenAI, notamment ChatGPT et
        • DALL-E 2 - Apprendre à combiner des appels à ChatGPT et DALL-E 2 -
        • Utiliser OpenAI pour la reconnaissance vocale
 

35 heures de formations sur 5 Jours
En savoir plus

Formation continue

IA

CISIA-ASE

Analyse des Besoins et régulation des Solutions IA

Identifier et analyser les besoins métiers dans un projet IA. Étudier les cas d’usage concrets de l’IA dans différents secteurs. Évaluer les impacts économiques, sociaux et environnementaux des solutions IA. Appliquer les normes et réglementations pour encadrer l’utilisation de l’IA. .

18 heures de formations sur 3 Jours
En savoir plus

Formation continue

IA

CISIA-CEG

Fondamentaux de l’IA : Programmation et Outils Essentiels

Acquérir une compréhension approfondie des concepts fondamentaux de l’IA. Apprendre les bases de la programmation en Python et R pour le développement IA. Explorer les bibliothèques et outils essentiels pour la conception de modèles IA. Développer des compétences en gestion de projet IA et intégration des solutions IA en entreprise.

20 heures de formations sur 3 Jours
En savoir plus

Formation continue

IA

CISIA-DOC

Structuration et documentation des données pour l’IA

Documenter le flux de traitement des données : De la source à l’exploitation, en couvrant la chaîne d’approvisionnement (C1, C3). Documenter  le cycle  de vie  de  la  donnée  :  De  sa création  à son archivage  ou suppression (C1, C8). Comprendre les enjeux de la documentation des jeux de données pour répondre aux besoins métiers et aux cas d’usage (C1). Identifier les risques éthiques et sociétaux liés à la collecte et à l'utilisation des jeux de données (C2). Préparer et structurer les données afin de renforcer leur intégrité pour une utilisation dans un modèle d'IA (C3). Élaborer une documentation technique claire pour assurer la transparence et la traçabilité des données (C8).  

8 heures de formations sur 1 Jours
En savoir plus