Talki Academy
Débutant

Comprendre les LLM de A à Z2 jours

Formation L100 — Fondations. Avant d'appeler une API ou de lancer un agent, comprenez ce qu'il y a sous le capot. Cette formation conceptuelle et visuelle démystifie les grands modèles de langage : comment un Transformer fonctionne, comment on l'entraîne, sur quel matériel il tourne et combien ça coûte. Aucune ligne de code requise — vous repartirez avec une compréhension solide pour prendre des décisions éclairées sur l'IA.

Inclus dans l'abonnement — 9,99 €/mois sans engagement
2 jours
14h de formation
4 modules
Max 15 participants
LLMFondamentauxArchitecture
9,99 €/mois
Acces a toutes les formations · Sans engagement
Prochaine session : 19 mai 2026
S'abonner — 9,99 €/mois
Acces illimite a toutes les formations
Nouveaux contenus chaque mois
Resiliable a tout moment

AI Act : la formation IA devient obligatoire avant le 2 aout 2026

Anticipez la mise en conformite de votre entreprise. Voir nos formations

Ce que vous allez construire et apprendre

Des competences immediatement applicables dans votre contexte professionnel

  • Expliquer le fonctionnement d'un réseau de neurones et du deep learning
  • Décrire l'architecture Transformer et le mécanisme d'attention
  • Comprendre le pipeline d'entraînement : pré-entraînement, RLHF, DPO
  • Différencier les familles de modèles et savoir quand utiliser lequel
  • Évaluer les contraintes hardware : GPU, VRAM, quantization
  • Analyser l'économie des LLM : coûts d'entraînement, d'inférence et de token

Programme detaille

4 modules · 14h de formation intensive

01Réseaux de neurones et deep learning
3h30
  • Du neurone biologique au neurone artificiel
  • Qu'est-ce qu'un réseau de neurones profond
  • Apprentissage supervisé, non supervisé, par renforcement
  • Démo interactive : visualiser un réseau qui apprend
02L'architecture Transformer
3h30
  • Tokenization et embeddings : comment le texte devient des chiffres
  • Le mécanisme d'attention expliqué visuellement
  • Encoder vs decoder : BERT, GPT et au-delà
  • Mise à l'échelle : pourquoi les gros modèles fonctionnent mieux
03Entraînement et alignement
3h30
  • Le pré-entraînement : données massives, objectifs et coûts
  • RLHF et DPO : rendre un modèle utile et sûr
  • Familles de modèles : GPT, Claude, Llama, Mistral — positionnement
  • Open-source vs propriétaire : critères de choix
04Hardware, économie et éthique
3h30
  • GPU vs CPU, VRAM, quantization INT4/INT8
  • Démo : faire tourner un modèle localement avec Ollama
  • Économie des LLM : coûts de training, d'inférence, pricing par token
  • Éthique : hallucinations, biais, impact environnemental

Programme détaillé par demi-journée

4 demi-journées · 14h de formation

01
Demi-journée 1 — Réseaux de neurones et deep learning
Objectif : Expliquer le fonctionnement d'un réseau de neurones et différencier les paradigmes d'apprentissage
3h30
  • Du neurone biologique au neurone artificiel : analogie visuelle pas à pas
  • Perceptron, couches cachées, rétropropagation : comment un réseau apprend
  • Deep learning : pourquoi la profondeur change tout (capacité de représentation)
  • Apprentissage supervisé vs non supervisé vs par renforcement : exemples concrets
  • Démo interactive : visualiser l'entraînement d'un réseau sur TensorFlow Playground
Cas pratiqueAtelier d'exploration : manipuler TensorFlow Playground pour observer l'effet du nombre de couches, du learning rate et de la quantité de données sur la capacité d'apprentissage. Documenter ses observations.
Evaluation : Quiz d'ancrage (10 questions) : identifier les composants d'un réseau de neurones et les paradigmes d'apprentissage
02
Demi-journée 2 — L'architecture Transformer décryptée
Objectif : Décrire le fonctionnement d'un Transformer et expliquer pourquoi cette architecture domine l'IA moderne
3h30
  • Tokenization : comment le texte est découpé en unités (BPE, WordPiece, SentencePiece)
  • Embeddings : représenter les mots comme des vecteurs dans un espace de sens
  • Le mécanisme d'attention : 'à quoi le modèle fait-il attention ?' — explication visuelle avec matrices
  • Encoder vs decoder : pourquoi GPT est decoder-only et BERT est encoder-only
  • Lois d'échelle (scaling laws) : pourquoi plus de paramètres = meilleures performances (et où ça s'arrête)
Cas pratiqueAtelier d'exploration : utiliser un outil de visualisation d'attention (BertViz) pour observer comment un Transformer traite une phrase en français. Identifier les patterns d'attention sur 5 exemples.
Evaluation : Quiz d'ancrage (10 questions) : expliquer les étapes du traitement d'un texte par un Transformer
03
Demi-journée 3 — Entraînement, alignement et familles de modèles
Objectif : Comparer les stratégies d'entraînement et de déploiement des principales familles de LLM
3h30
  • Pré-entraînement : volumes de données (Common Crawl, livres, code), coûts (millions de dollars), durée (semaines sur des milliers de GPU)
  • Fine-tuning supervisé (SFT) : adapter un modèle de base à des tâches spécifiques
  • RLHF (Reinforcement Learning from Human Feedback) : rendre le modèle utile, honnête et inoffensif
  • DPO (Direct Preference Optimization) : l'alternative simplifiée au RLHF
  • Cartographie des familles : GPT-4/o (OpenAI), Claude 3.5/4 (Anthropic), Llama 3 (Meta), Mistral/Mixtral — forces, faiblesses, licences
  • Open-source vs propriétaire : critères de choix selon le cas d'usage (coût, contrôle, performance, confidentialité)
Cas pratiqueAtelier : construire une grille de comparaison des 5 principaux LLM sur 10 critères (performance, coût, licence, taille, multilinguisme, contexte, vitesse, disponibilité, spécialisations, communauté). Recommander le modèle approprié pour 3 scénarios métier.
Evaluation : Quiz d'ancrage (10 questions) : associer chaque famille de modèle à ses caractéristiques et cas d'usage optimaux
04
Demi-journée 4 — Hardware, économie et limites des LLM
Objectif : Évaluer les contraintes matérielles et économiques pour choisir une stratégie de déploiement LLM adaptée
3h30
  • GPU vs CPU pour l'inférence : pourquoi les GPU sont indispensables (parallélisme, mémoire)
  • VRAM : pourquoi la mémoire GPU est le facteur limitant (calcul de la VRAM requise par modèle)
  • Quantization INT4/INT8/FP16 : réduire la taille d'un modèle en gardant les performances
  • Infrastructure : pourquoi le H100 de NVIDIA domine, alternatives (AMD MI300, Apple Silicon)
  • Démo live : faire tourner Llama 3 8B quantifié sur un laptop avec Ollama
  • Économie des LLM : coûts de training ($100M+ pour GPT-4), coûts d'inférence (prix par million de tokens), stratégies d'optimisation
  • Limites et éthique : hallucinations (pourquoi et comment les détecter), biais dans les données d'entraînement, impact environnemental (empreinte carbone du training et de l'inférence)
Cas pratiqueAtelier de synthèse : pour un scénario d'entreprise donné (chatbot de support client, 10 000 requêtes/jour), calculer le coût mensuel avec 3 stratégies (API propriétaire, modèle open-source hébergé cloud, modèle quantifié on-premise). Présenter sa recommandation au groupe.
Evaluation : Quiz final récapitulatif (20 questions) : valider l'ensemble des compétences acquises sur les 4 modules — architecture, entraînement, modèles et déploiement

Public cible et prérequis

Ce programme est fait pour vous si vous êtes

  • Développeurs souhaitant comprendre les fondations avant de coder
  • Managers et chefs de projet pilotant des initiatives IA
  • Entrepreneurs évaluant l'adoption de l'IA dans leur activité
  • Data analysts et profils techniques en reconversion vers l'IA
  • Tout profil curieux voulant démystifier les modèles de langage

Prérequis détaillés

Niveau : Initiation
  • Aucune compétence en programmation requise
  • Être à l'aise avec l'utilisation d'un ordinateur et d'un navigateur web
  • Curiosité et motivation pour comprendre les mécanismes de l'IA

Modalités pédagogiques et moyens

Approche pédagogique

  • Formation structurée autour du transfert de compétences conceptuelles
  • Apprentissage visuel : chaque concept est illustré par des schémas, animations et démonstrations interactives
  • Apprentissage collaboratif : échanges entre profils variés (tech et non-tech)
  • Parcours progressif en 4 demi-journées avec montée en compétence graduelle
  • Alternance théorie (60%) / démonstrations et ateliers d'exploration (40%)

Moyens et ressources fournis

  • Plateforme e-learning Talki Academy avec accès post-formation (6 mois)
  • Glossaire interactif des 100 termes clés de l'IA (PDF + web)
  • Environnement Ollama préconfiguré pour les démonstrations en direct
  • Support de cours PDF téléchargeable (150+ pages, richement illustré)
  • Fiches de synthèse par concept : Transformer, RLHF, quantization, familles de modèles
  • Enregistrements vidéo des sessions (accès 6 mois)

Évaluation et suivi

Modalités d'évaluation

  • Auto-positionnement en amont de la formation (questionnaire en ligne)
  • Quiz d'évaluation à la fin de chaque module (4 quiz, seuil de réussite : 70%)
  • Cas pratique fil rouge : analyser et comparer 3 modèles sur un cas d'usage donné
  • Auto-évaluation des compétences acquises en fin de formation
  • Évaluation à froid à 60 jours : questionnaire de transfert des acquis en situation de travail

Accompagnement

Assistance technique et pédagogique joignable entre 9h et 18h (jours ouvrés) par email à support@talki-academy.fr. Réponse sous 24h ouvrées. Accès au forum communautaire des apprenants.

Résultats de la formation

Indicateurs mesurés auprès des apprenants sur les 12 derniers mois

95%
Taux de satisfaction
91%
Taux de réussite
78%
Mise en oeuvre à J+60
Accessibilité

Formation accessible aux personnes en situation de handicap. Contactez-nous à accessibilite@talki-academy.fr pour étudier les adaptations nécessaires (supports, rythme, outils).

Prochaines sessions

Places limitées à 15 participants par session

Ville / FormatDatesInscription
Paris19 Mai 2026 · 14 Sep. 2026 · 7 Déc. 2026S'inscrire
À distance19 Mai 2026 · 14 Sep. 2026 · 7 Déc. 2026S'inscrire

Parcours apprenant avant et après la formation

Avant la formation

Engagement apprenant

En amont de la formation : connectez-vous à votre espace apprenant pour compléter le questionnaire de positionnement. Un guide de préparation vous sera envoyé par email avec des ressources introductives optionnelles. Votre formateur recevra vos objectifs de progression personnalisés.

Après la formation

Transfert de compétences

À l'issue de la formation : accédez à vos ressources, auto-évaluez vos compétences acquises et consultez le glossaire interactif depuis votre espace apprenant. Un point de suivi individuel est proposé à J+30.

Pour qui est cette formation ?

Profils vises

Développeurs
Managers
Entrepreneurs
Débutant14h · 15 personnes max

Prerequis

  • Aucun prérequis technique
  • Curiosité pour comprendre le fonctionnement de l'IA
  • Utiliser quotidiennement un ordinateur et naviguer sur internet

Modalites

Format
Présentiel ou distanciel — groupe de 6 à 15 personnes
Duree
2 jours (14h)
Prochaine session
19 mai 2026
Certification
Attestation de formation + glossaire illustré des concepts LLM

Financement

Reste à charge potentiel : 0€

Nos formations sont éligibles à la prise en charge OPCO dans le cadre du plan de développement des compétences. Selon votre OPCO (ATLAS, OPCO2i, AFDAS, AKTO...), la formation peut être financée à 100%.

  • Nous gérons les démarches administratives OPCO
  • Convention de formation et programme fournis
  • Attestation officielle en fin de formation
  • Déductible en charges pour votre entreprise
Prochaine session : 19 mai 2026

Comprendre les LLM de A à Z

9,99 €/mois
Abonnement mensuel
Acces a toutes les formations
Sans engagement, resiliable a tout moment
  • 2 jours intensifs
  • 15 participants max
  • Livrables production-ready
  • Support post-formation 30 jours

* Dans le cadre du plan de développement des compétences. Consultez votre OPCO.

Aller plus loin

Ressources vidéo recommandées

Une sélection de vidéos des meilleurs experts pour approfondir chaque module de la formation.

Module 1

Module 2

Module 3

Module 4

ⓘ Ces vidéos sont des contenus externes produits par des créateurs indépendants et ne sont pas la propriété d'Academy Talki. Elles sont recommandées à titre pédagogique pour compléter et vulgariser le contenu de la formation.

Prochaine session disponible

Session en 19 mai 2026. Places limitees a 15 participants.

🧠
Comprendre les LLM de A à Z
19 mai 2026 · 2 jours · Inclus dans l'abonnement
S'abonner — 9,99 €/moisDemander un devis

Financement OPCO

Vérifiez votre éligibilité OPCO en 30 secondes

Nous vérifions votre éligibilité et vous rappelons sous 24h avec les démarches complètes. La formation peut être intégralement prise en charge.

Conformément au RGPD, vos données sont traitées uniquement pour la gestion de votre demande et l'envoi d'informations si vous y consentez. Vous pouvez vous désabonner à tout moment via le lien présent dans chaque email. Plus d'infos : Politique de confidentialité