Talki Academy
Avancé

De l'API aux Agents : construire des apps IA en production3 jours

Formation L300 — Avancé. Vous comprenez les LLM et savez les personnaliser. Maintenant, construisez des applications IA de production. Cette formation couvre le pipeline complet : appels API avancés, prompt engineering de production, RAG, tool use, MCP, architectures d'agents et toutes les préoccupations de mise en production (monitoring, sécurité, coûts). Vous repartirez avec un agent fonctionnel déployé et monitoré.

Inclus dans l'abonnement — 9,99 €/mois sans engagement
3 jours
21h de formation
6 modules
Max 12 participants
AgentsAPIProductionMCP
9,99 €/mois
Acces a toutes les formations · Sans engagement
Prochaine session : 9 juin 2026
S'abonner — 9,99 €/mois
Acces illimite a toutes les formations
Nouveaux contenus chaque mois
Resiliable a tout moment

AI Act : la formation IA devient obligatoire avant le 2 aout 2026

Anticipez la mise en conformite de votre entreprise. Voir nos formations

Ce que vous allez construire et apprendre

Des competences immediatement applicables dans votre contexte professionnel

  • Maîtriser les appels API avancés : streaming, structured outputs, batching
  • Implémenter un pipeline RAG complet avec embeddings et recherche hybride
  • Connecter un LLM à des systèmes externes via MCP (Model Context Protocol)
  • Concevoir des architectures d'agents : ReAct, plan-and-execute, multi-agent
  • Sécuriser une application LLM : prompt injection, output filtering, guardrails
  • Déployer et monitorer une application IA en production avec observabilité complète

Programme detaille

6 modules · 21h de formation intensive

01API avancé et prompt engineering de production
3h30
  • Anatomie d'une requête LLM : tokens, paramètres, streaming
  • Structured outputs : forcer JSON, validation de schéma
  • Prompt engineering avancé : system prompts, few-shot, chain-of-thought
  • Atelier : pipeline de traitement de documents avec streaming
02Tool use et function calling
3h30
  • Donner des 'mains' au LLM : schémas d'outils, appels, résultats
  • Orchestration multi-étapes : routing, retry, fallback
  • MCP (Model Context Protocol) : connecter les LLM au monde réel
  • Atelier : agent avec 5 outils connectés via MCP
03RAG : de la théorie à la production
3h30
  • Embeddings et vector stores : choix et dimensionnement
  • Chunking strategies : taille, overlap, sémantique
  • Recherche hybride : dense + sparse + reranking
  • Atelier : pipeline RAG sur une base documentaire métier
04Architectures d'agents
3h30
  • ReAct : raisonnement + action en boucle
  • Plan-and-execute : planifier puis exécuter
  • Multi-agent : orchestration et communication inter-agents
  • Atelier : agent de recherche multi-sources avec planification
05Sécurité et robustesse
3h30
  • Prompt injection : attaques et défenses en profondeur
  • Output filtering et guardrails : llm-guard, NeMo Guardrails
  • Rate limiting, caching, circuit breakers
  • Atelier : sécuriser un agent existant contre les 4 catégories d'injection
06Projet capstone : agent de production
3h30
  • Monitoring et observabilité : Langfuse, traces, métriques de coût
  • Architecture complète : agent + RAG + outils + monitoring
  • Déploiement et CI/CD pour applications IA
  • Soutenance du projet et feedback individualisé

Programme détaillé par demi-journée

6 demi-journées · 21h de formation

01
Demi-journée 1 — API avancé et prompt engineering de production
Objectif : Maîtriser les appels API LLM avancés et produire des prompts robustes pour des environnements de production
3h30
  • Anatomie d'une requête LLM : tokenization, paramètres critiques (temperature, top_p, max_tokens), impact sur la qualité et le coût
  • Streaming : implémentation SSE (Server-Sent Events), gestion des chunks, affichage progressif côté client
  • Structured outputs : forcer la sortie JSON avec JSON mode, validation de schéma, gestion des erreurs de parsing
  • Prompt engineering de production : system prompts versionnés, few-shot calibré, chain-of-thought contrôlé
  • Batching et parallélisme : traiter des volumes avec asyncio/Promise.all, gestion du rate limiting
Cas pratiqueLab : construire un pipeline de traitement de documents qui ingère 100 PDF, extrait les informations clés en JSON structuré via streaming, avec retry automatique et rapport d'erreurs. Mesurer le coût et la latence.
Evaluation : Quiz d'ancrage (10 questions) : optimiser les paramètres API et diagnostiquer les problèmes de prompt en production
02
Demi-journée 2 — Tool use, function calling et MCP
Objectif : Connecter un LLM à des systèmes externes via tool use et MCP pour créer des applications interactives
3h30
  • Tool use : définition de schémas JSON, cycle requête/réponse, gestion des résultats d'outils
  • Function calling multi-étapes : orchestration séquentielle, routing conditionnel, agrégation de résultats
  • MCP (Model Context Protocol) : architecture client/serveur, transports (stdio, SSE), cycle de vie des connexions
  • Construire un serveur MCP : exposer des ressources et outils métier au LLM
  • Sécurité du tool use : validation des paramètres, sandboxing, principe du moindre privilège, confirmation humaine
Cas pratiqueLab : construire un serveur MCP qui expose une base de données produit (lecture/recherche) et un système de tickets (création/mise à jour). Connecter Claude Desktop au serveur et tester les interactions end-to-end.
Evaluation : Quiz d'ancrage (10 questions) : concevoir l'architecture tool use/MCP pour un cas d'usage métier donné
03
Demi-journée 3 — RAG : de la théorie à la production
Objectif : Implémenter un pipeline RAG complet avec recherche hybride et reranking pour une base documentaire métier
3h30
  • Embeddings : modèles (text-embedding-3, e5, BGE), dimensions, normalisation, choix selon la langue et le domaine
  • Vector stores : Chroma, Qdrant, Pinecone — architecture, indexation, requêtes, coûts comparés
  • Chunking strategies : taille fixe, par paragraphe, sémantique (recursive), impact sur la qualité de la récupération
  • Recherche hybride : combiner dense (embeddings) + sparse (BM25) + reranking (Cohere, cross-encoder) pour maximiser le rappel
  • Évaluation RAG : métriques de retrieval (recall@k, MRR), métriques de génération (faithfulness, relevance), framework RAGAS
Cas pratiqueLab : construire un pipeline RAG sur une documentation technique de 500 pages. Implémenter chunking sémantique, indexation dans Qdrant, recherche hybride avec reranking. Évaluer avec RAGAS sur 30 questions de test.
Evaluation : Quiz d'ancrage (10 questions) : diagnostiquer les problèmes d'un pipeline RAG et proposer des optimisations
04
Demi-journée 4 — Architectures d'agents
Objectif : Concevoir et implémenter des agents autonomes avec les patterns ReAct, plan-and-execute et multi-agent
3h30
  • Pattern ReAct : boucle Thought → Action → Observation, implémentation from scratch et avec frameworks
  • Plan-and-execute : séparer planification et exécution, replanification dynamique, gestion de l'échec
  • Multi-agent : architectures supervisor/worker, communication inter-agents, partage de contexte
  • Frameworks : LangGraph, CrewAI, Autogen — comparaison et critères de choix
  • Mémoire d'agent : court terme (contexte), moyen terme (résumés), long terme (vector store), mémoire procédurale
Cas pratiqueLab : construire un agent de recherche multi-sources qui planifie sa stratégie, interroge 3 sources (web, base documentaire RAG, base de données SQL), synthétise les résultats et produit un rapport structuré. Implémenter avec LangGraph.
Evaluation : Quiz d'ancrage (10 questions) : choisir l'architecture d'agent appropriée selon les contraintes du projet
05
Demi-journée 5 — Sécurité et robustesse en production
Objectif : Sécuriser une application LLM contre les attaques et mettre en place les mécanismes de robustesse production
3h30
  • Prompt injection : taxonomie (directe, indirecte, jailbreak), vecteurs d'attaque, défense en profondeur (input validation, semantic classifier, output filter)
  • Output filtering et guardrails : llm-guard, NeMo Guardrails, détection de contenu toxique, fuite de données
  • Rate limiting et caching : stratégies par utilisateur/IP, cache sémantique, économies de coûts mesurables
  • Circuit breakers et fallback : dégradation gracieuse, modèle de secours, réponses par défaut
  • Conformité : RGPD (pas de PII dans les prompts), AI Act (niveau de risque), journalisation d'audit
Cas pratiqueLab : prendre un agent vulnérable (fourni) et le sécuriser. Implémenter : input validation, semantic classifier, output filter, rate limiter, circuit breaker. Tester avec un red-team automatisé de 50 sondes d'attaque.
Evaluation : Quiz d'ancrage (10 questions) : identifier les vulnérabilités et proposer les défenses appropriées pour une application LLM
06
Demi-journée 6 — Projet capstone : agent de production
Objectif : Livrer un agent IA complet, sécurisé, monitoré et déployé en production
3h30
  • Monitoring et observabilité : Langfuse pour les traces LLM, métriques de coût par requête, alerting sur latence et taux d'erreur
  • Architecture de production : API Gateway, file d'attente, worker async, base vectorielle, cache, monitoring — schéma complet
  • CI/CD pour applications IA : tests de régression des prompts (promptfoo), tests d'intégration des outils, déploiement blue/green
  • Coût tracking : mesurer le coût par interaction, projection mensuelle, alertes de dépassement de budget
  • Présentation des projets capstone devant le groupe et feedback individualisé du formateur
Cas pratiqueProjet capstone : construire et déployer un agent de production complet intégrant RAG (base documentaire), 3+ outils (recherche web, base de données, création de tickets), sécurité (input/output filtering), monitoring (Langfuse). Soutenance de 15 minutes avec démonstration live.
Evaluation : Quiz final récapitulatif (20 questions) : valider l'ensemble des compétences — API, RAG, agents, sécurité, monitoring, déploiement

Public cible et prérequis

Ce programme est fait pour vous si vous êtes

  • Développeurs backend et full-stack expérimentés
  • Architectes logiciel et tech leads pilotant des projets IA
  • Ingénieurs ML/NLP souhaitant maîtriser les agents et le RAG en production
  • DevOps et SRE déployant des applications LLM
  • Tout développeur ayant suivi les formations L100 et L200

Prérequis détaillés

Niveau : Expertise
  • Maîtriser Python ou JavaScript à un niveau avancé (async/await, gestion d'erreurs, design patterns)
  • Avoir une expérience pratique des API REST (authentification, requêtes HTTP, webhooks)
  • Formations L100 'Comprendre les LLM' et L200 'Fine-tuning LLM' recommandées (ou connaissances équivalentes)

Modalités pédagogiques et moyens

Approche pédagogique

  • Formation structurée autour du transfert de compétences opérationnelles
  • Apprentissage par la pratique : chaque concept est suivi d'un exercice de code appliqué à des cas de production réels
  • Apprentissage collaboratif : échanges entre pairs développeurs et architectes de stacks variées
  • Parcours progressif en 6 demi-journées avec montée en compétence graduelle
  • Alternance théorie (25%) / pratique sur cas réels (75%)

Moyens et ressources fournis

  • Plateforme e-learning Talki Academy avec accès post-formation (6 mois)
  • Crédits API Claude et OpenAI fournis pour toute la durée de la formation
  • Environnement sandbox préconfiguré : SDK Python/TypeScript, vector store, outils MCP, Langfuse
  • Support de cours PDF téléchargeable (250+ pages, avec architectures et code commenté)
  • Dépôt GitHub privé avec tout le code des exercices, agents et pipelines RAG
  • Enregistrements vidéo des sessions (accès 6 mois)

Évaluation et suivi

Modalités d'évaluation

  • Auto-positionnement en amont de la formation (questionnaire technique en ligne)
  • Quiz d'évaluation à la fin de chaque module (6 quiz, seuil de réussite : 70%)
  • Cas pratique fil rouge : construire un agent de production complet avec RAG, outils et monitoring
  • Auto-évaluation des compétences acquises en fin de formation
  • Évaluation à froid à 60 jours : questionnaire de transfert des acquis en situation de travail

Accompagnement

Assistance technique et pédagogique joignable entre 9h et 18h (jours ouvrés) par email à support@talki-academy.fr. Réponse sous 24h ouvrées. Accès au forum communautaire des apprenants.

Résultats de la formation

Indicateurs mesurés auprès des apprenants sur les 12 derniers mois

97%
Taux de satisfaction
93%
Taux de réussite
84%
Mise en oeuvre à J+60
Accessibilité

Formation accessible aux personnes en situation de handicap. Contactez-nous à accessibilite@talki-academy.fr pour étudier les adaptations nécessaires (supports, rythme, outils).

Prochaines sessions

Places limitées à 12 participants par session

Ville / FormatDatesInscription
Paris9 Juin 2026 · 28 Sep. 2026 · 15 Déc. 2026S'inscrire
À distance9 Juin 2026 · 28 Sep. 2026 · 15 Déc. 2026S'inscrire

Parcours apprenant avant et après la formation

Avant la formation

Engagement apprenant

En amont de la formation : connectez-vous à votre espace apprenant pour compléter le questionnaire de positionnement et configurer votre environnement de développement. Un guide d'installation vous sera envoyé par email avec les prérequis techniques. Votre formateur recevra vos objectifs de progression personnalisés.

Après la formation

Transfert de compétences

À l'issue de la formation : accédez à vos ressources, auto-évaluez vos compétences acquises et retrouvez votre dépôt GitHub avec tout le code, agents et pipelines produits. Un point de suivi individuel est proposé à J+30.

Pour qui est cette formation ?

Profils vises

Développeurs
Avancé21h · 12 personnes max

Prerequis

  • Python ou JavaScript avancé (async, gestion d'erreurs, API REST)
  • Expérience pratique avec les API (authentification, requêtes HTTP)
  • Formations L100 + L200 recommandées (ou connaissances équivalentes)

Modalites

Format
Présentiel ou distanciel — groupe de 6 à 12 personnes
Duree
3 jours (21h)
Prochaine session
9 juin 2026
Certification
Attestation de formation + accès au dépôt de code et agent déployé

Financement

Reste à charge potentiel : 0€

Nos formations sont éligibles à la prise en charge OPCO dans le cadre du plan de développement des compétences. Selon votre OPCO (ATLAS, OPCO2i, AFDAS, AKTO...), la formation peut être financée à 100%.

  • Nous gérons les démarches administratives OPCO
  • Convention de formation et programme fournis
  • Attestation officielle en fin de formation
  • Déductible en charges pour votre entreprise
Prochaine session : 9 juin 2026

De l'API aux Agents : construire des apps IA en production

9,99 €/mois
Abonnement mensuel
Acces a toutes les formations
Sans engagement, resiliable a tout moment
  • 3 jours intensifs
  • 12 participants max
  • Livrables production-ready
  • Support post-formation 30 jours

* Dans le cadre du plan de développement des compétences. Consultez votre OPCO.

Aller plus loin

Ressources vidéo recommandées

Une sélection de vidéos des meilleurs experts pour approfondir chaque module de la formation.

Module 1

Module 2

Module 3

Module 4

Module 5

Module 6

ⓘ Ces vidéos sont des contenus externes produits par des créateurs indépendants et ne sont pas la propriété d'Academy Talki. Elles sont recommandées à titre pédagogique pour compléter et vulgariser le contenu de la formation.

Prochaine session disponible

Session en 9 juin 2026. Places limitees a 12 participants.

🤖
De l'API aux Agents : construire des apps IA en production
9 juin 2026 · 3 jours · Inclus dans l'abonnement
S'abonner — 9,99 €/moisDemander un devis

Financement OPCO

Vérifiez votre éligibilité OPCO en 30 secondes

Nous vérifions votre éligibilité et vous rappelons sous 24h avec les démarches complètes. La formation peut être intégralement prise en charge.

Conformément au RGPD, vos données sont traitées uniquement pour la gestion de votre demande et l'envoi d'informations si vous y consentez. Vous pouvez vous désabonner à tout moment via le lien présent dans chaque email. Plus d'infos : Politique de confidentialité