Talki Academy
Avancé

Sécurité IA : Défense contre l'Injection de Prompt2 jours

Formation technique intensive pour les développeurs, ingénieurs de sécurité et architectes qui déploient des applications LLM en production. Vous apprendrez à cartographier la surface d'attaque de vos systèmes IA, implémenter trois couches de défense (validation des entrées, filtrage des sorties, sandboxing des outils), analyser 5 incidents de sécurité réels documentés, et assembler un pipeline de sécurité conforme OWASP LLM Top 10. Chaque module inclut du code Python production-ready avec des exemples vulnérables et leurs versions sécurisées.

Inclus dans l'abonnement — 9,99 €/mois sans engagement
2 jours
14h de formation
5 modules
Max 10 participants
SécuritéPrompt InjectionOWASPGuardrailsPythonRed Team
9,99 €/mois
Acces a toutes les formations · Sans engagement
Prochaine session : Sur demande
S'abonner — 9,99 €/mois
Acces illimite a toutes les formations
Nouveaux contenus chaque mois
Resiliable a tout moment

AI Act : la formation IA devient obligatoire avant le 2 aout 2026

Anticipez la mise en conformite de votre entreprise. Voir nos formations

Ce que vous allez construire et apprendre

Des competences immediatement applicables dans votre contexte professionnel

  • Classer toute attaque LLM selon la taxonomie OWASP Top 10 for LLM Applications (2025)
  • Construire un modèle de menace STRIDE pour une application LLM existante
  • Implémenter les trois couches de défense : validation des entrées, filtrage des sorties, sandboxing des outils
  • Déployer des guardrails avec les bibliothèques open-source llm-guard et promptfoo
  • Analyser et reproduire les 5 vecteurs d'injection les plus exploités en production
  • Assembler un pipeline de sécurité complet avec journalisation, alertes et réponse aux incidents
  • Conduire un audit de red-teaming avec Garak (scanner de vulnérabilités LLM open-source)

Programme detaille

5 modules · 14h de formation intensive

01Taxonomie des attaques et modèle de menace
3h00
  • OWASP LLM Top 10 (2025) : 4 catégories d'injection
  • Reproduction de 3 attaques réelles dans un sandbox
  • STRIDE adapté aux applications LLM
  • Atelier : modèle de menace de votre application
02Défense Couche 1 : Validation des Entrées
3h00
  • Sanitisation regex et listes de blocage
  • Classificateur sémantique LLM pour la détection d'injections
  • Séparation structurelle prompt/données (XML tagging)
  • Atelier : pipeline de validation pour un chatbot RAG
03Défense Couche 2 : Filtrage des Sorties
3h00
  • Détection de fuite de prompt en sortie
  • Guardrails avec llm-guard et promptfoo
  • Validation de schéma JSON pour les sorties structurées
  • Atelier : mise en place des guardrails sur un LLM existant
04Pipeline de Sécurité en Production
2h30
  • Assemblage des 3 couches de défense
  • Journalisation sécurisée et détection d'anomalies
  • Rate limiting et réponse aux incidents
  • Red-teaming avec Garak : automatiser les tests de vulnérabilités
05Études de Cas Réels : 5 Incidents de Production
2h30
  • Bing Chat 'Sydney' : fuite de system prompt (2023)
  • Air Canada : manipulation de politique par chatbot (2024)
  • ChatGPT Plugin : exfiltration de données via Markdown (2023)
  • Agents de revue de code : injection via descriptions de PR (2024)
  • Injection en chaîne d'approvisionnement RAG via documents empoisonnés (2025)

Programme détaillé par demi-journée

4 demi-journées · 14h de formation

01
Demi-journée 1 — Taxonomie des attaques et modèle de menace
Objectif : Construire un modèle de menace STRIDE pour son application LLM et classifier les vecteurs d'attaque selon l'OWASP LLM Top 10
3h00
  • OWASP LLM Top 10 (2025) : 4 catégories d'injection (directe, indirecte, fuite de prompt, détournement de contexte)
  • L'effet multiplicateur agentique : pourquoi l'injection dans un agent LLM est une vulnérabilité d'exécution de code
  • Reproduction de 3 attaques réelles : extraction de system prompt, jailbreak de rôle, injection indirecte via ticket
  • STRIDE adapté aux LLM : Spoofing, Tampering, Repudiation, Information Disclosure, DoS, Elevation of Privilege
  • Atelier : construire le threat model de votre application avec la grille STRIDE-LLM fournie
Cas pratiqueLab : application Flask vulnérable simulant un chatbot de support client. Objectif : identifier et exploiter les 4 catégories d'injection, documenter l'impact réel de chaque attaque.
Evaluation : Quiz (10 questions) : classifier 10 scénarios d'attaque selon la taxonomie OWASP LLM Top 10
02
Demi-journée 2 — Défense Couche 1 : Validation des Entrées
Objectif : Implémenter un pipeline de validation des entrées combinant regex, classification sémantique LLM et séparation structurelle
3h00
  • Sanitisation par regex et listes de blocage : efficace pour les patterns connus, limites face aux variantes d'encodage
  • Classificateur sémantique : utiliser un LLM (haiku) pour détecter l'intention d'injection indépendamment de la forme
  • Séparation structurelle prompt/données : XML tagging, balises de confiance, labellisation des sources non fiables
  • Défense contre les injections indirectes : sanitisation des sorties de RAG avant traitement par le modèle
  • Atelier : construire le pipeline de validation complet pour un chatbot RAG de support client
Cas pratiqueLab : convertir le chatbot vulnérable de la demi-journée 1 en version sécurisée. Tester la résistance aux 4 catégories d'attaque. Mesurer le taux de blocage et le taux de faux positifs.
Evaluation : Quiz (10 questions) : choisir la défense appropriée pour 10 vecteurs d'attaque différents
03
Demi-journée 3 — Défense Couche 2 et 3 : Sorties et Outils
Objectif : Déployer des guardrails sur les sorties du modèle et appliquer le principe du moindre privilège aux appels d'outils
3h00
  • Détection de fuite de prompt en sortie : fingerprinting du system prompt, scan de mots-clés confidentiels
  • Guardrails avec llm-guard : installation, configuration des scanners, seuils de blocage
  • Promptfoo pour l'évaluation de sécurité : red-teaming automatisé, test de régression des défenses
  • Sandboxing des outils : confirmation humaine pour les actions irréversibles, principe du moindre privilège
  • Validation de schéma JSON : contraindre les sorties structurées pour éliminer les données parasites
Cas pratiqueLab : intégrer llm-guard dans le pipeline sécurisé. Configurer promptfoo pour lancer un red-team automatisé de 50 sondes. Analyser le rapport de vulnérabilités.
Evaluation : Quiz (10 questions) : identifier les failles de filtrage dans 10 exemples d'entrée/sortie LLM
04
Demi-journée 4 — Pipeline de Production et Études de Cas
Objectif : Assembler un pipeline de sécurité complet et extraire des patterns défensifs de 5 incidents de production documentés
5h00
  • Assemblage du pipeline complet : input validation → semantic classifier → LLM → output filter → tool gating → audit log
  • Journalisation sécurisée : SHA-256 des entrées, pas de stockage de PII, structure SIEM-compatible
  • Détection d'anomalies : reconnaissance des campagnes d'attaque par fenêtre temporelle et scoring de risque
  • 5 études de cas réels : Bing/Sydney, Air Canada, ChatGPT Plugin, agents de revue de code, injection RAG supply chain
  • Red-teaming avec Garak : installation, lancement des sondes DAN/encoding/jailbreak, interprétation des résultats
  • Rapport d'audit : structure, niveaux de sévérité, plan de remédiation prioritarisé
Cas pratiqueProjet de synthèse : audit de sécurité d'une application LLM complète fournie (chatbot RAG avec outils). Identifier toutes les vulnérabilités, implémenter les corrections, rédiger le rapport d'audit. Présentation de 10 minutes devant le groupe.
Evaluation : Quiz final (15 questions) : valider l'ensemble des compétences — threat modeling, défense en profondeur, incident response

Public cible et prérequis

Ce programme est fait pour vous si vous êtes

  • Développeurs Python ou JavaScript déployant des applications LLM en production
  • Ingénieurs de sécurité applicative (AppSec / SecEng)
  • Architectes logiciel et tech leads en charge de déploiements IA
  • MLOps et ingénieurs DevSecOps travaillant avec des APIs LLM
  • CTOs et responsables techniques évaluant les risques des déploiements IA

Prérequis détaillés

Niveau : Perfectionnement
  • Maîtriser Python à un niveau intermédiaire : async/await, dataclasses, gestion d'exceptions, pytest
  • Avoir intégré au moins une API LLM (Claude, OpenAI, Mistral) dans un projet réel
  • Connaître les concepts de base de la sécurité applicative : OWASP Top 10, injection SQL, threat modeling
  • Avoir déployé au moins une application en production (capacité à lire des logs, diagnostiquer des erreurs)

Modalités pédagogiques et moyens

Approche pédagogique

  • Formation centrée sur la pratique : chaque vecteur d'attaque est reproduit dans un sandbox avant d'être corrigé
  • Approche 'attaque puis défense' : comprendre l'exploitation avant d'implémenter la protection
  • Code production-ready fourni pour chaque couche de défense (Python, compatible FastAPI et AWS Lambda)
  • 5 études de cas d'incidents réels documentés avec reconstruction de la chaîne d'attaque
  • Alternance théorie (20%) / labs pratiques (80%)

Moyens et ressources fournis

  • Plateforme e-learning Talki Academy avec accès post-formation (6 mois)
  • Crédits API Claude fournis pour toute la durée de la formation
  • Environnements sandbox isolés pour les exercices d'exploitation
  • Bibliothèque de cas tests d'injection (100+ vecteurs d'attaque réels)
  • Templates de threat modeling et checklists de sécurité LLM
  • Accès aux outils : Garak, llm-guard, promptfoo, PromptBench

Évaluation et suivi

Modalités d'évaluation

  • Auto-positionnement en amont : questionnaire de sécurité applicative et LLM (15 questions)
  • Quiz à la fin de chaque module (seuil de réussite : 70%)
  • Lab de synthèse Jour 2 : audit de sécurité d'une application LLM fournie, identification et correction des vulnérabilités
  • Rapport d'audit remis à la fin de la formation (document professionnel réutilisable)
  • Évaluation à froid à 60 jours : questionnaire de transfert des acquis

Accompagnement

Assistance technique et pédagogique joignable entre 9h et 18h (jours ouvrés) par email à support@talki-academy.fr. Réponse sous 24h ouvrées. Accès au forum communautaire des apprenants.

Résultats de la formation

Indicateurs mesurés auprès des apprenants sur les 12 derniers mois

97%
Taux de satisfaction
91%
Taux de réussite
84%
Mise en oeuvre à J+60
Accessibilité

Formation accessible aux personnes en situation de handicap. Contactez-nous à accessibilite@talki-academy.fr pour étudier les adaptations nécessaires (supports, rythme, outils).

Prochaines sessions

Places limitées à 10 participants par session

Ville / FormatDatesInscription
Paris22 Sep. 2026 · 16 Nov. 2026S'inscrire
À distance22 Sep. 2026 · 16 Nov. 2026S'inscrire

Parcours apprenant avant et après la formation

Avant la formation

Engagement apprenant

En amont de la formation : complétez le questionnaire de positionnement et soumettez une description de votre application LLM en production (ou en développement) — votre formateur adaptera les exercices à votre contexte réel.

Après la formation

Transfert de compétences

À l'issue de la formation : accédez à votre rapport d'audit et à votre plan de remédiation personnalisé depuis votre espace apprenant. Un point de suivi individuel est proposé à J+30 pour vérifier la mise en œuvre des défenses.

Pour qui est cette formation ?

Profils vises

Développeurs
Avancé14h · 10 personnes max

Prerequis

  • Python intermédiaire (async/await, dataclasses, pytest)
  • Expérience avec au moins une API LLM (Claude, OpenAI ou équivalent)
  • Notions de sécurité applicative (OWASP, threat modeling)
  • Expérience de déploiement d'une application en production

Modalites

Format
Présentiel ou distanciel — groupe de 6 à 10 personnes
Duree
2 jours (14h)
Prochaine session
Sur demande
Certification
Attestation de formation + accès à vie aux ressources et mises à jour

Financement

Reste à charge potentiel : 0€

Nos formations sont éligibles à la prise en charge OPCO dans le cadre du plan de développement des compétences. Selon votre OPCO (ATLAS, OPCO2i, AFDAS, AKTO...), la formation peut être financée à 100%.

  • Nous gérons les démarches administratives OPCO
  • Convention de formation et programme fournis
  • Attestation officielle en fin de formation
  • Déductible en charges pour votre entreprise
Prochaine session : Sur demande

Sécurité IA : Défense contre l'Injection de Prompt

9,99 €/mois
Abonnement mensuel
Acces a toutes les formations
Sans engagement, resiliable a tout moment
  • 2 jours intensifs
  • 10 participants max
  • Livrables production-ready
  • Support post-formation 30 jours

* Dans le cadre du plan de développement des compétences. Consultez votre OPCO.

Prochaine session disponible

Session en Sur demande. Places limitees a 10 participants.

🛡️
Sécurité IA : Défense contre l'Injection de Prompt
Sur demande · 2 jours · Inclus dans l'abonnement
S'abonner — 9,99 €/moisDemander un devis

Financement OPCO

Vérifiez votre éligibilité OPCO en 30 secondes

Nous vérifions votre éligibilité et vous rappelons sous 24h avec les démarches complètes. La formation peut être intégralement prise en charge.

Conformément au RGPD, vos données sont traitées uniquement pour la gestion de votre demande et l'envoi d'informations si vous y consentez. Vous pouvez vous désabonner à tout moment via le lien présent dans chaque email. Plus d'infos : Politique de confidentialité