Talki Academy
Intermédiaire2 joursEU AI Act 2026

AI Act 2026 : Guide de Mise en Conformité Pratique

Dépassez les checklists de conformité. Construisez de véritables analyses de risques, modèles AIPD, journaux d'audit et systèmes de détection de dérive pour vos systèmes IA déployés dans l'UE — avec du code fonctionnel pour chaque livrable.

Cette formation est éligible au financement OPCO. Prix de référence 1 490 €.

Ce que vous allez construire

Classifier n'importe quel système IA (IA générative, RAG, agents vocaux) selon l'AI Act UE avec des preuves documentées
Compléter une AIPD pour les systèmes IA — modèles pré-remplis pour trois scénarios
Générer des fiches système et la documentation technique satisfaisant l'Annexe IV
Exécuter des suites de détection automatisée des biais et de surveillance de la dérive en production
Implémenter une journalisation d'audit conforme à l'Article 12 avec protection des données personnelles
Produire une analyse de risques complète pour un système RAG avec des scores de risque réels

Pour qui

  • Responsables conformité et DPD préparant les obligations des systèmes à haut risque d'août 2026
  • Développeurs construisant des systèmes IA déployés auprès d'utilisateurs UE
  • Équipes juridiques conseillant les organisations sur la mise en conformité AI Act
  • CTO et chefs de produit lançant des fonctionnalités IA potentiellement à haut risque

Prérequis

  • ·Compréhension de base du RGPD (personnes concernées, base juridique, sous-traitant vs. responsable)
  • ·Familiarité avec au moins un pattern de déploiement IA (chatbot, RAG, modèle de scoring)
  • ·Bases Python pour exécuter les exemples de code (vous n'avez pas besoin d'être développeur)

Modules

Taxonomie des Risques : Classifier Correctement Vos Systèmes IA

2h30

Appliquez le modèle à quatre niveaux de l'AI Act à des architectures réelles — IA générative, pipelines RAG, agents vocaux — et produisez une classification défendable avec les preuves documentées.

Taxonomie des Risques : Classifier Correctement Vos Systèmes IA

À la fin de ce module, vous saurez : classifier correctement un chatbot IA générative, un pipeline RAG et un agent vocal selon l'AI Act ; identifier quelle classification déclenche les obligations de haut risque ; et produire un document de classification avec preuves qui résistera à un audit.

Le modèle de risque de l'AI Act est fondé sur le risque, non sur la technologie. Le même modèle sous-jacent — par exemple un appel à l'API Claude — peut être à risque minimal dans un contexte (résumer des documents internes) et à haut risque dans un autre (noter des candidats à l'embauche). Les erreurs de classification dans les deux sens sont coûteuses : sous-classifier expose à des amendes jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial ; sur-classifier impose une charge de conformité inutile aux équipes. La décision de classification doit être documentée, révisée annuellement et défendable devant une autorité de surveillance du marché.

Les Quatre Niveaux de Risque avec Exemples Réels

  • Risque inacceptable (INTERDIT depuis février 2025) : Identification biométrique à distance en temps réel dans les espaces publics sans autorisation judiciaire ; systèmes de notation sociale attribuant aux citoyens un score de réputation affectant leur accès aux services ; IA exploitant des vulnérabilités psychologiques pour manipuler les comportements. Exemple interdit : une plateforme d'analyse retail utilisant la reconnaissance faciale pour confronter les clients à une base de données policière et alerter les agents de sécurité en temps réel.
  • Haut risque (évaluation de conformité complète requise avant août 2026) : Tri automatisé de CV et classement de candidats (Annexe III point 4) ; scoring de crédit automatisé utilisé dans les décisions de prêt (Annexe III point 5b) ; logiciels dispositifs médicaux influençant des décisions diagnostiques ou thérapeutiques (Annexe III point 6) ; IA utilisée dans la gestion d'infrastructures critiques — réseaux électriques, systèmes d'eau (Annexe III point 2). Exemple haut risque : un SaaS de recrutement qui prend des CV et produit une shortlist classée, même si un humain prend la décision finale d'embauche.
  • Risque limité (obligations de transparence uniquement) : Les chatbots interagissant avec des personnes physiques doivent divulguer qu'ils sont une IA. Les deepfakes doivent être étiquetés. Les textes générés par IA dans le journalisme ou le marketing doivent être divulgués. Exemple : un chatbot de support client basé sur Claude doit indiquer aux utilisateurs qu'ils parlent à une IA — mais le système lui-même ne nécessite pas d'évaluation de conformité.
  • Risque minimal (aucune obligation obligatoire) : Moteurs de recommandation de produits, filtres anti-spam, recherche IA, traduction de contenu, correction grammaticale. Exemple : un outil interne de résumé de documents utilisant un pipeline RAG sur la base de connaissances de l'entreprise — risque minimal s'il ne prend pas de décisions conséquentes concernant des individus.

Classification des Systèmes IA Générative (GPAI)

L'AI Act ajoute une filière spécifique pour les modèles d'IA à usage général (GPAI) — des modèles entraînés sur des données larges et utilisables pour de nombreuses tâches. Si vous déployez un modèle GPAI (Claude, GPT-4, Llama 3) ou construisez au-dessus, la classification fonctionne différemment : le modèle lui-même relève des obligations GPAI (responsabilité du fournisseur), mais votre couche application relève du modèle à quatre niveaux. Un modèle GPAI à risque systémique (puissance de calcul d'entraînement supérieure à 10^25 FLOPs) comporte des exigences supplémentaires : tests adversariaux, signalement d'incidents et divulgation de consommation énergétique.

Arbre de Décision pour la Classification d'un Pipeline RAG

Python

🛠️ Exercice 1 : Workbench de Classification AI Act

Exécutez ce code sur trois scénarios réels préconfigurés, puis ajoutez votre propre système en Scénario 4. Le classificateur reproduit la logique utilisée par les équipes conformité lors des audits AI Act réels. Observez comment un seul paramètre modifie le niveau de risque — et les obligations qui en découlent.

Exercice pratique

Exécutez le code et examinez chaque classification. Puis : (1) Scénario 1 — passez `utilise_biometrie=False` : le risque reste-t-il élevé ? Pourquoi ? (2) Scénario 2 — passez `domaine_decision` à `None` : comptez combien d'obligations disparaissent. (3) Ajoutez votre propre système réel ou hypothétique en Scénario 4 et justifiez votre classification par écrit.

Python

🛠️ Exercice 2 : Générez Votre Documentation Technique Article 11

Les systèmes IA à haut risque doivent produire une documentation technique avant le premier déploiement en production. Les autorités de surveillance du marché demandent ce document lors des audits. Complétez les champs ci-dessous pour un outil de filtrage de CV réel ou hypothétique.

Exercice pratique

Complétez tous les champs TODO pour un outil de filtrage de CV réel ou hypothétique. Portez une attention particulière aux métriques §4 — elles doivent être ventilées par groupe démographique. Une fois terminé, comptez combien de champs ont nécessité des recherches : ces champs sont vos angles morts de conformité.

Python

Quiz disponible

Terminez la lecture de ce module puis validez vos connaissances avec le quiz.


Modèles AIPD : Pré-remplis pour Trois Scénarios Courants

2h

Rédigez des Analyses d'Impact sur la Protection des Données conformes pour les trois patterns de déploiement IA qui en nécessitent le plus souvent une : pipelines RAG traitant des données personnelles, agents vocaux enregistrant des conversations, et systèmes de notation automatisée.

Modèles AIPD : Pré-remplis pour Trois Scénarios Courants

Une AIPD est obligatoire en vertu de l'Article 35 RGPD dès que le traitement IA est 'susceptible d'engendrer un risque élevé pour les droits et libertés des personnes physiques.' Pour les systèmes IA, la CNIL et les autorités équivalentes considèrent trois déclencheurs automatiques : (1) surveillance systématique d'individus à grande échelle, (2) traitement de catégories particulières de données (santé, biométrique, politique), (3) prise de décision automatisée avec effets juridiques ou similaires. Si votre système IA satisfait l'un de ces critères, une AIPD est requise avant de traiter un seul enregistrement en production.

AIPD Scénario 1 — Pipeline RAG Traitant des Données Personnelles d'Employés

Json

🛠️ Exercice 3 : Matrice de Risques AIPD — Surveillance Biométrique des Salariés

Votre entreprise souhaite déployer un système de reconnaissance faciale pour le pointage de 800 salariés dans 3 bureaux en UE. Avant que le DPO puisse approuver, vous devez compléter la matrice de risques AIPD au titre de l'Article 35 RGPD. Évaluez les trois risques que les autorités de contrôle examinent systématiquement pour les systèmes biométriques.

Exercice pratique

Complétez les trois entrées de risque : définissez la vraisemblance, la gravité, ajoutez deux mesures d'atténuation concrètes chacune, puis le risque résiduel après atténuation. Une fois terminé : (1) Le risque R-002 (taux d'erreur discriminatoires) justifie-t-il d'exiger des tests de performance par sous-groupe comme condition de déploiement ? (2) Pour R-003 (extension rampante), quelle mesure technique rendrait l'extension impossible sans déclencher une nouvelle AIPD ?

Python

Patterns de Documentation : Fiches Système, Dossiers Techniques et Model Cards

1h30

Construisez les trois artefacts de documentation requis par l'Article 11 de l'AI Act : une fiche système (niveau métier), un dossier technique (niveau ingénierie) et une model card (niveau modèle). Inclut des scripts d'automatisation.

Documentation : Ce que l'AI Act Exige Réellement

L'Article 11 de l'AI Act exige que les systèmes IA à haut risque maintiennent une documentation technique avant la mise sur le marché — et la tiennent à jour tout au long du cycle de vie du système. Le règlement précise ce qui doit être documenté (Annexe IV) mais pas le format. Ce module établit trois types de documents pratiques qui, ensemble, satisfont l'Annexe IV, sont maintenables par les équipes d'ingénierie et peuvent être versionnés aux côtés du code.

La Fiche Système (Niveau Métier, pour le DPD et la Direction)

Yaml

Frameworks de Test : Détection des Biais et Surveillance de la Dérive

2h

Construisez des suites de tests automatisées pour les biais démographiques et la dérive en production — les deux causes les plus fréquentes de non-conformité à l'AI Act découvertes lors de la surveillance post-commercialisation.

Frameworks de Test : Biais et Dérive en Production

L'AI Act exige une surveillance post-commercialisation continue (Article 72) — pas seulement des tests avant déploiement. Vous avez besoin de tests automatisés qui s'exécutent en production et vous alertent lorsque les performances se dégradent, les biais augmentent ou la distribution des entrées dérive. Ce module construit une stack de monitoring complète utilisant des outils open-source : Evidently pour la détection de dérive, et un framework de test d'équité personnalisé.

Suite de Tests de Parité Démographique

Python

Journalisation d'Audit : Quoi Journaliser, Comment Structurer, Combien de Temps Conserver

1h30

Implémentez l'infrastructure de journalisation requise par l'Article 12 de l'AI Act pour les systèmes à haut risque. Couvre la conception du schéma de journaux, les exigences d'immuabilité, et une implémentation middleware FastAPI.

Journalisation d'Audit pour l'Article 12 de l'AI Act

L'Article 12 de l'AI Act exige que les systèmes IA à haut risque 'enregistrent automatiquement les événements' pour permettre la surveillance post-commercialisation et l'investigation des incidents. Les journaux doivent être : (1) générés automatiquement — pas écrits manuellement, (2) suffisants pour reconstituer le fonctionnement du système à tout moment donné, (3) conservés pendant la durée de vie opérationnelle du système (minimum 6 mois pour la plupart des systèmes, 10 ans pour les systèmes d'infrastructures critiques).

Schéma de Journal Conforme à l'AI Act

Python

Configuration de rétention pour la conformité Article 12 : pour les systèmes à haut risque dans la plupart des domaines, conservez les journaux pendant la durée de vie opérationnelle du système + 10 ans. Utilisez S3 Object Lock (mode COMPLIANCE) ou Azure Immutable Blob Storage pour empêcher la suppression. Testez votre politique de rétention des journaux annuellement — un journal inaccessible équivaut à aucun journal lors d'un audit.


Projet Final : Analyse de Risques Complète pour un Système RAG en Production

2h30

Réalisez une analyse de risques complète AI Act + RGPD pour un système RAG d'analyse de documents juridiques — le type le plus fréquemment scrutiné par les régulateurs. Produisez des scores de risque réels, identifiez les mesures d'atténuation et générez le certificat de conformité.

Projet Final : Analyse de Risques pour un RAG Juridique en Production

Scénario : votre entreprise a développé un système RAG qui analyse les contrats juridiques et signale les clauses non standard. Les juristes l'utilisent pour prioriser leurs efforts de révision. Vous êtes sur le point de le déployer auprès de 40 cabinets d'avocats dans l'UE. Avant la mise en production, vous avez besoin d'une analyse de risques complète.

Étape 1 — Classification des Risques avec Score de Preuve

Python

Étape 2 — Checklist Avant Mise en Production

  • Classification des risques documentée et signée par le responsable conformité — fichier de preuves stocké en gestion de version
  • AIPD complétée et approuvée par le DPD — stockée dans le registre de confidentialité avec date d'expiration
  • Évaluation de conformité complétée (pour les systèmes à haut risque) — certificat émis
  • Enregistrement dans la base de données AI Act de l'UE soumis (obligatoire avant août 2026 pour les systèmes à haut risque)
  • Mécanisme de supervision humaine testé — workflow de substitution vérifié de bout en bout
  • Journalisation d'audit en fonctionnement — journal échantillon révisé par l'équipe conformité, politique de rétention confirmée
  • Suite de tests de biais en fonctionnement — rapport de référence généré, seuils documentés
  • Moniteur de dérive configuré — premier snapshot du jeu de données de référence sauvegardé
  • Accords de sous-traitance signés avec tous les sous-traitants (API LLM, vector store, fournisseur cloud)
  • Divulgation côté utilisateur implémentée — notice 'Ceci est un système IA' vérifiée dans l'interface
  • Plan de réponse aux incidents documenté — qui notifier, dans quel délai (Article 73 : incidents graves dans les 15 jours ouvrables à l'autorité de surveillance du marché)
  • Calendrier de surveillance post-commercialisation défini — revue trimestrielle minimum pour les systèmes à haut risque

Sauvegardez cette checklist comme modèle d'issue GitHub ou ticket JIRA. Exécutez-la pour chaque nouveau déploiement IA et à chaque release majeure. Attachez la checklist complétée à votre PR de release — elle devient la piste d'audit.

Quiz disponible

Terminez la lecture de ce module puis validez vos connaissances avec le quiz.


Prêt à mettre en conformité vos systèmes IA ?

En présentiel ou distanciel. Groupes de 4 à 12 personnes. Contactez-nous pour organiser une session pour votre équipe.

Nous contacter