Taxonomie des Risques : Classifier Correctement Vos Systèmes IA
2h30
Appliquez le modèle à quatre niveaux de l'AI Act à des architectures réelles — IA générative, pipelines RAG, agents vocaux — et produisez une classification défendable avec les preuves documentées.
Taxonomie des Risques : Classifier Correctement Vos Systèmes IA
À la fin de ce module, vous saurez : classifier correctement un chatbot IA générative, un pipeline RAG et un agent vocal selon l'AI Act ; identifier quelle classification déclenche les obligations de haut risque ; et produire un document de classification avec preuves qui résistera à un audit.
Le modèle de risque de l'AI Act est fondé sur le risque, non sur la technologie. Le même modèle sous-jacent — par exemple un appel à l'API Claude — peut être à risque minimal dans un contexte (résumer des documents internes) et à haut risque dans un autre (noter des candidats à l'embauche). Les erreurs de classification dans les deux sens sont coûteuses : sous-classifier expose à des amendes jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial ; sur-classifier impose une charge de conformité inutile aux équipes. La décision de classification doit être documentée, révisée annuellement et défendable devant une autorité de surveillance du marché.
Les Quatre Niveaux de Risque avec Exemples Réels
- Risque inacceptable (INTERDIT depuis février 2025) : Identification biométrique à distance en temps réel dans les espaces publics sans autorisation judiciaire ; systèmes de notation sociale attribuant aux citoyens un score de réputation affectant leur accès aux services ; IA exploitant des vulnérabilités psychologiques pour manipuler les comportements. Exemple interdit : une plateforme d'analyse retail utilisant la reconnaissance faciale pour confronter les clients à une base de données policière et alerter les agents de sécurité en temps réel.
- Haut risque (évaluation de conformité complète requise avant août 2026) : Tri automatisé de CV et classement de candidats (Annexe III point 4) ; scoring de crédit automatisé utilisé dans les décisions de prêt (Annexe III point 5b) ; logiciels dispositifs médicaux influençant des décisions diagnostiques ou thérapeutiques (Annexe III point 6) ; IA utilisée dans la gestion d'infrastructures critiques — réseaux électriques, systèmes d'eau (Annexe III point 2). Exemple haut risque : un SaaS de recrutement qui prend des CV et produit une shortlist classée, même si un humain prend la décision finale d'embauche.
- Risque limité (obligations de transparence uniquement) : Les chatbots interagissant avec des personnes physiques doivent divulguer qu'ils sont une IA. Les deepfakes doivent être étiquetés. Les textes générés par IA dans le journalisme ou le marketing doivent être divulgués. Exemple : un chatbot de support client basé sur Claude doit indiquer aux utilisateurs qu'ils parlent à une IA — mais le système lui-même ne nécessite pas d'évaluation de conformité.
- Risque minimal (aucune obligation obligatoire) : Moteurs de recommandation de produits, filtres anti-spam, recherche IA, traduction de contenu, correction grammaticale. Exemple : un outil interne de résumé de documents utilisant un pipeline RAG sur la base de connaissances de l'entreprise — risque minimal s'il ne prend pas de décisions conséquentes concernant des individus.
Classification des Systèmes IA Générative (GPAI)
L'AI Act ajoute une filière spécifique pour les modèles d'IA à usage général (GPAI) — des modèles entraînés sur des données larges et utilisables pour de nombreuses tâches. Si vous déployez un modèle GPAI (Claude, GPT-4, Llama 3) ou construisez au-dessus, la classification fonctionne différemment : le modèle lui-même relève des obligations GPAI (responsabilité du fournisseur), mais votre couche application relève du modèle à quatre niveaux. Un modèle GPAI à risque systémique (puissance de calcul d'entraînement supérieure à 10^25 FLOPs) comporte des exigences supplémentaires : tests adversariaux, signalement d'incidents et divulgation de consommation énergétique.
Arbre de Décision pour la Classification d'un Pipeline RAG
Agents vocaux — attention particulière : un agent vocal qui contacte des clients par téléphone pour proposer une restructuration de crédit est à haut risque (domaine crédit, sortie automatisée). Un agent vocal qui répond aux appels FAQ d'une entreprise logicielle est à risque limité (obligation de transparence chatbot uniquement). La différence est le domaine d'application et l'impact sur la personne — pas la technologie.
🛠️ Exercice 1 : Workbench de Classification AI Act
Exécutez ce code sur trois scénarios réels préconfigurés, puis ajoutez votre propre système en Scénario 4. Le classificateur reproduit la logique utilisée par les équipes conformité lors des audits AI Act réels. Observez comment un seul paramètre modifie le niveau de risque — et les obligations qui en découlent.
Exécutez le code et examinez chaque classification. Puis : (1) Scénario 1 — passez `utilise_biometrie=False` : le risque reste-t-il élevé ? Pourquoi ? (2) Scénario 2 — passez `domaine_decision` à `None` : comptez combien d'obligations disparaissent. (3) Ajoutez votre propre système réel ou hypothétique en Scénario 4 et justifiez votre classification par écrit.
🛠️ Exercice 2 : Générez Votre Documentation Technique Article 11
Les systèmes IA à haut risque doivent produire une documentation technique avant le premier déploiement en production. Les autorités de surveillance du marché demandent ce document lors des audits. Complétez les champs ci-dessous pour un outil de filtrage de CV réel ou hypothétique.
Complétez tous les champs TODO pour un outil de filtrage de CV réel ou hypothétique. Portez une attention particulière aux métriques §4 — elles doivent être ventilées par groupe démographique. Une fois terminé, comptez combien de champs ont nécessité des recherches : ces champs sont vos angles morts de conformité.
Quiz disponible
Terminez la lecture de ce module puis validez vos connaissances avec le quiz.