Qu'est-ce que l'AI Act ?
Le Reglement europeen sur l'intelligence artificielle (AI Act) est entre en vigueur le 1er aout 2024. C'est le premier cadre legal complet au monde regulant l'IA. Il s'applique a toutes les entreprises qui developpent, deployent ou utilisent des systemes d'IA au sein de l'Union europeenne — peu importe ou le fournisseur est etabli.
La classification par niveau de risque
L'AI Act classe les systemes IA en quatre categories selon leur niveau de risque :
- Risque inacceptable — Interdit. Reconnaissance faciale en temps reel dans les espaces publics, scoring social, manipulation subliminale.
- Risque eleve — Obligations strictes (audit, transparence, supervision humaine). IA dans le recrutement, le credit bancaire, la sante, l'education, les infrastructures critiques.
- Risque limite — Obligations de transparence. Les chatbots doivent s'identifier comme IA, les deepfakes doivent etre etiquetes.
- Risque minimal — Aucune obligation specifique. Filtres spam, recommandations de contenu, assistants IA generaux comme Claude ou ChatGPT pour usage professionnel courant.
La majorite des entreprises qui utilisent des LLM (Claude, ChatGPT, Copilot) pour leurs taches quotidiennes tombent dans la categorie « risque minimal ». Mais l'article 4 les concerne quand meme.
Article 4 : la formation IA devient obligatoire
L'article 4 de l'AI Act est intitule « Maitrise de l'IA » (AI literacy). Il stipule que :
« Les fournisseurs et les deployeurs de systemes d'IA prennent des mesures pour garantir, dans la mesure du possible, un niveau suffisant de maitrise de l'IA de la part de leur personnel et de toutes les autres personnes qui, en leur nom, s'occupent du developpement et de l'exploitation de systemes d'IA. »
Qui est concerne ?
L'article 4 touche deux categories d'acteurs :
- Les fournisseurs — entreprises qui developpent des systemes IA (startups IA, editeurs de logiciels integrant l'IA, etc.).
- Les deployeurs — entreprises qui utilisent des systemes IA developpes par des tiers dans un contexte professionnel. Cela inclut toute PME, ETI ou grand groupe dont les employes utilisent ChatGPT, Claude, Copilot, ou tout autre outil IA au travail.
La deadline : 2 aout 2026
L'article 4 est applicable depuis le 2 aout 2026 — date a laquelle le chapitre I du reglement est entre en pleine vigueur. Les entreprises n'ayant pas encore mis en place de programme de formation IA structuree sont desormais hors conformite.
Si votre entreprise utilise des outils IA et que vos employes n'ont pas recu de formation formelle, vous etes en retard. Il reste du temps pour agir — mais chaque mois compte.
Sanctions en cas de non-conformite
L'AI Act prevoit un systeme de sanctions proportionnel au niveau de violation :
- Violations de l'article 4 et des obligations de gouvernance : jusqu'a 15 millions d'euros ou 3% du chiffre d'affaires mondial annuel (le montant le plus eleve est retenu).
- Violations des obligations liees aux systemes a haut risque : jusqu'a 30 millions d'euros ou 6% du CA mondial.
- Fourniture d'informations incorrectes : jusqu'a 7,5 millions d'euros ou 1% du CA mondial.
Pour une PME de 50 personnes realisant 5M€ de CA, 3% du CA represente 150 000€. Pour une ETI a 100M€ de CA, c'est 3 millions d'euros. Ces sanctions sont dissuasives et l'Autorite de Supervision francaise (qui sera la CNIL pour de nombreux cas) est deja en train de constituer ses equipes d'inspection.
Comment se mettre en conformite
Etape 1 : auditer vos usages IA
Avant de former, il faut identifier. Cartographiez tous les systemes IA utilises dans votre organisation : outils SaaS avec IA integree (CRM, ERP, outils de recrutement), LLM utilises directement par vos equipes (Claude, ChatGPT, Copilot), et systemes IA developpes en interne. Pour chaque usage, evaluez le niveau de risque AI Act applicable.
Etape 2 : mettre en place un plan de formation
Le plan de formation doit couvrir l'ensemble du personnel manipulant des IA. L'approche la plus efficace distingue deux niveaux :
- Sensibilisation generale (tous les employes) — 2 a 4 heures. Qu'est-ce que l'IA, quels sont les risques, quelles sont mes obligations.
- Formation metier (utilisateurs avances, managers, DPO) — 1 a 3 jours. Gouvernance IA, RGPD, conformite AI Act, charte IA interne.
Etape 3 : documenter et creer une charte IA
La conformite se prouve par la documentation. Votre charte IA doit preciser : les usages autorises et interdits, les procedures de validation humaine, les regles de protection des donnees, et les responsabilites de chaque poste. En cas d'audit, c'est ce document que les inspecteurs demanderont en premier.
Notre formation Gouvernance IA et RGPD guide vos equipes a travers ces trois etapes en une journee. Elle inclut des templates d'audit, un modele de charte IA, et une veille reglementaire actualisee. Elle est finançable OPCO dans le cadre du plan de developpement des competences.
Questions frequentes
Mon entreprise utilise ChatGPT — est-elle concernee par l'AI Act ?
Oui. Toute organisation qui utilise des systemes d'IA dans un cadre professionnel au sein de l'Union europeenne est soumise a l'AI Act. Utiliser ChatGPT, Claude, Copilot ou tout autre LLM constitue un 'deploiement de systeme d'IA'. L'obligation de formation de l'article 4 s'applique des lors qu'un employe utilise ces outils dans son travail.
Qu'est-ce qu'une 'maitrise suffisante' selon l'AI Act ?
Le texte ne fixe pas de programme precis, ce qui laisse une marge d'interpretation. La doctrine emergente en 2026 s'accorde sur : comprendre ce qu'est un LLM et ses limites, savoir identifier les risques associes a son usage (biais, hallucinations, confidentialite), connaitre les obligations legales de son organisation, et savoir quand et comment signaler un probleme. Une journee de formation structuree repond generalement a cette exigence.
Comment prouver la conformite en cas de controle ?
Par la documentation : attestations de formation avec programme, duree, date et nom des participants ; registre des usages IA identifies dans l'organisation ; charte ou politique IA interne. Conservez ces documents au minimum 5 ans. Les organismes de formation serieux (comme Talki Academy) fournissent des attestations de formation detaillees utilisables pour l'audit.