Checklist IA Act : Liste Contrôle Complète
✅ La Checklist Qui Vous Sauve
Vous pensez être conforme ?
73% des entreprises qui le pensaient ont échoué à leur premier audit.
Leur erreur : pas de checklist systématique.
Cette checklist de 50+ points vous évitera la même erreur.
L’AI Act impose des dizaines d’obligations. Formation, documentation, évaluation, gouvernance, traçabilité… Comment s’assurer de ne rien oublier ?
La réponse : une checklist exhaustive. Point par point. Catégorie par catégorie. Avec un scoring qui vous dit exactement où vous en êtes.
Dans ce guide, découvrez la checklist complète de conformité AI Act : 50+ points de contrôle, organisés en 7 catégories, avec auto-évaluation interactive.
📋 Ce que vous allez obtenir
- → Checklist complète de 50+ points de contrôle
- → 7 catégories couvrant toutes les obligations
- → Auto-évaluation interactive avec scoring
- → Priorisation par niveau de criticité
- → Plan d’action pour chaque lacune
Infographie : Vue d’ensemble des 7 catégories de la checklist AI Act
1️⃣ Inventaire des Systèmes IA (8 points)
La première étape de toute conformité : savoir ce que vous avez. Impossible de se conformer si vous ne connaissez pas vos systèmes IA.
Photo par Campaign Creators sur Unsplash
| N° | Point de contrôle | Criticité | Vérification |
|---|---|---|---|
| 1.1 | Tous les systèmes IA sont listés dans un registre centralisé | 🔴 Critique | Registre à jour |
| 1.2 | Chaque système IA a un propriétaire identifié | 🔴 Critique | Nom + contact |
| 1.3 | Les systèmes IA internes (développés) sont inventoriés | 🟠 Élevé | Liste exhaustive |
| 1.4 | Les systèmes IA externes (achetés/SaaS) sont inventoriés | 🟠 Élevé | Contrats vérifiés |
| 1.5 | Les usages de chaque système IA sont documentés | 🟠 Élevé | Fiches usage |
| 1.6 | Les données utilisées par chaque système sont identifiées | 🟡 Moyen | Cartographie data |
| 1.7 | Les intégrations entre systèmes IA sont cartographiées | 🟡 Moyen | Schéma technique |
| 1.8 | Le registre est mis à jour à chaque changement | 🟠 Élevé | Processus défini |
💡 Astuce : Commencez par les Achats
Pour inventorier rapidement vos systèmes IA externes, demandez à la comptabilité la liste des fournisseurs contenant « IA », « AI », « machine learning », « intelligence artificielle ».
Vous découvrirez souvent des systèmes IA oubliés.
2️⃣ Classification des Risques (6 points)
Chaque système IA doit être classifié selon l’échelle de risque AI Act. C’est cette classification qui détermine vos obligations.
| N° | Point de contrôle | Criticité | Vérification |
|---|---|---|---|
| 2.1 | Chaque système IA est classifié (interdit/haut/limité/minimal) | 🔴 Critique | Classification formelle |
| 2.2 | Aucun système IA n’est dans la catégorie « interdit » | 🔴 Critique | Vérification Article 5 |
| 2.3 | Les systèmes haut risque sont identifiés (Annexe III) | 🔴 Critique | Liste Annexe III |
| 2.4 | La classification est documentée avec justification | 🟠 Élevé | Dossier classification |
| 2.5 | La classification est revue après chaque modification | 🟠 Élevé | Processus de revue |
| 2.6 | Les cas limites ont été arbitrés par le comité IA | 🟡 Moyen | CR de décision |
« La classification est le fondement de tout. Une erreur de classification, c’est 6 mois de travail à refaire. »
— Responsable conformité, groupe industriel
3️⃣ Formation des Équipes (7 points)
L’Article 4 impose la formation de toutes les personnes impliquées dans l’IA. Cette catégorie est souvent la première vérifiée en cas de contrôle.
Photo par Scott Graham sur Unsplash
| N° | Point de contrôle | Criticité | Vérification |
|---|---|---|---|
| 3.1 | Les personnes à former sont identifiées par fonction | 🔴 Critique | Liste nominative |
| 3.2 | Un programme de formation AI Act est en place | 🔴 Critique | Syllabus formation |
| 3.3 | Les collaborateurs concernés ont suivi la formation | 🔴 Critique | Attestations |
| 3.4 | Les certificats de formation sont conservés | 🔴 Critique | Dossier RH |
| 3.5 | Un plan de recyclage (18-24 mois) est prévu | 🟠 Élevé | Calendrier |
| 3.6 | Les nouveaux arrivants sont formés dans les 3 mois | 🟠 Élevé | Processus onboarding |
| 3.7 | Le financement OPCO est utilisé quand disponible | 🟡 Moyen | Dossiers OPCO |
⚠️ Point Critique : Certificats
Les certificats de formation sont la première preuve demandée lors d’un contrôle.
Sans certificat = pas de preuve = aggravation de 50% des sanctions potentielles.
4️⃣ Documentation Technique (10 points)
Pour les systèmes haut risque, la documentation technique (Annexe IV) est obligatoire et doit être exhaustive.
| N° | Point de contrôle | Criticité | Vérification |
|---|---|---|---|
| 4.1 | Chaque système haut risque a une documentation Annexe IV | 🔴 Critique | Dossier technique |
| 4.2 | La description générale du système est documentée | 🔴 Critique | Section 1 Annexe IV |
| 4.3 | Les algorithmes et leur fonctionnement sont décrits | 🔴 Critique | Documentation technique |
| 4.4 | Les données d’entraînement sont documentées | 🔴 Critique | Data sheets |
| 4.5 | Les performances et limitations sont mesurées | 🟠 Élevé | Métriques benchmark |
| 4.6 | Les risques identifiés sont documentés | 🟠 Élevé | Analyse de risques |
| 4.7 | Les mesures de mitigation sont décrites | 🟠 Élevé | Plan de mitigation |
| 4.8 | Les instructions d’usage sont fournies | 🟠 Élevé | Manuel utilisateur |
| 4.9 | Les mesures de supervision humaine sont définies | 🟠 Élevé | Procédures HITL |
| 4.10 | La documentation est maintenue à jour | 🟠 Élevé | Versioning + dates |
📋 Auto-Évaluation Rapide (10 points clés)
Évaluez rapidement votre niveau de conformité
5️⃣ Gouvernance IA (8 points)
La gouvernance définit qui décide quoi en matière d’IA. Sans gouvernance, pas de conformité durable.
| N° | Point de contrôle | Criticité | Vérification |
|---|---|---|---|
| 5.1 | Un responsable IA est nommé officiellement | 🔴 Critique | Lettre de mission |
| 5.2 | Un comité IA est constitué et actif | 🟠 Élevé | CR de réunions |
| 5.3 | Les rôles et responsabilités sont définis | 🟠 Élevé | Matrice RACI |
| 5.4 | Un processus de validation des projets IA existe | 🟠 Élevé | Workflow documenté |
| 5.5 | Les escalades sont définies et testées | 🟡 Moyen | Procédure d’escalade |
| 5.6 | Le reporting à la direction est en place | 🟡 Moyen | Tableau de bord |
| 5.7 | La politique IA est formalisée et diffusée | 🟠 Élevé | Document officiel |
| 5.8 | Les principes éthiques IA sont définis | 🟡 Moyen | Charte éthique |
6️⃣ Processus Opérationnels (7 points)
Photo par Carlos Muza sur Unsplash
Les processus opérationnels assurent que la conformité est vécue au quotidien, pas juste sur le papier.
| N° | Point de contrôle | Criticité | Vérification |
|---|---|---|---|
| 6.1 | Un processus d’évaluation pré-déploiement existe | 🔴 Critique | Checklist projet |
| 6.2 | Les logs des systèmes IA sont conservés | 🔴 Critique | Politique de logs |
| 6.3 | Un processus d’incident IA est défini | 🟠 Élevé | Procédure incident |
| 6.4 | La supervision humaine est opérationnelle | 🟠 Élevé | Preuves HITL |
| 6.5 | Les utilisateurs finaux sont informés (transparence) | 🟠 Élevé | Mentions légales |
| 6.6 | Un processus de feedback utilisateur existe | 🟡 Moyen | Canal de remontée |
| 6.7 | Les contrats fournisseurs intègrent l’AI Act | 🟠 Élevé | Clauses vérifiées |
7️⃣ Conformité Continue (8 points)
La conformité n’est pas un one-shot. Elle doit être maintenue dans le temps.
| N° | Point de contrôle | Criticité | Vérification |
|---|---|---|---|
| 7.1 | Un calendrier d’audits internes est en place | 🟠 Élevé | Planning annuel |
| 7.2 | Les indicateurs de conformité sont suivis | 🟠 Élevé | Tableau de bord |
| 7.3 | Une veille réglementaire est active | 🟡 Moyen | Sources suivies |
| 7.4 | Les non-conformités sont tracées et corrigées | 🟠 Élevé | Registre NC |
| 7.5 | Le plan de formation continue est exécuté | 🟠 Élevé | Suivi RH |
| 7.6 | Les performances des modèles sont surveillées | 🟠 Élevé | Monitoring actif |
| 7.7 | Les incidents sont analysés et les leçons tirées | 🟡 Moyen | Retex documentés |
| 7.8 | La checklist est utilisée régulièrement | 🟡 Moyen | Historique d’usage |
⏰ Fréquence Recommandée
Trimestriel : Auto-évaluation complète (toute la checklist)
Mensuel : Points critiques (🔴) uniquement
Annuel : Audit approfondi avec preuves
📊 Calculateur de Score de Conformité
Entrez vos scores par catégorie (sur 10)
❓ Questions Fréquentes – Checklist IA Act
Une checklist AI Act complète contient 50 à 80 points de contrôle, organisés en 7 catégories : inventaire IA, classification des risques, formation des équipes, documentation technique, gouvernance, processus opérationnels et conformité continue. Le nombre exact dépend de votre niveau de risque.
Recommandation : auto-évaluation complète trimestrielle, vérification mensuelle des points critiques, audit annuel approfondi. Pour les systèmes haut risque, augmentez la fréquence (mensuelle pour l’évaluation complète). Après chaque modification majeure de système IA, refaites la checklist.
Score minimum recommandé : 80% pour une conformité de base, 90%+ pour une conformité solide, 95%+ pour une conformité exemplaire. En dessous de 70%, vous êtes exposé à des risques significatifs. Les points critiques (formation, documentation haut risque) doivent être à 100%.
La checklist doit être remplie par le responsable IA ou le DPO, avec la contribution de : IT/Data pour l’inventaire technique, RH pour la formation, Juridique pour les contrats, Métiers pour l’usage. Une personne centralise mais plusieurs contribuent.
Non, la checklist est un outil d’auto-évaluation. Pour les systèmes haut risque, l’évaluation par un organisme notifié reste obligatoire. La checklist prépare l’audit externe et permet d’identifier les lacunes en amont. Elle ne remplace pas l’expertise d’un auditeur certifié.
Priorisation recommandée : (1) Points bloquants (formation, classification), (2) Points obligatoires (documentation haut risque, CE marking), (3) Points recommandés (gouvernance, outillage), (4) Points d’amélioration continue. Commencez toujours par les points dont la non-conformité entraîne des sanctions.
Pas de checklist officielle unique. L’AI Office européen publie des guidelines, les organismes notifiés ont leurs grilles d’évaluation, et des outils privés proposent des checklists. Cette checklist synthétise les exigences du Règlement 2024/1689 en points de contrôle actionnables.
Conservation recommandée : date de l’évaluation, évaluateur, score par catégorie, points non conformes avec plan d’action, preuves pour chaque point validé. Gardez un historique pour montrer la progression. En cas de contrôle, cette documentation prouve votre démarche de conformité.
Marquez-le comme ‘N/A’ (non applicable) avec justification. Par exemple, les points sur le marquage CE ne s’appliquent qu’aux systèmes haut risque. Documentez pourquoi le point ne s’applique pas. Les points N/A ne comptent pas dans le score final mais doivent être justifiés.
Intégration recommandée : inclure les points clés dans les revues de projet, ajouter les vérifications formation dans les onboardings, intégrer les contrôles documentation dans le cycle de développement, fusionner avec les audits qualité/sécurité existants. La checklist devient un réflexe, pas une contrainte.
🎯 Conclusion : Cochez, Vérifiez, Dormez Tranquille
Cette checklist de 54 points couvre l’essentiel de vos obligations AI Act. Utilisée régulièrement, elle vous protège des oublis et des mauvaises surprises en cas de contrôle.
Mais une checklist n’est utile que si elle est utilisée. Imprimez-la, intégrez-la à vos processus, faites-en un réflexe.
- 1️⃣ 54 points de contrôle — 7 catégories couvrant toutes les obligations
- 2️⃣ Auto-évaluation trimestrielle — Pour ne jamais être pris au dépourvu
- 3️⃣ Score cible : 80%+ — En dessous, vous êtes exposé
La deadline approche. Utilisez cette checklist pour savoir exactement où vous en êtes.
Formation AI Act : Le Point 3.3 de Votre Checklist
La formation est le point de contrôle le plus vérifié lors des audits. Cochez cette case maintenant.
Me former maintenant → 500€✅ Certificat délivré • 📋 Point 3.3 validé • 💰 OPCO finançable
📚 Sources Officielles Citées
- Règlement (UE) 2024/1689 – AI Act • Texte officiel complet
- Commission européenne – Cadre réglementaire IA • Guidelines officielles
- CNIL – Dossier IA • Recommandations françaises