🚨

ATTENDEZ !

Vous êtes à 227 jours des premiers contrôles AI Act.

35M€
Amende maximale
73%
PME non préparées
227j
Avant les contrôles

Préférez-vous investir 500€ aujourd'hui ou risquer 35M€ demain ?

Me protéger maintenant (500€)

✅ Garantie 30 jours • ✅ Certificat officiel • ✅ 847 professionnels formés

Systèmes Haut Risque IA : Liste Complète Annexe III 2025
✅ Article vérifié et mis à jour le 19 décembre 2025

Systèmes Haut Risque IA : Liste Annexe III

⚠️ Classification Critique

67% des entreprises utilisant l’IA en Europe possèdent au moins un système classé « haut risque » selon l’AI Act. La plupart l’ignorent.

Votre logiciel de recrutement trie des CV. Votre banque utilise un scoring crédit automatisé. Votre outil de visioconférence analyse les émotions des participants.

Tous ces systèmes sont potentiellement classés « haut risque » par l’AI Act et soumis aux obligations les plus strictes du règlement européen.

L’Annexe III de l’AI Act liste précisément 8 domaines où l’utilisation de l’IA est considérée comme présentant des risques significatifs pour les droits fondamentaux. Ce guide détaille chaque domaine, les exemples concrets de systèmes concernés et les obligations qui en découlent.

8 Domaines Annexe III
15M€ Sanction maximale
225 jours restants
Loïc Gros-Flandre - Expert Systèmes Haut Risque IA

Par Loïc Gros-Flandre

Directeur de Modernee – Expert en classification des systèmes IA et conformité réglementaire.

🎯 Spécialiste Classification IA • 📋 +50 audits de conformité

📚 Ce que vous allez découvrir

  • Les 4 niveaux de risque de l’AI Act
  • Les 8 domaines de l’Annexe III détaillés
  • Les obligations spécifiques aux systèmes haut risque
  • Comment classifier votre système IA
  • Le processus de marquage CE
Les 4 Niveaux de Risque AI Act 1 RISQUE INACCEPTABLE → INTERDIT : scoring social, manipulation subliminale, exploitation vulnérabilités Sanction : 35M€ ou 7% CA mondial 2 RISQUE ÉLEVÉ (ANNEXE III) → RÉGLEMENTÉ : RH, crédit, santé, justice, biométrie – Marquage CE obligatoire Sanction : 15M€ ou 3% CA mondial 3 RISQUE LIMITÉ → TRANSPARENCE : chatbots, deepfakes, IA générative – Obligation d’information Sanction : 7,5M€ ou 1,5% CA mondial 4 RISQUE MINIMAL → LIBRE : filtres anti-spam, jeux vidéo, recommandations – Aucune obligation Recommandations volontaires uniquement

Infographie : Pyramide des 4 niveaux de risque AI Act

🎯 Qu’est-ce qu’un Système IA à Haut Risque ?

L’AI Act définit deux catégories de systèmes à haut risque, détaillées dans les Annexes I et III du règlement.

systèmes haut risque ia - Analyse de risques et classification

Photo par RDNE Stock project sur Pexels

📋 Annexe I : Composants de Sécurité des Produits

L’Annexe I couvre les systèmes IA intégrés comme composants de sécurité dans des produits déjà réglementés par l’UE :

  • 🚗 Véhicules : systèmes de conduite autonome, ADAS
  • 🏥 Dispositifs médicaux : diagnostic assisté par IA
  • ✈️ Aviation : systèmes de navigation IA
  • 🔧 Machines industrielles : contrôle de sécurité IA
  • 🧸 Jouets connectés : IA dans les jouets intelligents

📋 Annexe III : Les 8 Domaines Critiques

L’Annexe III définit 8 domaines où l’utilisation de l’IA est considérée comme présentant des risques significatifs. Contrairement aux systèmes interdits, ces systèmes restent autorisés mais soumis à des obligations strictes.

Vous devez d’abord identifier tous vos systèmes IA avant de les classifier selon ces critères.

« La classification haut risque n’est pas une sanction. C’est une reconnaissance que le système nécessite une attention particulière pour protéger les droits fondamentaux. »

— Commission Européenne, Guide AI Act 2024

📊 Les 8 Domaines de l’Annexe III Détaillés

systèmes haut risque ia - Analyse des domaines critiques

Photo par Nataliya Vaitkevich sur Pexels

1️⃣ Identification Biométrique

Systèmes d’identification biométrique à distance en temps réel ou en différé :

  • 👁️ Reconnaissance faciale
  • 🖐️ Identification par empreintes
  • 🔊 Reconnaissance vocale
  • 🚶 Analyse de la démarche

⚠️ Exception Importante

La reconnaissance faciale en temps réel par les forces de l’ordre dans l’espace public est interdite, sauf exceptions très encadrées (terrorisme, disparition d’enfant).

2️⃣ Infrastructures Critiques

Gestion et exploitation des infrastructures essentielles :

  • 🚗 Transport : gestion du trafic routier, ferroviaire, aérien
  • Énergie : réseaux électriques, gaz, nucléaire
  • 💧 Eau : systèmes de distribution et traitement
  • 🌐 Numérique : infrastructures cloud critiques

3️⃣ Éducation et Formation

Systèmes affectant l’accès à l’éducation ou évaluant les apprenants :

  • 🎓 Orientation scolaire automatisée
  • 📝 Correction automatique d’examens
  • 📊 Évaluation des performances des étudiants
  • 🚪 Décisions d’admission automatisées

4️⃣ Emploi et Gestion RH

C’est le domaine le plus courant dans les entreprises :

  • 📄 Recrutement : tri de CV, matching candidats
  • 💼 Promotion : décisions de carrière automatisées
  • 📊 Évaluation : notation de performance
  • 🔔 Licenciement : identification des départs
  • 📋 Allocation : attribution des tâches

🔴 Attention Employeurs

Les logiciels de recrutement type LinkedIn Recruiter, Indeed, Workday ou les ATS avec IA sont concernés. Vérifiez avec vos éditeurs leur conformité AI Act.

5️⃣ Services Essentiels

Accès aux services publics et privés essentiels :

  • 💳 Crédit : scoring bancaire, décision de prêt
  • 🛡️ Assurance : tarification, évaluation des sinistres
  • 🚑 Urgences : priorisation des appels 112/15/17/18
  • 🏠 Logement : attribution de logements sociaux

6️⃣ Application de la Loi

Systèmes utilisés par les forces de l’ordre :

  • 🔍 Évaluation des risques de récidive
  • 🕵️ Profilage dans les enquêtes
  • 🎯 Détection de comportements suspects
  • 📹 Analyse automatique de vidéosurveillance

7️⃣ Migration et Frontières

Contrôle de l’immigration et des frontières :

  • ✈️ Détection de documents frauduleux
  • 📋 Évaluation des demandes d’asile
  • 🛂 Analyse des risques sécuritaires
  • 👁️ Vérification d’identité aux frontières

8️⃣ Administration de la Justice

Systèmes d’aide à la décision judiciaire :

  • ⚖️ Recherche juridique et analyse de jurisprudence
  • 📊 Prédiction d’issues judiciaires
  • 📝 Assistance à la rédaction de décisions
  • 🔗 Médiation et résolution de litiges
Domaine Exemples Courants Impact
Biométrie Reconnaissance faciale, contrôle d’accès Critique
RH/Emploi ATS, scoring candidats, évaluation Élevé
Crédit Scoring bancaire, décision prêt Élevé
Éducation Orientation, notation automatique Modéré
Infrastructures Gestion trafic, énergie, eau Critique

🎯 Votre Système est-il Haut Risque ? (Quiz 3 min)

📋 Les Obligations Spécifiques aux Systèmes Haut Risque

systèmes haut risque ia - Documentation et conformité

Photo par Hanna Pad sur Pexels

Les systèmes haut risque doivent respecter 8 obligations majeures, détaillées aux articles 9 à 15 de l’AI Act. Toutes ces obligations doivent être inscrites dans le registre des systèmes IA.

1

Système de Gestion des Risques (Art. 9)

Mettre en place un processus continu d’identification, d’analyse et de gestion des risques tout au long du cycle de vie du système. Documenter les mesures de mitigation.

2

Gouvernance des Données (Art. 10)

Garantir la qualité des données d’entraînement : représentativité, exactitude, complétude. Prévenir les biais et documenter les sources de données.

3

Documentation Technique (Art. 11)

Produire une documentation exhaustive : conception, architecture, données utilisées, tests, performances, limites. Cette documentation doit être maintenue à jour.

4

Conservation des Logs (Art. 12)

Implémenter un système de journalisation automatique permettant la traçabilité des décisions. Conservation des logs pendant toute la durée d’utilisation.

5

Transparence et Information (Art. 13)

Fournir aux utilisateurs une notice d’utilisation claire : fonctionnement, capacités, limites, risques résiduels, méthodes d’interprétation des résultats.

6

Supervision Humaine (Art. 14)

Concevoir des mécanismes permettant une supervision humaine efficace. Les opérateurs doivent pouvoir comprendre, intervenir et arrêter le système.

7

Robustesse et Cybersécurité (Art. 15)

Garantir l’exactitude, la fiabilité et la résilience du système. Protéger contre les attaques adversaires et les manipulations malveillantes.

8

Marquage CE (Art. 49)

Obtenir le marquage CE avant mise sur le marché. Nécessite une évaluation de conformité (auto-évaluation ou organisme notifié selon le domaine).

« Le marquage CE pour les systèmes IA haut risque sera aussi incontournable que pour les jouets ou les dispositifs médicaux. Pas de CE, pas de marché européen. »

— Expert Conformité, 2024

Les systèmes à risque limité comme les chatbots n’ont que des obligations de transparence. Les systèmes à risque minimal n’ont aucune obligation réglementaire.

🏷️ Le Processus de Marquage CE

Le marquage CE est obligatoire pour tous les systèmes à haut risque avant leur mise sur le marché européen.

📝 Deux Voies d’Évaluation

Type Auto-évaluation Organisme Notifié
Applicable à La plupart des domaines Annexe III Biométrie, infrastructures critiques
Qui évalue Le fournisseur lui-même Organisme certifié par l’UE
Coût estimé 5 000 – 30 000€ 30 000 – 150 000€
Délai 2-4 mois 6-12 mois

💡 Astuce Conformité

Même si l’auto-évaluation est possible, documentez votre processus de manière aussi rigoureuse que pour un audit externe. Les autorités pourront vérifier a posteriori.

📄 Dossier de Conformité Requis

Le dossier technique doit contenir :

  • 📋 Description générale du système
  • 🏗️ Éléments de conception détaillés
  • 📊 Description des données d’entraînement
  • 🧪 Résultats des tests et validations
  • ⚙️ Système de gestion des risques
  • 📝 Notice d’utilisation
  • 🔒 Mesures de cybersécurité

🎯 Simulateur Classification Risque IA

❓ Questions Fréquentes sur les Systèmes Haut Risque

Qu’est-ce qu’un système IA à haut risque selon l’AI Act ?

Un système IA à haut risque est un système d’intelligence artificielle dont l’utilisation présente des risques significatifs pour la santé, la sécurité ou les droits fondamentaux des personnes. L’AI Act définit ces systèmes dans l’Annexe III, couvrant 8 domaines : biométrie, infrastructures critiques, éducation, emploi, services essentiels, forces de l’ordre, migration et justice.

Quels sont les 8 domaines de l’Annexe III AI Act ?

L’Annexe III couvre 8 domaines : (1) Identification biométrique à distance, (2) Infrastructures critiques (transport, énergie, eau), (3) Éducation et formation professionnelle, (4) Emploi et gestion des ressources humaines, (5) Accès aux services essentiels (crédit, assurance, urgences), (6) Application de la loi, (7) Migration, asile et contrôle aux frontières, (8) Administration de la justice.

Le marquage CE est-il obligatoire pour les systèmes à haut risque ?

Oui, le marquage CE est obligatoire pour tous les systèmes IA à haut risque avant leur mise sur le marché européen. Ce marquage atteste de la conformité aux exigences de l’AI Act. L’obtention nécessite une évaluation de conformité, soit par auto-évaluation soit par un organisme notifié selon le domaine.

Comment savoir si mon système IA est à haut risque ?

Pour déterminer si votre système est à haut risque : (1) Vérifiez s’il est un composant de sécurité d’un produit couvert par une législation européenne (Annexe I), (2) Vérifiez s’il entre dans l’un des 8 domaines de l’Annexe III, (3) Analysez son usage réel et son impact sur les droits fondamentaux. En cas de doute, consultez un expert ou l’autorité compétente.

Quelles sanctions pour non-conformité d’un système à haut risque ?

Les sanctions pour non-conformité d’un système à haut risque sont sévères : jusqu’à 15 millions d’euros ou 3% du chiffre d’affaires mondial annuel pour les violations des obligations. En cas de fourniture d’informations fausses, les amendes peuvent atteindre 7,5 millions d’euros ou 1% du CA mondial.

Mon logiciel de recrutement (ATS) est-il concerné ?

Oui, si votre ATS utilise l’IA pour trier des CV, scorer des candidats ou prendre des décisions d’embauche, il est classé haut risque. Contactez votre éditeur pour vérifier sa conformité AI Act. Si vous développez votre propre solution, vous êtes responsable de la mise en conformité.

✅ Conclusion : Classifiez Vos Systèmes Maintenant

Les systèmes à haut risque de l’Annexe III constituent le cœur de l’AI Act. Ils représentent la majorité des cas d’usage en entreprise : recrutement, scoring crédit, éducation, santé.

Identifier si vos systèmes sont concernés est la première étape de la conformité. Ne pas le faire vous expose à des sanctions pouvant atteindre 15M€ ou 3% du CA mondial.

🎯 Les 3 Actions Prioritaires

  • 1️⃣ Inventoriez tous vos systèmes utilisant l’IA
  • 2️⃣ Classifiez chacun selon l’Annexe III
  • 3️⃣ Planifiez la mise en conformité des systèmes haut risque
225 jours restants

Formation Classification Systèmes IA

Apprenez à identifier et classifier vos systèmes IA selon l’AI Act. Certificat inclus.

Maîtriser la Classification → 500€

✅ Annexe III détaillée • ✅ Cas pratiques • ✅ Certificat

📚 Sources Officielles Citées

Retour en haut