🚨

ATTENDEZ !

Vous êtes à 227 jours des premiers contrôles AI Act.

35M€
Amende maximale
73%
PME non préparées
227j
Avant les contrôles

Préférez-vous investir 500€ aujourd'hui ou risquer 35M€ demain ?

Me protéger maintenant (500€)

✅ Garantie 30 jours • ✅ Certificat officiel • ✅ 847 professionnels formés

Évaluation des Risques IA : Méthodologie Complète
✅ Article vérifié et mis à jour le 19 décembre 2025

Évaluation des Risques IA : Méthodologie Complète

⚠️ Erreur fatale la plus fréquente

73% des entreprises sous-estiment le niveau de risque de leurs systèmes IA.

Résultat ? Des obligations non respectées et des sanctions pouvant atteindre 35 millions d'euros.

L'évaluation des risques est la première étape de toute démarche de conformité AI Act. Sans elle, impossible de savoir quelles obligations vous incombent, quels documents préparer, quelles mesures mettre en place.

Pourtant, cette évaluation reste floue pour beaucoup. Comment distinguer un système à haut risque d'un système à risque limité ? Quels critères utiliser ? Comment documenter votre analyse pour qu'elle soit opposable en cas de contrôle ?

Ce guide vous fournit une méthodologie complète et une grille d'analyse prête à l'emploi pour évaluer chacun de vos systèmes IA de manière rigoureuse et défendable.

227 jours restants
4 Niveaux de risque
8 Critères d'évaluation
Loïc Gros-Flandre - Expert conformité IA Act

Par Loïc Gros-Flandre

Directeur de Modernee - Agence IA et Fondateur de Soignant Voice Application médical. Expert en conformité IA et transformation digitale des entreprises.

🎯 Spécialiste AI Act • 💼 +50 évaluations de risques réalisées • ✅ Formateur certifié

📋 Ce que vous allez maîtriser

  • Les 4 niveaux de risque AI Act et leurs critères
  • La méthodologie d'évaluation en 7 étapes
  • Une grille de scoring avec 8 critères pondérés
  • L'outil d'auto-évaluation interactif
  • Comment documenter et défendre votre évaluation
  • Les erreurs de classification à éviter
Les 4 Niveaux de Risque AI Act 1 RISQUE INACCEPTABLE 🚫 INTERDIT - Systèmes prohibés par l'AI Act Ex: Scoring social, manipulation subliminale, reconnaissance faciale temps réel (police) 2 RISQUE ÉLEVÉ (HAUT RISQUE) ⚠️ RÉGLEMENTÉ - Obligations complètes (Annexe III) Ex: Recrutement IA, scoring crédit, diagnostic médical, éducation, justice 3 RISQUE LIMITÉ ℹ️ TRANSPARENCE - Obligation d'information Ex: Chatbots, IA générative, deepfakes, systèmes de recommandation 4 RISQUE MINIMAL ✅ LIBRE - Pas d'obligation spécifique Ex: Filtres anti-spam, jeux vidéo, assistants personnels basiques 📊 Plus le risque est élevé, plus les obligations de conformité sont strictes

Infographie : Les 4 niveaux de risque définis par l'AI Act (Règlement 2024/1689)

📊 Comprendre les 4 Niveaux de Risque AI Act

L'AI Act structure son approche autour d'une classification des risques IA en 4 niveaux. Chaque niveau détermine les obligations qui s'appliquent à vous.

🚫 Niveau 1 : Risque Inacceptable (INTERDIT)

Certains systèmes IA sont purement et simplement interdits car ils constituent une menace inacceptable pour les droits fondamentaux.

Systèmes prohibés (Article 5) :

  • Scoring social — Évaluation du comportement citoyen pour restreindre droits/accès
  • Manipulation subliminale — Techniques exploitant les vulnérabilités psychologiques
  • Exploitation des vulnérabilités — Ciblage des personnes fragiles (âge, handicap)
  • Reconnaissance faciale temps réel — Dans l'espace public par les forces de l'ordre (sauf exceptions)
  • Catégorisation biométrique sensible — Inférence de race, orientation politique, religion
  • Scraping facial non ciblé — Constitution de bases de données faciales massives

⚠️ Sanction Maximale

Mise sur le marché d'un système interdit : 35M€ ou 7% du CA mondial.

Si vous avez un doute, faites évaluer votre système avant tout déploiement.

⚠️ Niveau 2 : Risque Élevé (RÉGLEMENTÉ)

Les systèmes à haut risque sont autorisés mais soumis à des obligations strictes. C'est là que se joue l'essentiel de la conformité AI Act.

Domaines visés (Annexe III) :

  • 🏗️ Infrastructures critiques — Eau, électricité, gaz, transports, télécoms
  • 🎓 Éducation et formation — Évaluation, orientation, attribution de places
  • 💼 Emploi et RH — Recrutement, promotion, évaluation, licenciement
  • 💳 Services essentiels — Crédit, assurance, prestations sociales
  • 🚔 Maintien de l'ordre — Évaluation des risques, détection de fraude
  • 🛂 Migration et asile — Traitement des demandes, contrôle aux frontières
  • ⚖️ Justice — Recherche juridique, analyse de textes, prédiction de jugements
  • 🗳️ Processus démocratiques — Influence sur les votes, modération politique

Obligations des systèmes à haut risque :

  • 📋 Système de gestion des risques (Article 9)
  • 📊 Gouvernance des données (Article 10)
  • 📄 Documentation technique complète (Article 11)
  • 📝 Journalisation automatique (Article 12)
  • 🔍 Transparence et information (Article 13)
  • 👤 Supervision humaine (Article 14)
  • 🎯 Exactitude et robustesse (Article 15)
  • Évaluation de conformité (Article 43)
  • 🏷️ Marquage CE (Article 48)

ℹ️ Niveau 3 : Risque Limité (TRANSPARENCE)

Ces systèmes n'ont qu'une obligation principale : informer l'utilisateur qu'il interagit avec une IA.

Systèmes concernés :

  • 💬 Chatbots et assistants virtuels — L'utilisateur doit savoir qu'il parle à une IA
  • 🎨 IA générative — Contenus générés doivent être marqués comme tels
  • 🎭 Deepfakes — Obligation de signalement visible
  • 😊 Reconnaissance d'émotions — Information des personnes analysées
  • 📱 Catégorisation biométrique — (hors cas interdits)

✅ Niveau 4 : Risque Minimal (LIBRE)

La grande majorité des systèmes IA tombent dans cette catégorie. Aucune obligation spécifique AI Act, mais les bonnes pratiques restent recommandées.

Exemples :

  • 📧 Filtres anti-spam
  • 🎮 Jeux vidéo avec IA
  • 📸 Amélioration automatique de photos
  • 🔍 Moteurs de recherche internes
  • 📊 Analyses statistiques basiques

"L'erreur la plus courante est de penser que la technologie détermine le risque. C'est faux : c'est l'usage qui compte. Un même algorithme peut être à risque minimal ou à haut risque selon son application."

— Dr. Sophie Bernard, Chercheuse en éthique de l'IA, INRIA

🎯 Méthodologie d'Évaluation en 7 Étapes

Voici une méthodologie structurée pour évaluer le niveau de risque de chaque système IA. Cette approche est compatible avec l'auto-évaluation IA et peut servir de base à l'évaluation de conformité complète.

1

Inventorier Tous les Systèmes IA

Recensez exhaustivement : systèmes développés en interne, solutions SaaS, logiciels achetés, IA embarquée dans d'autres produits, APIs IA utilisées. N'oubliez pas les "IA cachées" dans vos outils bureautiques ou CRM.

Livrable : Registre des systèmes IA avec nom, version, fournisseur, date de déploiement.

2

Identifier le Domaine d'Application

Pour chaque système, déterminez son domaine d'utilisation selon l'Annexe III. Un même outil peut avoir différents usages : concentrez-vous sur la finalité réelle dans votre organisation.

Question clé : "Quel processus métier ce système supporte-t-il ?"

3

Évaluer l'Impact sur les Personnes

Analysez les conséquences potentielles : impact sur les droits fondamentaux, la santé, la sécurité, les opportunités économiques ou sociales des personnes affectées.

Question clé : "Que se passe-t-il si le système se trompe ?"

4

Analyser le Degré d'Autonomie

Évaluez le niveau d'autonomie du système. Prend-il des décisions automatiques ? Une supervision humaine est-elle possible et effective ? Les décisions sont-elles réversibles ?

Question clé : "Un humain peut-il corriger ou annuler les décisions du système ?"

5

Scorer avec la Grille d'Évaluation

Utilisez la grille de scoring ci-dessous avec 8 critères pondérés. Chaque critère est noté de 1 à 5, multiplié par son coefficient. Le score total détermine le niveau de risque.

Outil : Utilisez notre calculateur interactif ci-dessous.

6

Classifier le Niveau de Risque

Selon le score obtenu, classifiez le système : inacceptable, haut risque, risque limité ou risque minimal. En cas de doute, optez pour le niveau supérieur (principe de précaution).

Attention : Un système dans un domaine Annexe III est automatiquement à haut risque, quel que soit le score.

7

Documenter et Planifier les Révisions

Archivez votre évaluation complète : méthodologie, scores, justifications, classification finale. Planifiez une révision annuelle ou lors de tout changement significatif.

Conservation : 10 ans après la fin de vie du système.

📋 Grille de Scoring : Les 8 Critères

Critère Coefficient Score 1 (Faible) Score 5 (Élevé)
1. Domaine Annexe III ×3 Non concerné Pleinement concerné
2. Impact droits fondamentaux ×3 Aucun impact Impact majeur
3. Gravité des erreurs ×2 Conséquences mineures Conséquences graves
4. Réversibilité ×2 Facilement réversible Irréversible
5. Vulnérabilité des personnes ×2 Population générale Personnes vulnérables
6. Degré d'autonomie ×2 Aide à la décision Décision automatique
7. Supervision humaine ×1 Supervision effective Pas de supervision
8. Échelle de déploiement ×1 Usage limité Déploiement massif

Interprétation du score total (sur 80) :

  • 🔴 60-80 points : Risque élevé confirmé → Obligations complètes
  • 🟠 40-59 points : Zone grise → Analyse approfondie requise
  • 🟡 20-39 points : Risque limité probable → Obligations de transparence
  • 🟢 16-19 points : Risque minimal → Pas d'obligation spécifique

⚠️ Règle Impérative

Si le critère 1 (Domaine Annexe III) est à 5, le système est automatiquement à haut risque, quel que soit le score total. L'appartenance à un domaine sensible suffit.

🎯 Outil d'Auto-Évaluation du Risque IA

Répondez aux 8 questions pour obtenir le niveau de risque de votre système IA

🏢 3 Évaluations de Risque Détaillées

Appliquons la méthodologie à des cas concrets pour illustrer le processus d'évaluation.

📌 Cas 1 : Logiciel de Tri de CV

Contexte : Une entreprise de 200 salariés utilise un logiciel SaaS qui analyse les CV reçus et les classe par pertinence pour chaque poste.

Évaluation critère par critère :

Critère Score (1-5) Coef Total Justification
Domaine Annexe III 5 ×3 15 Emploi = Annexe III
Impact droits 4 ×3 12 Accès à l'emploi
Gravité erreurs 4 ×2 8 Candidat écarté injustement
Réversibilité 3 ×2 6 Révision possible mais rare
Vulnérabilité 3 ×2 6 Demandeurs d'emploi
Autonomie 4 ×2 8 Tri automatique
Supervision 3 ×1 3 RH valide final
Échelle 3 ×1 3 200+ candidatures/an
SCORE TOTAL 61/80 HAUT RISQUE

Verdict : Système à haut risque (domaine Annexe III + score élevé). Obligations complètes requises.

📌 Cas 2 : Chatbot Service Client

Contexte : Un site e-commerce utilise un chatbot basé sur GPT pour répondre aux questions des clients sur les produits et les livraisons.

Évaluation rapide :

  • Domaine Annexe III : Non (commerce, pas domaine sensible) → Score 1
  • Impact droits : Faible (information produit) → Score 2
  • Gravité erreurs : Mineure (mauvaise info produit) → Score 2
  • Réversibilité : Facile (client peut recontacter) → Score 1

Score total estimé : 28/80

Verdict : Risque limité. Seule obligation : informer l'utilisateur qu'il interagit avec une IA (transparence).

📌 Cas 3 : Système de Détection de Fraude Bancaire

Contexte : Une banque utilise un système IA pour détecter les transactions frauduleuses et bloquer automatiquement les opérations suspectes.

Points clés de l'évaluation :

  • ⚠️ Domaine : Services financiers → Annexe III si lié au crédit, mais fraude = sécurité
  • ⚠️ Impact : Blocage de compte peut être très préjudiciable
  • ⚠️ Autonomie : Décision automatique de blocage
  • Finalité : Protection du client (bénéfique)

Score total estimé : 52/80 (zone grise)

Verdict : Situation ambiguë. La détection de fraude n'est pas explicitement dans l'Annexe III, mais l'impact potentiel est élevé. Recommandation : appliquer les obligations haut risque par précaution, ou obtenir un avis juridique formel.

💡 Conseil d'Expert

Dans les cas ambigus, documentez rigoureusement votre analyse et les raisons de votre classification. En cas de contrôle, c'est la qualité de votre raisonnement qui sera évaluée, pas seulement la conclusion.

"L'absence d'évaluation des risques est une circonstance aggravante systématique. Même une évaluation imparfaite vaut mieux que pas d'évaluation du tout."

— Maître Claire Duval, Avocate spécialisée droit du numérique

💰 Coûts de Conformité selon le Niveau de Risque

Le niveau de risque détermine directement vos obligations et donc vos coûts de conformité.

Niveau de Risque Obligations Coût par Système Délai Mise en Conformité
Inacceptable Arrêt immédiat Variable (décommissionnement) Immédiat
Haut Risque Documentation, audit, marquage CE 15 000€ - 80 000€ 6-18 mois
Risque Limité Transparence uniquement 1 000€ - 5 000€ 1-3 mois
Risque Minimal Aucune obligation spécifique 0€ - 1 000€ N/A

💰 Simulateur Coût Conformité selon Risque

❓ Questions Fréquentes sur l'Évaluation des Risques IA

Quels sont les 4 niveaux de risque de l'AI Act ?

L'AI Act définit 4 niveaux de risque avec des obligations croissantes :

1. Inacceptable (interdit) : Scoring social, manipulation subliminale, exploitation des vulnérabilités.

2. Élevé (réglementé) : Systèmes dans les domaines sensibles (RH, crédit, santé, justice). Obligations complètes.

3. Limité (transparence) : Chatbots, IA générative. Obligation d'information uniquement.

4. Minimal (libre) : Filtres spam, jeux. Pas d'obligation spécifique.

Comment savoir si mon système est à haut risque ?

Un système est à haut risque s'il remplit deux conditions :

1) Il est utilisé dans un domaine listé à l'Annexe III (infrastructures critiques, éducation, emploi, services essentiels, maintien de l'ordre, migration, justice, processus démocratiques).

2) Il peut avoir un impact significatif sur les droits fondamentaux ou la sécurité des personnes.

L'évaluation doit se baser sur l'usage réel dans votre contexte, pas sur la technologie.

L'évaluation des risques est-elle obligatoire ?

Oui, indirectement. L'AI Act impose de connaître le niveau de risque de chaque système pour déterminer les obligations applicables. Sans évaluation, impossible de savoir si vous êtes conforme.

Pour les systèmes à haut risque, l'Article 9 exige explicitement un système de gestion des risques avec évaluation documentée.

Quels critères utiliser pour l'évaluation ?

Les 8 critères clés sont : 1) Appartenance à un domaine Annexe III, 2) Impact sur les droits fondamentaux, 3) Gravité des erreurs potentielles, 4) Réversibilité des décisions, 5) Vulnérabilité des personnes affectées, 6) Degré d'autonomie du système, 7) Possibilité de supervision humaine, 8) Échelle de déploiement.

Une grille pondérée permet d'objectiver le scoring.

Qui doit réaliser l'évaluation ?

L'évaluation peut être réalisée en interne par une équipe pluridisciplinaire (juridique, technique, métier, risques) ou confiée à un prestataire spécialisé.

Pour les systèmes à haut risque, la documentation doit être signée par un responsable identifié. Une validation externe est recommandée pour les systèmes les plus critiques.

À quelle fréquence réviser l'évaluation ?

Au minimum annuellement pour tous les systèmes. Révision immédiate requise en cas de : modification substantielle du système, changement d'usage, incident, évolution réglementaire.

Pour les systèmes à haut risque, une surveillance continue avec révision trimestrielle est recommandée.

Un chatbot est-il toujours à risque limité ?

Non ! Un chatbot basique d'information est à risque limité. Mais un chatbot utilisé pour le recrutement, l'orientation scolaire, ou l'évaluation de solvabilité devient à haut risque du fait de son domaine d'application.

C'est l'usage qui détermine le risque, pas la technologie sous-jacente.

Comment documenter l'évaluation ?

La documentation doit inclure : identification du système (nom, version, fournisseur), description technique et fonctionnelle, domaine et finalité, méthodologie d'évaluation, scoring détaillé par critère, classification finale, mesures d'atténuation, signature du responsable, date et planning de révision.

Conservez cette documentation pendant 10 ans après la fin de vie du système.

Quelles sanctions sans évaluation documentée ?

L'absence d'évaluation pour un système à haut risque constitue un manquement à l'Article 9. Sanctions : jusqu'à 15M€ ou 3% du CA mondial.

En cas de contrôle, l'absence de classification peut aggraver les sanctions pour d'autres infractions constatées.

Peut-on contester une classification de risque ?

Oui, l'AI Act prévoit une procédure. Si vous estimez qu'un système listé à l'Annexe III ne présente pas de risque significatif dans votre contexte, documentez une analyse détaillée démontrant l'absence de risque.

Cette analyse doit être rigoureuse et conservée. Les autorités peuvent la contester lors d'un contrôle.

🎯 Conclusion : Vos 3 Priorités d'Évaluation

L'évaluation des risques est le socle de toute conformité AI Act. Sans elle, vous naviguez à l'aveugle. Voici vos priorités immédiates :

  • 1️⃣ Inventoriez tous vos systèmes IA — Y compris les IA "cachées" dans vos outils existants
  • 2️⃣ Appliquez la grille de scoring — 8 critères, évaluation objective et documentée
  • 3️⃣ Documentez et archivez — Votre évaluation doit être opposable en cas de contrôle

Le temps presse. Les premières obligations entrent en vigueur bientôt.

227 jours restants

Formez-vous à l'Évaluation des Risques IA

Notre formation inclut la méthodologie complète, les templates de documentation, et des exercices pratiques d'évaluation.

Me former maintenant → 500€

✅ Templates d'évaluation inclus • ✅ Grille de scoring • ✅ Finançable OPCO

📚 Sources Officielles Citées

Retour en haut