🚨

ATTENDEZ !

Vous êtes à 227 jours des premiers contrôles AI Act.

35M€
Amende maximale
73%
PME non préparées
227j
Avant les contrôles

Préférez-vous investir 500€ aujourd'hui ou risquer 35M€ demain ?

Me protéger maintenant (500€)

✅ Garantie 30 jours • ✅ Certificat officiel • ✅ 847 professionnels formés

Systèmes Interdits IA Act : Liste Complète
✅ Article vérifié et mis à jour le 19 décembre 2025

Systèmes Interdits IA Act : Liste Complète

🚫 La Ligne Rouge Absolue

8 pratiques IA sont totalement interdites par l’AI Act.

Pas de conformité possible. Pas de documentation qui sauve. Pas d’exception.

Si vous les utilisez : arrêt immédiat ou sanction de 35M€.

L’AI Act classe les systèmes IA en 4 niveaux de risque. Mais le premier niveau n’est pas « minimal » — c’est « interdit ». Ces systèmes sont jugés tellement dangereux qu’aucune mesure de conformité ne peut les rendre acceptables.

Contrairement aux systèmes haut risque qui peuvent être utilisés avec une documentation stricte, les systèmes interdits doivent être arrêtés immédiatement. Aucune période de transition.

Dans ce guide, découvrez les 8 catégories de systèmes interdits, les exemples concrets, et comment vérifier si vos systèmes franchissent la ligne rouge.

8 pratiques interdites
35M€ sanction maximale
7% ou % du CA mondial
Loïc Gros-Flandre - Expert AI Act

Par Loïc Gros-Flandre

Directeur de Modernee – Agence IA. Expert en classification des risques AI Act et accompagnement conformité.

🚫 Spécialiste classification • ⚖️ Expert sanctions • ✅ +50 audits réalisés

📋 Ce que vous allez maîtriser

  • Les 8 catégories de systèmes interdits (Article 5)
  • Exemples concrets pour chaque interdiction
  • Comment identifier un système potentiellement interdit
  • Que faire si vous découvrez un système interdit
  • Les sanctions encourues et la procédure
🚫 Les 8 Pratiques IA Interdites (Article 5) 🧠 Manipulation Subliminale Techniques inconscientes Exploitation Vulnérabilités Âge, handicap, situation 📊 Scoring Social Par pouvoirs publics ⚖️ Prédiction Criminelle Récidive individuelle 📸 Bases Biométriques par Scraping Sans consentement 😢 Reconnaissance Émotionnelle Travail / École 🏷️ Catégorisation Biométrique Race, religion, orientation 📹 Biométrie Temps Réel Espace public* SANCTION MAXIMALE 35M€ ou 7% CA mondial 📅 Interdictions en vigueur depuis le 2 février 2025 * Exceptions limitées pour forces de l’ordre avec autorisation judiciaire

Infographie : Les 8 pratiques IA totalement prohibées par l’Article 5 de l’AI Act

🚫 Les 8 Pratiques IA Totalement Interdites

L’Article 5 de l’AI Act définit 8 catégories de systèmes IA dont l’utilisation est totalement prohibée sur le territoire européen. Aucune exception, aucune conformité possible.

systèmes interdits ia - Équipe analysant les pratiques interdites

Photo par Campaign Creators sur Unsplash

1️⃣ Manipulation Subliminale

Systèmes utilisant des techniques subliminales pour influencer le comportement d’une personne de manière à lui causer un préjudice.

🚫 Exemples Interdits

  • IA intégrant des messages subliminaux dans les contenus
  • Algorithmes exploitant les biais cognitifs inconscients
  • Dark patterns IA qui manipulent les décisions d’achat
  • Systèmes de persuasion cachée dans les interfaces

2️⃣ Exploitation des Vulnérabilités

Systèmes exploitant les vulnérabilités liées à l’âge, le handicap, ou la situation sociale pour influencer le comportement de manière préjudiciable.

🚫 Exemples Interdits

  • Jeux IA ciblant les enfants pour favoriser l’addiction
  • Publicité IA ciblant les personnes en détresse financière
  • Assistants vocaux exploitant les troubles cognitifs des seniors
  • Recommandations IA exploitant les troubles alimentaires

3️⃣ Scoring Social Gouvernemental

Systèmes utilisés par les pouvoirs publics pour évaluer la « fiabilité sociale » des citoyens et conditionner l’accès à des droits.

🚫 Exemples Interdits

  • Système de crédit social « à la chinoise »
  • Notation comportementale pour accès aux services publics
  • Score de citoyenneté conditionnant les aides sociales
  • Évaluation sociale pour l’attribution de logements HLM

⚠️ Attention : Scoring Commercial ≠ Scoring Social

Le credit scoring bancaire reste autorisé mais classé haut risque.

La différence : il évalue la solvabilité financière, pas le « comportement social général ».

4️⃣ Prédiction Criminelle Individuelle

Systèmes évaluant le risque de récidive d’une personne physique uniquement sur la base de son profilage ou de ses caractéristiques personnelles.

🚫 Exemples Interdits

  • IA prédisant la récidive sur la base du profil socio-démographique
  • Systèmes de « pre-crime » ciblant des individus
  • Scoring de dangerosité basé sur le lieu de résidence

5️⃣ Bases Biométriques par Scraping

Création ou extension de bases de données de reconnaissance faciale par collecte non ciblée d’images sur internet ou vidéosurveillance.

🚫 Exemples Interdits

  • Clearview AI (scraping massif de visages)
  • Constitution de bases faciales depuis les réseaux sociaux
  • Enrichissement de bases par vidéosurveillance sans consentement

6️⃣ Reconnaissance Émotionnelle au Travail/École

Systèmes de reconnaissance des émotions sur le lieu de travail ou dans les établissements d’enseignement, sauf raisons médicales ou de sécurité.

🚫 Exemples Interdits

  • Caméras analysant le stress des employés
  • IA détectant l’ennui des élèves en classe
  • Systèmes évaluant l’engagement émotionnel en réunion
  • Monitoring de l’humeur pour évaluer la performance

7️⃣ Catégorisation Biométrique Sensible

Systèmes catégorisant les personnes selon des données biométriques pour déduire leur race, opinions politiques, religion, orientation sexuelle, appartenance syndicale.

🚫 Exemples Interdits

  • IA déduisant l’orientation sexuelle du visage
  • Systèmes classifiant la religion par la voix
  • Analyse faciale pour détecter les opinions politiques
  • Profilage ethnique automatisé

8️⃣ Identification Biométrique en Temps Réel

Utilisation de systèmes d’identification biométrique à distance en temps réel dans les espaces publics par les forces de l’ordre.

⚠️ Exceptions Limitées pour Forces de l’Ordre

  • Recherche de victimes d’enlèvement ou traite
  • Prévention d’une menace terroriste imminente
  • Recherche de suspects de crimes graves (liste définie)

Ces exceptions requièrent une autorisation judiciaire préalable.

« Les systèmes interdits ne sont pas ‘difficiles à rendre conformes’. Ils sont impossibles à rendre conformes. La seule option est l’arrêt total. »

— Juriste spécialisé AI Act, Cabinet européen

🚫 Quiz : Votre Système IA est-il Interdit ?

Évaluez si vos systèmes franchissent la ligne rouge

⚖️ Sanctions et Conséquences

systèmes interdits ia - Analyse des sanctions et conséquences juridiques

Photo par Scott Graham sur Unsplash

Les systèmes interdits exposent aux sanctions maximales de l’AI Act. C’est le niveau de pénalité le plus sévère du règlement.

Niveau de Risque Sanction Maximale % CA Mondial
🚫 INTERDIT 35 millions € 7%
⚠️ Haut risque (non-conformité) 15 millions € 3%
📋 Manquements documentation 7,5 millions € 1,5%

📊 Comparaison avec le RGPD

Règlement Sanction Max % CA Plus Grande Amende
AI Act (Interdit) 35M€ 7% À venir (2025+)
RGPD 20M€ 4% 1,2Md€ (Meta, 2023)

💣 Risque Additionnel : Responsabilité Pénale

Contrairement aux manquements simples, l’utilisation de systèmes interdits peut engager la responsabilité pénale des dirigeants dans certains États membres.

En France, l’exploitation de données biométriques sans consentement expose à des poursuites pénales.

🛑 Que Faire si Vous Découvrez un Système Interdit ?

systèmes interdits ia - Procédure d'arrêt et mise en conformité

Photo par Carlos Muza sur Unsplash

Si lors de votre inventaire des systèmes IA vous identifiez un système potentiellement interdit, voici la procédure à suivre.

1

Arrêt Immédiat de l’Utilisation

Pas de période de transition. Suspendez immédiatement l’utilisation du système. Désactivez les accès, coupez les intégrations.

2

Documentation de la Découverte

Documentez précisément : quand le système a été découvert, depuis quand il était utilisé, quel périmètre (données, utilisateurs), quelle interdiction est concernée.

3

Information de la Direction

Informez immédiatement la direction générale et le DPO. C’est un sujet de responsabilité des dirigeants. Ne pas traiter seul.

4

Évaluation de l’Impact

Quelles données ont été traitées ? Quelles personnes concernées ? Y a-t-il eu des préjudices ? Cette évaluation guidera la suite.

5

Décision sur la Déclaration

En concertation avec le juridique, évaluez si une déclaration à l’autorité de contrôle est opportune. L’auto-déclaration peut être un facteur atténuant.

6

Renforcement des Contrôles

Mettez en place des contrôles pour éviter la récidive : registre des systèmes IA, validation avant déploiement, formation des équipes.

💡 Facteurs Atténuants en Cas de Contrôle

  • Découverte et arrêt volontaire avant contrôle
  • Auto-déclaration à l’autorité
  • Documentation de la procédure d’arrêt
  • Mesures correctives mises en place
  • Coopération avec l’autorité

« La bonne foi compte. Une entreprise qui découvre un système interdit et l’arrête immédiatement sera traitée différemment de celle qui continue en connaissance de cause. »

— Représentant autorité de contrôle, Conférence AI Act 2025

⚠️ Évaluateur de Risque : Système Potentiellement Interdit

❓ Questions Fréquentes – Systèmes Interdits

Quels sont les systèmes IA interdits par l’AI Act ?

L’AI Act interdit 8 catégories de systèmes : manipulation subliminale, exploitation des vulnérabilités, scoring social gouvernemental, prédiction criminelle individuelle, bases biométriques par scraping, reconnaissance émotionnelle au travail/école, catégorisation biométrique sensible, et identification biométrique en temps réel dans l’espace public.

Quelle est la sanction pour un système IA interdit ?

Les systèmes interdits exposent à la sanction maximale : 35 millions d’euros ou 7% du chiffre d’affaires mondial annuel, selon le montant le plus élevé. C’est le niveau le plus sévère de l’AI Act.

Le scoring social est-il interdit en Europe ?

Oui, le scoring social par les pouvoirs publics est totalement interdit. Le scoring commercial (credit scoring) reste autorisé mais classé haut risque.

Peut-on utiliser la reconnaissance faciale au travail ?

La reconnaissance des émotions au travail est interdite, sauf raisons médicales ou de sécurité. La reconnaissance faciale simple pour l’accès aux locaux est autorisée mais classée haut risque.

Quand les interdictions entrent-elles en vigueur ?

Les interdictions de l’Article 5 sont entrées en vigueur le 2 février 2025, soit 6 mois après la publication du règlement. C’est la première échéance de l’AI Act.

Un chatbot peut-il être un système interdit ?

Un chatbot standard n’est pas interdit. Cependant, un chatbot conçu pour manipuler subliminalement les utilisateurs ou exploiter leurs vulnérabilités serait interdit au titre de l’Article 5.

Comment savoir si mon système est interdit ?

Vérifiez si votre système correspond à l’une des 8 catégories de l’Article 5. Critères clés : manipulation inconsciente, exploitation de vulnérabilités, notation sociale, prédiction criminelle, biométrie non consentie, reconnaissance émotionnelle au travail.

Que faire si je découvre un système interdit ?

Arrêt immédiat. Pas de période de transition. Documentez la découverte, cessez l’utilisation, informez la direction et le DPO, évaluez si une déclaration à l’autorité est nécessaire.

La police peut-elle utiliser la reconnaissance faciale ?

L’identification biométrique en temps réel dans l’espace public est interdite par principe. Des exceptions existent pour les forces de l’ordre (victimes, terrorisme, crimes graves) avec autorisation judiciaire préalable.

Les entreprises privées peuvent-elles faire du scoring social ?

Un système évaluant la « fiabilité sociale » pour refuser des droits fondamentaux serait probablement interdit même pour une entreprise privée. Le scoring commercial classique (crédit, assurance) reste autorisé mais haut risque.

🎯 Conclusion : La Ligne Rouge à Ne Jamais Franchir

Les 8 systèmes interdits représentent la ligne rouge absolue de l’AI Act. Ce ne sont pas des systèmes « à risque » nécessitant des précautions — ce sont des systèmes dont l’utilisation est totalement prohibée.

Contrairement aux systèmes haut risque ou risque limité qui peuvent être utilisés avec des mesures de conformité, les systèmes interdits n’ont aucune option de mise en conformité. La seule réponse est l’arrêt immédiat.

  • 1️⃣ 8 pratiques totalement interdites — De la manipulation subliminale au scoring social
  • 2️⃣ 35M€ ou 7% CA — Sanction maximale, pas de négociation
  • 3️⃣ En vigueur depuis février 2025 — Pas de période de grâce

Réalisez un inventaire complet de vos systèmes IA pour identifier tout système potentiellement interdit. Mieux vaut découvrir et arrêter vous-même qu’attendre le contrôle.

227 jours avant obligations complètes

Formation Classification des Risques AI Act

Apprenez à identifier les systèmes interdits, haut risque, limité et minimal. Maîtrisez la classification pour protéger votre entreprise.

Me former à la classification → 500€

🚫 8 interdictions • ⚠️ Haut risque • 📋 Risque limité • ✅ Minimal

📚 Sources Officielles Citées

Retour en haut