Systèmes Interdits IA Act : Liste Complète
🚫 La Ligne Rouge Absolue
8 pratiques IA sont totalement interdites par l’AI Act.
Pas de conformité possible. Pas de documentation qui sauve. Pas d’exception.
Si vous les utilisez : arrêt immédiat ou sanction de 35M€.
L’AI Act classe les systèmes IA en 4 niveaux de risque. Mais le premier niveau n’est pas « minimal » — c’est « interdit ». Ces systèmes sont jugés tellement dangereux qu’aucune mesure de conformité ne peut les rendre acceptables.
Contrairement aux systèmes haut risque qui peuvent être utilisés avec une documentation stricte, les systèmes interdits doivent être arrêtés immédiatement. Aucune période de transition.
Dans ce guide, découvrez les 8 catégories de systèmes interdits, les exemples concrets, et comment vérifier si vos systèmes franchissent la ligne rouge.
📋 Ce que vous allez maîtriser
- → Les 8 catégories de systèmes interdits (Article 5)
- → Exemples concrets pour chaque interdiction
- → Comment identifier un système potentiellement interdit
- → Que faire si vous découvrez un système interdit
- → Les sanctions encourues et la procédure
Infographie : Les 8 pratiques IA totalement prohibées par l’Article 5 de l’AI Act
🚫 Les 8 Pratiques IA Totalement Interdites
L’Article 5 de l’AI Act définit 8 catégories de systèmes IA dont l’utilisation est totalement prohibée sur le territoire européen. Aucune exception, aucune conformité possible.
Photo par Campaign Creators sur Unsplash
1️⃣ Manipulation Subliminale
Systèmes utilisant des techniques subliminales pour influencer le comportement d’une personne de manière à lui causer un préjudice.
🚫 Exemples Interdits
- ❌ IA intégrant des messages subliminaux dans les contenus
- ❌ Algorithmes exploitant les biais cognitifs inconscients
- ❌ Dark patterns IA qui manipulent les décisions d’achat
- ❌ Systèmes de persuasion cachée dans les interfaces
2️⃣ Exploitation des Vulnérabilités
Systèmes exploitant les vulnérabilités liées à l’âge, le handicap, ou la situation sociale pour influencer le comportement de manière préjudiciable.
🚫 Exemples Interdits
- ❌ Jeux IA ciblant les enfants pour favoriser l’addiction
- ❌ Publicité IA ciblant les personnes en détresse financière
- ❌ Assistants vocaux exploitant les troubles cognitifs des seniors
- ❌ Recommandations IA exploitant les troubles alimentaires
3️⃣ Scoring Social Gouvernemental
Systèmes utilisés par les pouvoirs publics pour évaluer la « fiabilité sociale » des citoyens et conditionner l’accès à des droits.
🚫 Exemples Interdits
- ❌ Système de crédit social « à la chinoise »
- ❌ Notation comportementale pour accès aux services publics
- ❌ Score de citoyenneté conditionnant les aides sociales
- ❌ Évaluation sociale pour l’attribution de logements HLM
⚠️ Attention : Scoring Commercial ≠ Scoring Social
Le credit scoring bancaire reste autorisé mais classé haut risque.
La différence : il évalue la solvabilité financière, pas le « comportement social général ».
4️⃣ Prédiction Criminelle Individuelle
Systèmes évaluant le risque de récidive d’une personne physique uniquement sur la base de son profilage ou de ses caractéristiques personnelles.
🚫 Exemples Interdits
- ❌ IA prédisant la récidive sur la base du profil socio-démographique
- ❌ Systèmes de « pre-crime » ciblant des individus
- ❌ Scoring de dangerosité basé sur le lieu de résidence
5️⃣ Bases Biométriques par Scraping
Création ou extension de bases de données de reconnaissance faciale par collecte non ciblée d’images sur internet ou vidéosurveillance.
🚫 Exemples Interdits
- ❌ Clearview AI (scraping massif de visages)
- ❌ Constitution de bases faciales depuis les réseaux sociaux
- ❌ Enrichissement de bases par vidéosurveillance sans consentement
6️⃣ Reconnaissance Émotionnelle au Travail/École
Systèmes de reconnaissance des émotions sur le lieu de travail ou dans les établissements d’enseignement, sauf raisons médicales ou de sécurité.
🚫 Exemples Interdits
- ❌ Caméras analysant le stress des employés
- ❌ IA détectant l’ennui des élèves en classe
- ❌ Systèmes évaluant l’engagement émotionnel en réunion
- ❌ Monitoring de l’humeur pour évaluer la performance
7️⃣ Catégorisation Biométrique Sensible
Systèmes catégorisant les personnes selon des données biométriques pour déduire leur race, opinions politiques, religion, orientation sexuelle, appartenance syndicale.
🚫 Exemples Interdits
- ❌ IA déduisant l’orientation sexuelle du visage
- ❌ Systèmes classifiant la religion par la voix
- ❌ Analyse faciale pour détecter les opinions politiques
- ❌ Profilage ethnique automatisé
8️⃣ Identification Biométrique en Temps Réel
Utilisation de systèmes d’identification biométrique à distance en temps réel dans les espaces publics par les forces de l’ordre.
⚠️ Exceptions Limitées pour Forces de l’Ordre
- ✅ Recherche de victimes d’enlèvement ou traite
- ✅ Prévention d’une menace terroriste imminente
- ✅ Recherche de suspects de crimes graves (liste définie)
Ces exceptions requièrent une autorisation judiciaire préalable.
« Les systèmes interdits ne sont pas ‘difficiles à rendre conformes’. Ils sont impossibles à rendre conformes. La seule option est l’arrêt total. »
— Juriste spécialisé AI Act, Cabinet européen
🚫 Quiz : Votre Système IA est-il Interdit ?
Évaluez si vos systèmes franchissent la ligne rouge
⚖️ Sanctions et Conséquences
Photo par Scott Graham sur Unsplash
Les systèmes interdits exposent aux sanctions maximales de l’AI Act. C’est le niveau de pénalité le plus sévère du règlement.
| Niveau de Risque | Sanction Maximale | % CA Mondial |
|---|---|---|
| 🚫 INTERDIT | 35 millions € | 7% |
| ⚠️ Haut risque (non-conformité) | 15 millions € | 3% |
| 📋 Manquements documentation | 7,5 millions € | 1,5% |
📊 Comparaison avec le RGPD
| Règlement | Sanction Max | % CA | Plus Grande Amende |
|---|---|---|---|
| AI Act (Interdit) | 35M€ | 7% | À venir (2025+) |
| RGPD | 20M€ | 4% | 1,2Md€ (Meta, 2023) |
💣 Risque Additionnel : Responsabilité Pénale
Contrairement aux manquements simples, l’utilisation de systèmes interdits peut engager la responsabilité pénale des dirigeants dans certains États membres.
En France, l’exploitation de données biométriques sans consentement expose à des poursuites pénales.
🛑 Que Faire si Vous Découvrez un Système Interdit ?
Photo par Carlos Muza sur Unsplash
Si lors de votre inventaire des systèmes IA vous identifiez un système potentiellement interdit, voici la procédure à suivre.
Arrêt Immédiat de l’Utilisation
Pas de période de transition. Suspendez immédiatement l’utilisation du système. Désactivez les accès, coupez les intégrations.
Documentation de la Découverte
Documentez précisément : quand le système a été découvert, depuis quand il était utilisé, quel périmètre (données, utilisateurs), quelle interdiction est concernée.
Information de la Direction
Informez immédiatement la direction générale et le DPO. C’est un sujet de responsabilité des dirigeants. Ne pas traiter seul.
Évaluation de l’Impact
Quelles données ont été traitées ? Quelles personnes concernées ? Y a-t-il eu des préjudices ? Cette évaluation guidera la suite.
Décision sur la Déclaration
En concertation avec le juridique, évaluez si une déclaration à l’autorité de contrôle est opportune. L’auto-déclaration peut être un facteur atténuant.
Renforcement des Contrôles
Mettez en place des contrôles pour éviter la récidive : registre des systèmes IA, validation avant déploiement, formation des équipes.
💡 Facteurs Atténuants en Cas de Contrôle
- ✅ Découverte et arrêt volontaire avant contrôle
- ✅ Auto-déclaration à l’autorité
- ✅ Documentation de la procédure d’arrêt
- ✅ Mesures correctives mises en place
- ✅ Coopération avec l’autorité
« La bonne foi compte. Une entreprise qui découvre un système interdit et l’arrête immédiatement sera traitée différemment de celle qui continue en connaissance de cause. »
— Représentant autorité de contrôle, Conférence AI Act 2025
⚠️ Évaluateur de Risque : Système Potentiellement Interdit
❓ Questions Fréquentes – Systèmes Interdits
L’AI Act interdit 8 catégories de systèmes : manipulation subliminale, exploitation des vulnérabilités, scoring social gouvernemental, prédiction criminelle individuelle, bases biométriques par scraping, reconnaissance émotionnelle au travail/école, catégorisation biométrique sensible, et identification biométrique en temps réel dans l’espace public.
Les systèmes interdits exposent à la sanction maximale : 35 millions d’euros ou 7% du chiffre d’affaires mondial annuel, selon le montant le plus élevé. C’est le niveau le plus sévère de l’AI Act.
Oui, le scoring social par les pouvoirs publics est totalement interdit. Le scoring commercial (credit scoring) reste autorisé mais classé haut risque.
La reconnaissance des émotions au travail est interdite, sauf raisons médicales ou de sécurité. La reconnaissance faciale simple pour l’accès aux locaux est autorisée mais classée haut risque.
Les interdictions de l’Article 5 sont entrées en vigueur le 2 février 2025, soit 6 mois après la publication du règlement. C’est la première échéance de l’AI Act.
Un chatbot standard n’est pas interdit. Cependant, un chatbot conçu pour manipuler subliminalement les utilisateurs ou exploiter leurs vulnérabilités serait interdit au titre de l’Article 5.
Vérifiez si votre système correspond à l’une des 8 catégories de l’Article 5. Critères clés : manipulation inconsciente, exploitation de vulnérabilités, notation sociale, prédiction criminelle, biométrie non consentie, reconnaissance émotionnelle au travail.
Arrêt immédiat. Pas de période de transition. Documentez la découverte, cessez l’utilisation, informez la direction et le DPO, évaluez si une déclaration à l’autorité est nécessaire.
L’identification biométrique en temps réel dans l’espace public est interdite par principe. Des exceptions existent pour les forces de l’ordre (victimes, terrorisme, crimes graves) avec autorisation judiciaire préalable.
Un système évaluant la « fiabilité sociale » pour refuser des droits fondamentaux serait probablement interdit même pour une entreprise privée. Le scoring commercial classique (crédit, assurance) reste autorisé mais haut risque.
🎯 Conclusion : La Ligne Rouge à Ne Jamais Franchir
Les 8 systèmes interdits représentent la ligne rouge absolue de l’AI Act. Ce ne sont pas des systèmes « à risque » nécessitant des précautions — ce sont des systèmes dont l’utilisation est totalement prohibée.
Contrairement aux systèmes haut risque ou risque limité qui peuvent être utilisés avec des mesures de conformité, les systèmes interdits n’ont aucune option de mise en conformité. La seule réponse est l’arrêt immédiat.
- 1️⃣ 8 pratiques totalement interdites — De la manipulation subliminale au scoring social
- 2️⃣ 35M€ ou 7% CA — Sanction maximale, pas de négociation
- 3️⃣ En vigueur depuis février 2025 — Pas de période de grâce
Réalisez un inventaire complet de vos systèmes IA pour identifier tout système potentiellement interdit. Mieux vaut découvrir et arrêter vous-même qu’attendre le contrôle.
Formation Classification des Risques AI Act
Apprenez à identifier les systèmes interdits, haut risque, limité et minimal. Maîtrisez la classification pour protéger votre entreprise.
Me former à la classification → 500€🚫 8 interdictions • ⚠️ Haut risque • 📋 Risque limité • ✅ Minimal
📚 Sources Officielles Citées
- Règlement (UE) 2024/1689 – AI Act • Article 5 (Pratiques interdites)
- Commission européenne – AI Office • Guidelines Article 5
- CNIL – Intelligence Artificielle • Biométrie et données sensibles