IA AML : Anti-Money Laundering
🛡️ Le Gardien sous Double Contrainte
L’IA AML doit détecter le blanchiment mais l’AI Act impose transparence et explicabilité.
Le paradoxe : comment expliquer une détection sans alerter les criminels ? L’articulation LCB-FT + AI Act est critique.
L’IA révolutionne la lutte anti-blanchiment. Détection de transactions suspectes, KYC automatisé, screening des listes de sanctions, scoring de risque… Les systèmes IA traitent des millions de transactions pour identifier les signaux faibles.
Mais cette puissance soulève des questions réglementaires uniques. L’AI Act exige la transparence. La réglementation LCB-FT impose le secret. Comment concilier explicabilité et confidentialité des enquêtes ?
Ce guide vous aide à naviguer entre les obligations AI Act et LCB-FT pour vos systèmes AML, de la détection de transactions suspectes aux déclarations TRACFIN.
📖 Ce que vous allez découvrir
- → Les 5 usages IA AML et leur classification
- → L’articulation AI Act + LCB-FT
- → Les exceptions confidentialité (tipping-off)
- → La supervision humaine comme atout compliance
- → Le plan de mise en conformité sectoriel
Infographie : Les 5 usages IA AML et leur classification AI Act
⚖️ L’Articulation LCB-FT + AI Act : Double Conformité
Le secteur AML est déjà l’un des plus régulés. La 4e, 5e et 6e Directive anti-blanchiment imposent des obligations strictes. L’AI Act s’ajoute sans les remplacer.
Photo par Campaign Creators sur Unsplash
| Aspect | LCB-FT | AI Act |
|---|---|---|
| Focus | Obligations métier AML | Obligations systèmes IA |
| Vigilance | KYC, monitoring, déclarations | Documentation, tests, transparence |
| Transparence | ❌ Tipping-off interdit | ✅ Exceptions prévues (Art. 50) |
| Supervision | ACPR, TRACFIN | Autorités IA nationales |
| Sanctions | Jusqu’à 10% CA (ACPR) | Jusqu’à 35M€ ou 7% CA |
✅ Exception Confidentialité (Article 50)
L’AI Act prévoit explicitement que l’obligation de transparence ne s’applique pas quand elle compromettrait la détection, prévention ou investigation d’infractions pénales.
Le tipping-off reste interdit. L’explicabilité peut être réservée aux régulateurs et auditeurs internes, pas au client suspect.
« L’AI Act ne remet pas en cause le secret des enquêtes AML. Les exceptions sont claires. La transparence s’applique aux processus généraux, pas aux investigations individuelles. »
— ACPR, Autorité de Contrôle Prudentiel et de Résolution
🛡️ Classification AI Act des Systèmes AML
Photo par Scott Graham sur Unsplash
🔍 Détection de Transactions Suspectes
Transaction Monitoring
Classification : Variable selon automatisation. Si l’IA génère des alertes pour analyse humaine : risque limité. Si l’IA bloque automatiquement des comptes : potentiellement haut risque. Facteur clé : La supervision humaine avant action définitive réduit le risque.
👤 KYC Automatisé
Vérification d’Identité
Classification : Variable. Vérification documents (OCR, authenticité) : risque limité. Scoring KYC décisionnel (acceptation/refus client) : potentiellement haut risque si impacte l’accès aux services bancaires. Vigilance : Les refus automatiques peuvent nécessiter une classification plus élevée.
📋 Screening Listes de Sanctions
Matching Sanctions et PEP
Classification : Généralement risque limité. Le screening automatisé contre OFAC, UE, ONU génère des hits pour analyse humaine. Atout : Le modèle classique (match → analyse humaine → décision) est conforme AI Act. La supervision humaine des hits est la norme sectorielle.
📊 Scoring Risque
Risk Rating Client et Transaction
Classification : Variable. Scoring pour prioriser les alertes : risque limité. Scoring décisionnel (limitation services, clôture) : potentiellement haut risque. Facteur : Le score est-il indicatif (aide) ou décisionnel (détermine l’action) ?
🛡️ Quiz : Conformité AI Act AML
Évaluez la maturité de votre département compliance
✅ La Supervision Humaine : Votre Atout Compliance
Le secteur AML a un avantage majeur : le modèle classique de supervision humaine correspond exactement aux exigences AI Act.
✅ Le Modèle AML Classique est Conforme
- 1️⃣ Alerte IA — Le système détecte une anomalie et génère une alerte
- 2️⃣ Analyse Humaine — L’analyste AML examine le cas, recherche le contexte
- 3️⃣ Décision Humaine — L’analyste qualifie (faux positif ou soupçon) et documente
- 4️⃣ Action — Si soupçon, déclaration TRACFIN, sinon clôture documentée
Ce workflow respecte l’exigence de supervision humaine significative de l’AI Act.
⚠️ Points de Vigilance
| Pratique | Conforme | Risque |
|---|---|---|
| Alerte → analyse humaine → décision | ✅ OUI | Modèle standard conforme |
| Blocage automatique temporaire + analyse | ⚠️ VIGILANCE | Documenter le processus de déblocage |
| Clôture automatique sans intervention | ❌ RISQUE | Potentiellement haut risque AI Act |
| Auto-close des faux positifs par IA | ⚠️ VIGILANCE | Documenter les critères d’auto-close |
« La supervision humaine n’est pas une formalité. L’analyste doit pouvoir comprendre l’alerte, accéder au contexte, et prendre une décision indépendante et documentée. »
— TRACFIN, Cellule de Renseignement Financier
🎯 Plan de Mise en Conformité AML
Photo par Carlos Muza sur Unsplash
Inventaire systèmes IA AML — Cartographier : transaction monitoring, KYC, screening, scoring, génération rapports.
Classification des risques — Distinguer : génération alertes (limité) vs décisions automatiques (potentiellement haut risque).
Analyse supervision humaine — Vérifier que chaque système a une supervision humaine significative documentée.
Formation équipes compliance — Former analystes AML, MLRO, équipes KYC à l’AI Act (500€/personne).
Documentation technique — Créer fiches conformité pour chaque système IA. Documenter les processus de décision.
Tests de biais — Analyser les taux de faux positifs par segment. Vérifier l’absence de discrimination.
Articulation LCB-FT — Intégrer AI Act dans les procédures LCB-FT existantes. Mise à jour PSAN si applicable.
Veille et audit — Suivre les évolutions réglementaires. Préparer les contrôles ACPR incluant l’AI Act.
⚠️ Faux Positifs : Un Enjeu AI Act
L’AI Act exige que les systèmes haut risque minimisent les erreurs. Un taux de faux positifs excessif peut :
- → Impacter des clients légitimes (blocage, refus)
- → Créer des biais discriminatoires (certains segments sur-alertés)
- → Nécessiter une documentation des actions correctives
🛡️ Simulateur Budget Conformité AML
Estimez le budget de mise en conformité AI Act de votre département AML
❓ Questions Fréquentes – IA AML et AI Act
Variable. Si l’IA génère des alertes pour analyse humaine : risque limité. Si l’IA bloque automatiquement des comptes : potentiellement haut risque. Facteur clé : La supervision humaine avant action définitive réduit la classification.
Double conformité. LCB-FT impose les obligations métier (vigilance, déclarations). AI Act ajoute les obligations IA (documentation, tests). Les deux se cumulent. Le secret bancaire et le tipping-off restent protégés (exceptions Article 50).
Non. L’AI Act prévoit des exceptions quand la transparence compromettrait la détection d’infractions (Article 50). Le tipping-off reste interdit. L’explicabilité peut être réservée aux régulateurs et auditeurs, pas au client suspect.
Oui, classification variable. Vérification documents : risque limité. Scoring KYC décisionnel (accès services) : potentiellement haut risque. Obligations : transparence, tests de biais. Supervision humaine recommandée pour les refus.
Oui, risque limité. Le screening OFAC, UE, ONU génère des hits pour analyse humaine. Atout : Le modèle classique (match → analyse humaine → décision) est conforme AI Act. Documentation et formation requises.
Oui, indirectement. L’AI Act exige de minimiser les erreurs. Un taux de faux positifs excessif impacte des clients légitimes et peut créer des biais. Documentation des taux et actions correctives requises.
Oui, obligation Article 4. Analystes AML, MLRO, équipes KYC doivent être formés. Formation spécifique : comprendre les alertes IA, interpréter les scores, documenter les décisions. Deadline : août 2025.
Budget : Fintech : 30-80K€. Banque régionale : 60-150K€. Grande banque : 150-400K€+. Éditeur AML : 80-200K€. Postes : formation (25%), documentation (35%), tests biais (25%), audit (15%). Mutualisation possible avec conformité LCB-FT.
Oui. Le modèle AML classique (alerte IA → analyse humaine → décision) correspond à l’exigence de supervision humaine. L’analyste doit pouvoir comprendre l’alerte et prendre une décision indépendante documentée.
Calendrier : Février 2025 – Pratiques interdites. Août 2025 – Formation (Article 4). Août 2026 – Systèmes haut risque. Priorité : cartographier les systèmes IA, former les équipes, documenter la supervision humaine.
🎯 Conclusion : L’AML sous Double Conformité
L’IA AML doit naviguer entre deux exigences : détecter le blanchiment avec efficacité et respecter les nouvelles obligations AI Act. La bonne nouvelle : les deux sont compatibles.
Le modèle AML classique avec supervision humaine significative est un atout. L’exception confidentialité protège le secret des enquêtes. L’articulation LCB-FT + AI Act est maîtrisable.
- 1️⃣ Cartographier — Identifier tous les systèmes IA AML et leur niveau d’automatisation
- 2️⃣ Documenter — La supervision humaine à chaque étape critique
- 3️⃣ Former — Les équipes compliance à l’AI Act (priorité août 2025)
L’échéance approche. L’obligation de formation entre en vigueur en août 2025. Formez vos équipes compliance maintenant.
Formation AI Act pour Équipes Compliance AML
Notre formation couvre les spécificités du secteur AML : articulation LCB-FT, exception confidentialité, supervision humaine.
Former mon équipe compliance → 500€/personne🛡️ Module AML inclus • ⚖️ Focus LCB-FT • ✅ Certificat Article 4
📚 Sources
- Règlement (UE) 2024/1689 – AI Act • Article 50 (Exception confidentialité)
- ACPR • Autorité de Contrôle Prudentiel et de Résolution
- TRACFIN • Cellule de Renseignement Financier