Fairness IA et IA Act : Non-Discrimination
⚠️ Le Paradoxe de la Fairness
On ne peut pas optimiser toutes les métriques d'équité simultanément.
L'AI Act ne dit pas quelle métrique utiliser. C'est à vous de choisir et justifier.
Votre algorithme de scoring refuse 2x plus de femmes que d'hommes. Est-il biaisé ? Pas forcément. Si le taux de défaut historique diffère entre groupes, l'égalité des taux d'acceptation peut créer... une autre forme de discrimination.
C'est le cœur du problème fairness en IA : il n'existe pas de définition unique de l'équité. Les mathématiciens ont prouvé qu'on ne peut pas satisfaire toutes les métriques de fairness simultanément (le "fairness impossibility theorem").
L'AI Act exige que les systèmes haut risque "ne produisent pas d'effets discriminatoires" mais ne prescrit pas de métrique spécifique. C'est à vous de choisir, mesurer, mitiger et documenter vos choix.
Ce guide décrypte les obligations fairness de l'AI Act, les métriques disponibles, les techniques de mitigation, et comment documenter vos décisions pour les audits.
Par Loïc Gros-Flandre
Directeur de Modernee - Agence IA. Expertise en détection de biais algorithmiques et mise en conformité éthique des systèmes IA. Accompagnement d'entreprises sur les audits fairness.
📋 Ce que vous allez maîtriser
- → Le "fairness impossibility theorem" : pourquoi il faut choisir
- → Les principales métriques : demographic parity, equalized odds, predictive parity
- → Les 21 attributs protégés en Europe (Charte des droits fondamentaux)
- → Les techniques de mitigation : pre/in/post-processing
- → Le piège des proxies : discrimination indirecte
- → 3 cas pratiques : RH, crédit, santé
Infographie : Les trois principales métriques de fairness et leur incompatibilité mathématique
📜 Ce que l'AI Act Exige sur la Fairness
L'AI Act ne crée pas un nouveau droit anti-discrimination. Il renforce les obligations existantes avec des exigences techniques spécifiques pour les systèmes IA haut risque.
Photo par Karola G sur Pexels
📋 Article 10 : Qualité des Données
L'Article 10 impose que les données d'entraînement soient :
- ✅ Pertinentes — Adaptées au cas d'usage prévu
- ✅ Représentatives — Reflétant la population cible
- ✅ Exemptes d'erreurs — Dans la mesure du possible
- ✅ Complètes — Au regard de la finalité
La représentativité est clé pour la fairness : si certains groupes sont sous-représentés dans les données d'entraînement, le modèle performera moins bien pour eux.
⚖️ Article 9 : Gestion des Risques
L'Article 9 exige un système de gestion des risques incluant :
"L'identification et l'analyse des risques connus et raisonnablement prévisibles [...] y compris les risques liés aux biais."
— AI Act, Article 9, paragraphe 2(a)
Concrètement, vous devez :
- 1️⃣ Identifier les risques de biais potentiels
- 2️⃣ Évaluer leur probabilité et impact
- 3️⃣ Mettre en place des mesures de mitigation
- 4️⃣ Documenter le tout
🛡️ Les 21 Attributs Protégés
La Charte des droits fondamentaux de l'UE (Article 21) liste les caractéristiques protégées :
| Catégorie | Attributs Protégés |
|---|---|
| Identité | Sexe, race, couleur, origines ethniques, origines sociales |
| Biologique | Caractéristiques génétiques, handicap, âge |
| Personnel | Orientation sexuelle, naissance, fortune |
| Culturel | Langue, religion, convictions, opinions politiques |
| Social | Appartenance à minorité nationale, nationalité |
⚠️ Attention aux Proxies
Même sans utiliser explicitement ces attributs, votre modèle peut les inférer via des proxies :
Code postal → origine ethnique. Prénom → genre/origine. Historique navigation → opinions politiques.
📊 Les Métriques de Fairness : Laquelle Choisir ?
Il existe des dizaines de métriques de fairness. Les trois principales sont :
1️⃣ Demographic Parity (Parité Démographique)
Définition : Tous les groupes ont le même taux d'acceptation (ou de résultat positif).
Formule : P(Ŷ=1|A=a) = P(Ŷ=1|A=b) pour tous les groupes a et b.
Quand l'utiliser :
- ✅ Objectif de représentation égale (ex: diversité en recrutement)
- ✅ Taux de base historique non pertinent ou biaisé
- ❌ À éviter si les groupes ont des qualifications réellement différentes
2️⃣ Equalized Odds (Égalité des Chances)
Définition : Tous les groupes ont le même taux de vrais positifs ET de faux positifs.
Formule : P(Ŷ=1|Y=y,A=a) = P(Ŷ=1|Y=y,A=b) pour y∈{0,1}.
Quand l'utiliser :
- ✅ Erreurs ont un coût similaire pour tous les groupes
- ✅ Diagnostic médical (faux négatifs = problème grave)
- ❌ Difficile à atteindre avec des taux de base très différents
3️⃣ Predictive Parity (Parité Prédictive)
Définition : Pour tous les groupes, parmi les prédictions positives, le même % est réellement positif.
Formule : P(Y=1|Ŷ=1,A=a) = P(Y=1|Ŷ=1,A=b).
Quand l'utiliser :
- ✅ Score doit représenter une probabilité réelle
- ✅ Scoring de crédit (calibration importante)
- ❌ Peut masquer des disparités dans les taux de faux positifs
🔴 Le Théorème d'Impossibilité
Mathématiquement prouvé : si les groupes ont des taux de base différents, on NE PEUT PAS satisfaire demographic parity, equalized odds ET predictive parity simultanément.
Vous devez choisir. Et justifier votre choix dans votre documentation AI Act.
"Le choix de la métrique de fairness est un choix éthique et politique, pas seulement technique. L'AI Act vous demande de le rendre explicite et traçable."
— Dr. Claire Mathieu, Directrice de recherche CNRS en algorithmique
⚖️ Évaluez Votre Maturité Fairness
Déterminez votre niveau de préparation aux obligations AI Act sur les biais
🔬 3 Cas Pratiques Détaillés
Appliquons les obligations fairness à des systèmes IA réels.
Photo par RDNE Stock project sur Pexels
📌 Cas 1 : Scoring de Crédit Bancaire
Contexte : BankScore utilise un modèle ML pour attribuer un score de crédit (0-1000) qui détermine l'éligibilité et le taux d'intérêt des prêts immobiliers.
Analyse fairness :
- 📊 Attributs sensibles — Genre, origine ethnique, âge, code postal
- ⚠️ Proxies identifiés — Code postal corrélé à l'origine ethnique
- 📈 Taux de base — Historique de défaut différent selon les groupes
🎯 Métrique Choisie : Predictive Parity
Justification : Un score de 700 doit signifier le même risque de défaut quel que soit le groupe. La calibration est essentielle pour la tarification.
Trade-off accepté : Taux d'acceptation différents entre groupes, mais reflétant les risques réels.
Mesures de mitigation :
- 1️⃣ Suppression du code postal comme variable directe
- 2️⃣ Test de disparate impact (ratio 80% minimum)
- 3️⃣ Monitoring mensuel des écarts par groupe
- 4️⃣ Recours humain obligatoire pour les refus
Budget fairness : 45 000€ - 70 000€ (audit + monitoring continu)
📌 Cas 2 : Tri de CV par IA
Contexte : TalentAI développe un outil de présélection de CV pour les entreprises. L'outil score les candidatures et recommande les top 20% pour entretien.
Analyse fairness :
- 📊 Attributs sensibles — Genre (inférable du prénom), origine (nom), âge (dates)
- ⚠️ Risque historique — Données d'entraînement basées sur recrutements passés (potentiellement biaisés)
- 🔴 Haut risque — Annexe III : systèmes utilisés pour le recrutement
🎯 Métrique Choisie : Demographic Parity
Justification : L'objectif est la diversité. Les taux de "succès" historiques reflètent des biais passés, pas des différences de compétences.
Trade-off accepté : Potentiellement moins de prédictivité pure, mais plus d'équité d'accès.
Mesures de mitigation :
- 1️⃣ Anonymisation des CV avant scoring (prénom, photo, dates supprimés)
- 2️⃣ Rééquilibrage des données d'entraînement
- 3️⃣ Seuils différenciés pour égaliser les taux de sélection
- 4️⃣ Audit externe annuel
Budget fairness : 60 000€ - 100 000€ (outil fournisseur haut risque)
📌 Cas 3 : Aide au Diagnostic Dermatologique
Contexte : SkinCheck est une app mobile qui analyse des photos de lésions cutanées pour détecter les risques de mélanome. Elle recommande une consultation si le risque est élevé.
Analyse fairness :
- 📊 Attribut sensible — Phototype/couleur de peau (Fitzpatrick I-VI)
- ⚠️ Biais connu — Datasets dermatologiques historiquement biaisés vers peaux claires
- 🔴 Impact vital — Faux négatif = mélanome non détecté = risque de décès
🎯 Métrique Choisie : Equalized Odds
Justification : Le taux de faux négatifs doit être égal pour tous les phototypes. Un mélanome sur peau foncée ne doit pas être plus souvent manqué.
Trade-off accepté : Potentiellement plus de faux positifs pour certains groupes (consultations inutiles), mais aucun groupe ne subit plus de faux négatifs.
Mesures de mitigation :
- 1️⃣ Enrichissement dataset avec images peaux foncées (partenariat hôpitaux Afrique)
- 2️⃣ Modèle séparé par phototype avec calibration croisée
- 3️⃣ Monitoring temps réel des taux de détection par phototype
- 4️⃣ Disclaimer si confiance faible sur peaux foncées
Budget fairness : 80 000€ - 150 000€ (dispositif médical + audit clinique)
📋 Plan d'Action Fairness en 7 Étapes
Voici comment mettre en place un programme fairness conforme à l'AI Act.
Photo par Nicola Barts sur Pexels
Identifier les Attributs Protégés Pertinents
Listez les caractéristiques protégées pour votre contexte. Tous ne sont pas toujours pertinents (ex: religion pour un scoring crédit ?). Identifiez aussi les proxies potentiels.
Durée : 1 semaine | Responsable : Juridique + Data Science
Auditer les Données d'Entraînement
Analysez la représentativité de votre dataset. Quelle proportion de chaque groupe ? Des groupes sont-ils sous-représentés ? Les labels sont-ils biaisés historiquement ?
Durée : 2-3 semaines | Responsable : Data Science
Choisir Vos Métriques de Fairness
Demographic parity, equalized odds, predictive parity ? Le choix dépend du contexte. Documentez le raisonnement et les trade-offs acceptés. Impliquez les parties prenantes.
Durée : 1-2 semaines | Responsable : Éthique + Direction
Mesurer les Écarts Entre Groupes
Calculez les métriques de performance par groupe protégé : taux d'acceptation, vrais positifs, faux positifs, faux négatifs. Identifiez les écarts significatifs.
Durée : 2 semaines | Responsable : Data Science
Appliquer des Techniques de Mitigation
Pre-processing (rééquilibrage données), in-processing (contraintes dans l'algo), post-processing (ajustement seuils). Testez l'impact sur la performance globale.
Durée : 4-6 semaines | Responsable : ML Engineering
Documenter les Choix et Trade-offs
L'AI Act exige une documentation complète : métriques choisies et pourquoi, écarts mesurés, techniques appliquées, trade-offs acceptés, responsables des décisions.
Durée : 2 semaines | Responsable : Conformité + Technique
Monitorer en Continu
Les biais peuvent émerger avec le temps (data drift). Mettez en place un monitoring continu des métriques fairness en production. Définissez des alertes si les écarts dépassent les seuils.
Durée : Continu | Responsable : MLOps + Conformité
💰 Simulateur Budget Audit Fairness
❓ Questions Fréquentes - Fairness et AI Act
L'absence de discrimination injuste dans les décisions algorithmiques.
Un système "fair" traite équitablement les individus indépendamment de leurs caractéristiques protégées.
Non. L'AI Act exige l'absence d'effets discriminatoires sans prescrire de métrique.
C'est à vous de choisir et justifier votre approche.
C'est le fairness impossibility theorem.
Si les groupes ont des taux de base différents, certaines métriques sont mathématiquement incompatibles.
La Charte des droits fondamentaux liste 21 caractéristiques : sexe, race, couleur, origines, religion...
Certaines peuvent être inférées par des proxies (code postal, prénom...).
Trois approches : analyse des données (représentativité), audit du modèle (métriques par groupe), monitoring en production.
Calculez taux d'acceptation, faux positifs, faux négatifs par groupe.
Trois techniques : Pre-processing (rééquilibrer données), In-processing (contraintes algo), Post-processing (ajuster seuils).
Documentez les trade-offs acceptés.
Oui. Le modèle peut inférer les attributs protégés via code postal, prénom, historique...
L'AI Act exige de traiter ces discriminations indirectes.
Les obligations strictes concernent les systèmes haut risque (RH, crédit, santé...).
Le droit anti-discrimination existant s'applique à tous.
Paradoxe fairness/RGPD. Solutions : consentement explicite, inférence statistique, données synthétiques.
Consultez votre DPO.
Basique : 15-25K€. Complet : 40-70K€.
Programme continu : 60-120K€/an.
🎯 Conclusion : La Fairness Est un Choix Assumé
La fairness en IA n'est pas un problème technique à "résoudre". C'est un ensemble de choix éthiques à faire et à documenter. L'AI Act vous demande de rendre ces choix explicites, traçables et justifiés.
Le "fairness impossibility theorem" vous oblige à choisir : égalité des taux d'acceptation ? Égalité des taux d'erreur ? Calibration des scores ? La bonne réponse dépend du contexte et de vos valeurs.
- 1️⃣ Identifiez les attributs protégés — Et leurs proxies
- 2️⃣ Choisissez vos métriques — Et justifiez votre choix
- 3️⃣ Documentez les trade-offs — L'AI Act exige la traçabilité
L'échéance d'août 2025 approche pour les obligations de documentation et de gestion des risques.
Formation AI Act - Module Fairness
Maîtrisez les métriques de fairness et les techniques de mitigation des biais.
Découvrir la formation → 500€✅ Métriques • ✅ Mitigation • ✅ Documentation
📚 Sources Officielles Citées
- Règlement (UE) 2024/1689 - AI Act • Article 9 (risques), Article 10 (données)
- Charte des droits fondamentaux - Article 21 • Non-discrimination
- Fairness Impossibility Theorem • Kleinberg, Mullainathan, Raghavan (2016)