Fairness IA : Équité Algorithmes
⚖️ Cas Réel de Discrimination
En 2018, Amazon a abandonné son IA de recrutement qui discriminait systématiquement les femmes. Le modèle avait appris les biais présents dans 10 ans de données historiques.
Votre algorithme IA prend des décisions. Mais traite-t-il équitablement tous les individus ? La fairness (équité algorithmique) est devenue une obligation légale avec l’IA Act.
Un système IA discriminatoire peut refuser un crédit à cause de l’origine ethnique, écarter un CV à cause du genre, ou refuser une assurance à cause de l’âge. Ces pratiques sont désormais interdites et sanctionnées.
Ce guide vous explique les différentes définitions de fairness, comment les mesurer, et comment garantir l’équité de vos systèmes IA.
Par Loïc Gros-Flandre
Directeur de Modernee – Agence IA. Expert en éthique algorithmique et conformité IA.
📚 Ce que vous allez découvrir
- → Les 5 définitions de fairness en IA
- → Les métriques pour mesurer l’équité
- → Les exigences de l’IA Act sur la non-discrimination
- → Les techniques de mitigation des biais
- → Les outils pour auditer vos modèles
Infographie : Les 5 principales définitions de fairness en IA
📊 Les 5 Définitions de Fairness en IA
Photo par Campaign Creators sur Unsplash
La fairness (équité) en IA n’a pas une définition unique. Plusieurs concepts coexistent, chacun avec ses avantages et limites.
1️⃣ Demographic Parity (Parité Démographique)
La demographic parity exige que le taux de décisions positives soit identique pour tous les groupes.
📐 Formule
P(Ŷ=1 | A=a) = P(Ŷ=1 | A=b) pour tous groupes a et b
Exemple : Si 40% des hommes obtiennent le prêt, 40% des femmes doivent aussi l’obtenir.
2️⃣ Equal Opportunity (Égalité des Chances)
L’equal opportunity exige que le taux de vrais positifs (TPR) soit identique pour tous les groupes.
- 🎯 Focus sur les individus qualifiés uniquement
- 🎯 Parmi ceux qui méritent une décision positive, même taux d’acceptation
- 🎯 Plus adapté quand il existe un « mérite » objectif
3️⃣ Equalized Odds
L’equalized odds va plus loin en exigeant l’égalité du TPR ET du taux de faux positifs (FPR) entre groupes.
4️⃣ Predictive Parity
La predictive parity exige que la précision des prédictions positives soit identique pour tous les groupes.
5️⃣ Individual Fairness
L’individual fairness adopte une approche différente : des individus similaires doivent recevoir des décisions similaires.
« Le choix de la métrique de fairness est une décision éthique, pas technique. Il n’y a pas de bonne réponse universelle. »
— Chercheur en éthique IA, MIT
⚖️ Ce que l’IA Act Exige sur la Fairness
Photo par Scott Graham sur Unsplash
L’IA Act impose plusieurs exigences liées à la fairness IA obligations pour les systèmes haut risque.
📜 Article 10 : Données et Gouvernance
📜 Exigence Clé
« Les jeux de données d’entraînement, de validation et de test sont pertinents, suffisamment représentatifs, et dans la mesure du possible, exempts d’erreurs et complets au regard de la finalité prévue. »
L’Article 10 impose explicitement :
- 📊 Représentativité : Données couvrant tous les groupes concernés
- 📊 Examen des biais : Identification des possibles sources de biais
- 📊 Mesures correctives : Traitement approprié des biais détectés
📜 Article 9 : Système de Gestion des Risques
L’Article 9 exige d’identifier et de mitiger les risques, y compris les risques de discrimination.
🚫 Pratiques Interdites (Article 5)
L’IA Act interdit explicitement certaines pratiques discriminatoires :
- 🚫 Social scoring basé sur le comportement social
- 🚫 Catégorisation biométrique par ethnie ou religion
- 🚫 Exploitation des vulnérabilités (âge, handicap)
🎯 Quiz : Maîtrisez-vous la Fairness IA ?
📐 Métriques pour Mesurer la Fairness
Voici les principales métriques utilisées pour quantifier l’équité algorithmique.
| Métrique | Formule | Seuil Acceptable |
|---|---|---|
| Disparate Impact Ratio | P(Ŷ=1|A=minority) / P(Ŷ=1|A=majority) | ≥ 0.8 (règle des 80%) |
| Statistical Parity Difference | P(Ŷ=1|A=a) – P(Ŷ=1|A=b) | |diff| ≤ 0.1 |
| Equal Opportunity Difference | TPR(A=a) – TPR(A=b) | |diff| ≤ 0.1 |
| Average Odds Difference | ½[(TPR_a – TPR_b) + (FPR_a – FPR_b)] | |diff| ≤ 0.1 |
💡 Règle des 80% (Four-Fifths Rule)
Standard légal américain : le taux de sélection d’un groupe minoritaire doit être au moins 80% du taux du groupe majoritaire. Disparate Impact Ratio < 0.8 = discrimination présumée.
🛠️ Outils pour Auditer la Fairness
Photo par Carlos Muza sur Unsplash
🔧 Librairies Open Source
| Outil | Développeur | Points Forts |
|---|---|---|
| AI Fairness 360 | IBM | 70+ métriques, algorithmes mitigation |
| Fairlearn | Microsoft | Intégration scikit-learn, dashboards |
| What-If Tool | Visualisation interactive, TensorFlow | |
| Aequitas | U. Chicago | Audit toolkit, rapports automatisés |
🔄 Techniques de Mitigation des Biais
Pré-processing (Avant entraînement)
Rééquilibrer les données, re-pondérer les échantillons, supprimer les proxies des attributs protégés.
In-processing (Pendant entraînement)
Ajouter des contraintes d’équité dans la fonction de perte, adversarial debiasing, fair representations.
Post-processing (Après entraînement)
Ajuster les seuils de décision par groupe, calibration des probabilités, reject option classification.
📊 Calculateur Disparate Impact Ratio
❓ Questions Fréquentes – Fairness IA
La fairness (équité) en IA désigne l’absence de biais discriminatoires dans les décisions algorithmiques. Un système fair traite équitablement tous les groupes, sans favoriser ni pénaliser sur la base d’attributs protégés.
Les attributs protégés incluent : sexe, origine ethnique, religion, âge, handicap, orientation sexuelle, nationalité. Ces critères ne doivent pas influencer négativement les décisions IA de manière injustifiée.
La Demographic Parity exige que le taux de décisions positives soit identique pour tous les groupes. Si 30% des hommes sont acceptés, 30% des femmes doivent aussi l’être, indépendamment des qualifications.
Non. Le théorème d’impossibilité de Kleinberg prouve qu’il est mathématiquement impossible de satisfaire simultanément toutes les définitions de fairness. Il faut choisir les métriques adaptées au contexte.
Oui. L’Article 10 impose des données représentatives et exemptes de biais. L’Article 9 exige l’identification et la mitigation des risques de discrimination pour tous les systèmes haut risque.
Utilisez des librairies comme AI Fairness 360, Fairlearn, ou What-If Tool. Calculez les métriques (disparate impact, equal opportunity difference) sur des datasets représentatifs avec attributs protégés.
Trois approches : pré-processing (rééquilibrer les données), in-processing (contraintes d’équité dans l’entraînement), post-processing (ajuster les seuils de décision par groupe).
Jusqu’à 15M€ ou 3% du CA mondial pour non-conformité aux exigences de données. Les victimes peuvent aussi engager des actions civiles pour discrimination avec dommages-intérêts.
« La fairness n’est pas un problème technique à résoudre une fois. C’est un processus continu de surveillance et d’amélioration. »
— Responsable Éthique IA, Banque européenne
🎯 Conclusion : L’Équité comme Obligation
La fairness n’est plus une option éthique. C’est une obligation légale de l’IA Act pour tous les systèmes haut risque.
Les biais algorithmiques ont des conséquences réelles : refus de crédit, exclusion de recrutement, tarification discriminatoire. Les contrôler est à la fois un impératif moral et réglementaire.
✅ Ce Qu’il Faut Retenir
- 5 définitions : Demographic parity, equal opportunity, equalized odds, predictive parity, individual fairness
- Métriques clés : Disparate Impact Ratio ≥ 0.8 (règle des 80%)
- Outils : AI Fairness 360, Fairlearn, What-If Tool
- Mitigation : Pré-processing, in-processing, post-processing
- IA Act : Articles 9 et 10, sanction 15M€ ou 3% CA
Maîtrisez l’Équité Algorithmique
Apprenez à auditer et corriger les biais de vos modèles
Obtenir ma certification → 500€