🚨

ATTENDEZ !

Vous êtes à 227 jours des premiers contrôles AI Act.

35M€
Amende maximale
73%
PME non préparées
227j
Avant les contrôles

Préférez-vous investir 500€ aujourd'hui ou risquer 35M€ demain ?

Me protéger maintenant (500€)

✅ Garantie 30 jours • ✅ Certificat officiel • ✅ 847 professionnels formés

Fairness IA et IA Act : Non-Discrimination
✅ Article vérifié et mis à jour le 19 décembre 2025

Fairness IA et IA Act : Non-Discrimination

⚠️ Le Paradoxe de la Fairness

On ne peut pas optimiser toutes les métriques d'équité simultanément.

L'AI Act ne dit pas quelle métrique utiliser. C'est à vous de choisir et justifier.

Votre algorithme de scoring refuse 2x plus de femmes que d'hommes. Est-il biaisé ? Pas forcément. Si le taux de défaut historique diffère entre groupes, l'égalité des taux d'acceptation peut créer... une autre forme de discrimination.

C'est le cœur du problème fairness en IA : il n'existe pas de définition unique de l'équité. Les mathématiciens ont prouvé qu'on ne peut pas satisfaire toutes les métriques de fairness simultanément (le "fairness impossibility theorem").

L'AI Act exige que les systèmes haut risque "ne produisent pas d'effets discriminatoires" mais ne prescrit pas de métrique spécifique. C'est à vous de choisir, mesurer, mitiger et documenter vos choix.

Ce guide décrypte les obligations fairness de l'AI Act, les métriques disponibles, les techniques de mitigation, et comment documenter vos décisions pour les audits.

227 jours restants
21 Attributs protégés UE
Métriques fairness possibles
Loïc Gros-Flandre - Expert Fairness IA et AI Act

Par Loïc Gros-Flandre

Directeur de Modernee - Agence IA. Expertise en détection de biais algorithmiques et mise en conformité éthique des systèmes IA. Accompagnement d'entreprises sur les audits fairness.

⚖️ Spécialiste Fairness • 🎯 Expert AI Act • ✅ +50 entreprises accompagnées

📋 Ce que vous allez maîtriser

  • Le "fairness impossibility theorem" : pourquoi il faut choisir
  • Les principales métriques : demographic parity, equalized odds, predictive parity
  • Les 21 attributs protégés en Europe (Charte des droits fondamentaux)
  • Les techniques de mitigation : pre/in/post-processing
  • Le piège des proxies : discrimination indirecte
  • 3 cas pratiques : RH, crédit, santé
Le Paradoxe des Métriques de Fairness On ne peut pas toutes les satisfaire simultanément (Impossibility Theorem) DEMOGRAPHIC PARITY Même taux d'acceptation pour tous les groupes EQUALIZED ODDS Même taux de vrais positifs ET faux positifs par groupe PREDICTIVE PARITY Même précision des prédictions positives ⚠️ IMPOSSIBLE 📊 Demographic Parity Utiliser quand : • Objectif = représentation égale • Taux de base non pertinent Ex: Sélection de CV anonymes ⚖️ Equalized Odds Utiliser quand : • Erreurs ont un coût égal • Faux négatifs = problème Ex: Diagnostic médical 🎯 Predictive Parity Utiliser quand : • Calibration importante • Score = probabilité Ex: Scoring de crédit

Infographie : Les trois principales métriques de fairness et leur incompatibilité mathématique

📜 Ce que l'AI Act Exige sur la Fairness

L'AI Act ne crée pas un nouveau droit anti-discrimination. Il renforce les obligations existantes avec des exigences techniques spécifiques pour les systèmes IA haut risque.

fairness ia obligations - Woman feeling stressed while studying with books and notes at a desk.

Photo par Karola G sur Pexels

📋 Article 10 : Qualité des Données

L'Article 10 impose que les données d'entraînement soient :

  • Pertinentes — Adaptées au cas d'usage prévu
  • Représentatives — Reflétant la population cible
  • Exemptes d'erreurs — Dans la mesure du possible
  • Complètes — Au regard de la finalité

La représentativité est clé pour la fairness : si certains groupes sont sous-représentés dans les données d'entraînement, le modèle performera moins bien pour eux.

⚖️ Article 9 : Gestion des Risques

L'Article 9 exige un système de gestion des risques incluant :

"L'identification et l'analyse des risques connus et raisonnablement prévisibles [...] y compris les risques liés aux biais."

— AI Act, Article 9, paragraphe 2(a)

Concrètement, vous devez :

  • 1️⃣ Identifier les risques de biais potentiels
  • 2️⃣ Évaluer leur probabilité et impact
  • 3️⃣ Mettre en place des mesures de mitigation
  • 4️⃣ Documenter le tout

🛡️ Les 21 Attributs Protégés

La Charte des droits fondamentaux de l'UE (Article 21) liste les caractéristiques protégées :

Catégorie Attributs Protégés
Identité Sexe, race, couleur, origines ethniques, origines sociales
Biologique Caractéristiques génétiques, handicap, âge
Personnel Orientation sexuelle, naissance, fortune
Culturel Langue, religion, convictions, opinions politiques
Social Appartenance à minorité nationale, nationalité

⚠️ Attention aux Proxies

Même sans utiliser explicitement ces attributs, votre modèle peut les inférer via des proxies :

Code postal → origine ethnique. Prénom → genre/origine. Historique navigation → opinions politiques.

📊 Les Métriques de Fairness : Laquelle Choisir ?

Il existe des dizaines de métriques de fairness. Les trois principales sont :

1️⃣ Demographic Parity (Parité Démographique)

Définition : Tous les groupes ont le même taux d'acceptation (ou de résultat positif).

Formule : P(Ŷ=1|A=a) = P(Ŷ=1|A=b) pour tous les groupes a et b.

Quand l'utiliser :

  • Objectif de représentation égale (ex: diversité en recrutement)
  • Taux de base historique non pertinent ou biaisé
  • À éviter si les groupes ont des qualifications réellement différentes

2️⃣ Equalized Odds (Égalité des Chances)

Définition : Tous les groupes ont le même taux de vrais positifs ET de faux positifs.

Formule : P(Ŷ=1|Y=y,A=a) = P(Ŷ=1|Y=y,A=b) pour y∈{0,1}.

Quand l'utiliser :

  • Erreurs ont un coût similaire pour tous les groupes
  • Diagnostic médical (faux négatifs = problème grave)
  • Difficile à atteindre avec des taux de base très différents

3️⃣ Predictive Parity (Parité Prédictive)

Définition : Pour tous les groupes, parmi les prédictions positives, le même % est réellement positif.

Formule : P(Y=1|Ŷ=1,A=a) = P(Y=1|Ŷ=1,A=b).

Quand l'utiliser :

  • Score doit représenter une probabilité réelle
  • Scoring de crédit (calibration importante)
  • Peut masquer des disparités dans les taux de faux positifs

🔴 Le Théorème d'Impossibilité

Mathématiquement prouvé : si les groupes ont des taux de base différents, on NE PEUT PAS satisfaire demographic parity, equalized odds ET predictive parity simultanément.

Vous devez choisir. Et justifier votre choix dans votre documentation AI Act.

"Le choix de la métrique de fairness est un choix éthique et politique, pas seulement technique. L'AI Act vous demande de le rendre explicite et traçable."

— Dr. Claire Mathieu, Directrice de recherche CNRS en algorithmique

⚖️ Évaluez Votre Maturité Fairness

Déterminez votre niveau de préparation aux obligations AI Act sur les biais

🔬 3 Cas Pratiques Détaillés

Appliquons les obligations fairness à des systèmes IA réels.

fairness ia obligations - High-angle view of a lease agreement and pens on a wooden desk.

Photo par RDNE Stock project sur Pexels

📌 Cas 1 : Scoring de Crédit Bancaire

Contexte : BankScore utilise un modèle ML pour attribuer un score de crédit (0-1000) qui détermine l'éligibilité et le taux d'intérêt des prêts immobiliers.

Analyse fairness :

  • 📊 Attributs sensibles — Genre, origine ethnique, âge, code postal
  • ⚠️ Proxies identifiés — Code postal corrélé à l'origine ethnique
  • 📈 Taux de base — Historique de défaut différent selon les groupes

🎯 Métrique Choisie : Predictive Parity

Justification : Un score de 700 doit signifier le même risque de défaut quel que soit le groupe. La calibration est essentielle pour la tarification.

Trade-off accepté : Taux d'acceptation différents entre groupes, mais reflétant les risques réels.

Mesures de mitigation :

  • 1️⃣ Suppression du code postal comme variable directe
  • 2️⃣ Test de disparate impact (ratio 80% minimum)
  • 3️⃣ Monitoring mensuel des écarts par groupe
  • 4️⃣ Recours humain obligatoire pour les refus

Budget fairness : 45 000€ - 70 000€ (audit + monitoring continu)

📌 Cas 2 : Tri de CV par IA

Contexte : TalentAI développe un outil de présélection de CV pour les entreprises. L'outil score les candidatures et recommande les top 20% pour entretien.

Analyse fairness :

  • 📊 Attributs sensibles — Genre (inférable du prénom), origine (nom), âge (dates)
  • ⚠️ Risque historique — Données d'entraînement basées sur recrutements passés (potentiellement biaisés)
  • 🔴 Haut risque — Annexe III : systèmes utilisés pour le recrutement

🎯 Métrique Choisie : Demographic Parity

Justification : L'objectif est la diversité. Les taux de "succès" historiques reflètent des biais passés, pas des différences de compétences.

Trade-off accepté : Potentiellement moins de prédictivité pure, mais plus d'équité d'accès.

Mesures de mitigation :

  • 1️⃣ Anonymisation des CV avant scoring (prénom, photo, dates supprimés)
  • 2️⃣ Rééquilibrage des données d'entraînement
  • 3️⃣ Seuils différenciés pour égaliser les taux de sélection
  • 4️⃣ Audit externe annuel

Budget fairness : 60 000€ - 100 000€ (outil fournisseur haut risque)

📌 Cas 3 : Aide au Diagnostic Dermatologique

Contexte : SkinCheck est une app mobile qui analyse des photos de lésions cutanées pour détecter les risques de mélanome. Elle recommande une consultation si le risque est élevé.

Analyse fairness :

  • 📊 Attribut sensible — Phototype/couleur de peau (Fitzpatrick I-VI)
  • ⚠️ Biais connu — Datasets dermatologiques historiquement biaisés vers peaux claires
  • 🔴 Impact vital — Faux négatif = mélanome non détecté = risque de décès

🎯 Métrique Choisie : Equalized Odds

Justification : Le taux de faux négatifs doit être égal pour tous les phototypes. Un mélanome sur peau foncée ne doit pas être plus souvent manqué.

Trade-off accepté : Potentiellement plus de faux positifs pour certains groupes (consultations inutiles), mais aucun groupe ne subit plus de faux négatifs.

Mesures de mitigation :

  • 1️⃣ Enrichissement dataset avec images peaux foncées (partenariat hôpitaux Afrique)
  • 2️⃣ Modèle séparé par phototype avec calibration croisée
  • 3️⃣ Monitoring temps réel des taux de détection par phototype
  • 4️⃣ Disclaimer si confiance faible sur peaux foncées

Budget fairness : 80 000€ - 150 000€ (dispositif médical + audit clinique)

📋 Plan d'Action Fairness en 7 Étapes

Voici comment mettre en place un programme fairness conforme à l'AI Act.

fairness ia obligations - Depicts financial stress with overdue bills and empty wallet.

Photo par Nicola Barts sur Pexels

1

Identifier les Attributs Protégés Pertinents

Listez les caractéristiques protégées pour votre contexte. Tous ne sont pas toujours pertinents (ex: religion pour un scoring crédit ?). Identifiez aussi les proxies potentiels.

Durée : 1 semaine | Responsable : Juridique + Data Science

2

Auditer les Données d'Entraînement

Analysez la représentativité de votre dataset. Quelle proportion de chaque groupe ? Des groupes sont-ils sous-représentés ? Les labels sont-ils biaisés historiquement ?

Durée : 2-3 semaines | Responsable : Data Science

3

Choisir Vos Métriques de Fairness

Demographic parity, equalized odds, predictive parity ? Le choix dépend du contexte. Documentez le raisonnement et les trade-offs acceptés. Impliquez les parties prenantes.

Durée : 1-2 semaines | Responsable : Éthique + Direction

4

Mesurer les Écarts Entre Groupes

Calculez les métriques de performance par groupe protégé : taux d'acceptation, vrais positifs, faux positifs, faux négatifs. Identifiez les écarts significatifs.

Durée : 2 semaines | Responsable : Data Science

5

Appliquer des Techniques de Mitigation

Pre-processing (rééquilibrage données), in-processing (contraintes dans l'algo), post-processing (ajustement seuils). Testez l'impact sur la performance globale.

Durée : 4-6 semaines | Responsable : ML Engineering

6

Documenter les Choix et Trade-offs

L'AI Act exige une documentation complète : métriques choisies et pourquoi, écarts mesurés, techniques appliquées, trade-offs acceptés, responsables des décisions.

Durée : 2 semaines | Responsable : Conformité + Technique

7

Monitorer en Continu

Les biais peuvent émerger avec le temps (data drift). Mettez en place un monitoring continu des métriques fairness en production. Définissez des alertes si les écarts dépassent les seuils.

Durée : Continu | Responsable : MLOps + Conformité

💰 Simulateur Budget Audit Fairness

❓ Questions Fréquentes - Fairness et AI Act

Qu'est-ce que la fairness en IA ?

L'absence de discrimination injuste dans les décisions algorithmiques.

Un système "fair" traite équitablement les individus indépendamment de leurs caractéristiques protégées.

L'AI Act impose-t-il une métrique spécifique ?

Non. L'AI Act exige l'absence d'effets discriminatoires sans prescrire de métrique.

C'est à vous de choisir et justifier votre approche.

Pourquoi ne peut-on pas optimiser toutes les métriques ?

C'est le fairness impossibility theorem.

Si les groupes ont des taux de base différents, certaines métriques sont mathématiquement incompatibles.

Quels sont les attributs protégés en Europe ?

La Charte des droits fondamentaux liste 21 caractéristiques : sexe, race, couleur, origines, religion...

Certaines peuvent être inférées par des proxies (code postal, prénom...).

Comment détecter les biais ?

Trois approches : analyse des données (représentativité), audit du modèle (métriques par groupe), monitoring en production.

Calculez taux d'acceptation, faux positifs, faux négatifs par groupe.

Que faire si mon modèle est biaisé ?

Trois techniques : Pre-processing (rééquilibrer données), In-processing (contraintes algo), Post-processing (ajuster seuils).

Documentez les trade-offs acceptés.

Les proxies peuvent-ils créer des biais ?

Oui. Le modèle peut inférer les attributs protégés via code postal, prénom, historique...

L'AI Act exige de traiter ces discriminations indirectes.

La fairness s'applique-t-elle à tous les systèmes ?

Les obligations strictes concernent les systèmes haut risque (RH, crédit, santé...).

Le droit anti-discrimination existant s'applique à tous.

Puis-je collecter des données sensibles pour tester ?

Paradoxe fairness/RGPD. Solutions : consentement explicite, inférence statistique, données synthétiques.

Consultez votre DPO.

Quel budget pour un audit fairness ?

Basique : 15-25K€. Complet : 40-70K€.

Programme continu : 60-120K€/an.

🎯 Conclusion : La Fairness Est un Choix Assumé

La fairness en IA n'est pas un problème technique à "résoudre". C'est un ensemble de choix éthiques à faire et à documenter. L'AI Act vous demande de rendre ces choix explicites, traçables et justifiés.

Le "fairness impossibility theorem" vous oblige à choisir : égalité des taux d'acceptation ? Égalité des taux d'erreur ? Calibration des scores ? La bonne réponse dépend du contexte et de vos valeurs.

  • 1️⃣ Identifiez les attributs protégés — Et leurs proxies
  • 2️⃣ Choisissez vos métriques — Et justifiez votre choix
  • 3️⃣ Documentez les trade-offs — L'AI Act exige la traçabilité

L'échéance d'août 2025 approche pour les obligations de documentation et de gestion des risques.

227 jours restants

Formation AI Act - Module Fairness

Maîtrisez les métriques de fairness et les techniques de mitigation des biais.

Découvrir la formation → 500€

✅ Métriques • ✅ Mitigation • ✅ Documentation

📚 Sources Officielles Citées

Retour en haut