Glossaire IA Act : Définitions Termes
📖 Votre Dictionnaire AI Act
50+ termes définis clairement : vocabulaire juridique, technique et de conformité pour maîtriser l’AI Act sans jargon.
L’AI Act introduit un vocabulaire spécifique qui peut dérouter même les professionnels expérimentés. Fournisseur vs déployeur ? Haut risque vs risque limité ? GPAI vs système d’IA ?
Ce glossaire vous donne les définitions officielles tirées du règlement européen, avec des explications concrètes et des exemples pratiques.
Utilisez la recherche interactive pour trouver instantanément le terme que vous cherchez, ou parcourez les catégories pour une vue d’ensemble complète.
📚 Les 5 Catégories du Glossaire
- ⚖️ Termes Juridiques — Cadre légal et réglementaire
- 👥 Acteurs — Rôles et responsabilités
- 🎯 Classification — Niveaux de risque
- 📋 Conformité — Obligations et processus
- 💻 Technique — Concepts IA
Infographie : Structure et vocabulaire de l’AI Act
🔍 Rechercher un Terme
⚖️ Termes Juridiques
Photo par Campaign Creators sur Unsplash
📌 AI Act (Règlement IA)
Définition : Règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle.
En pratique : Premier cadre juridique mondial complet sur l’IA. Applicable à toute entreprise commercialisant ou utilisant des systèmes IA dans l’UE, même si basée hors Europe.
Référence : Journal officiel de l’UE, 12 juillet 2024
📌 Article 4 (Maîtrise de l’IA)
Définition : Obligation de compétences suffisantes en matière d’IA (« AI literacy ») pour toute personne utilisant ou supervisant un système d’IA.
En pratique : Impose une formation adaptée au contexte. L’absence de formation peut aggraver les sanctions de 50%. Formation certifiante recommandée.
Référence : AI Act, Article 4
📌 Article 5 (Pratiques Interdites)
Définition : Liste des usages de l’IA totalement prohibés : manipulation subliminale, exploitation des vulnérabilités, scoring social, reconnaissance faciale en temps réel (sauf exceptions).
En pratique : Sanctions maximales : 35M€ ou 7% du CA mondial. Ces interdictions s’appliquent depuis février 2025.
Référence : AI Act, Article 5
📌 Annexe III
Définition : Liste officielle des domaines à haut risque : recrutement, éducation, crédit, assurance, santé, justice, migration, infrastructures critiques.
En pratique : Si votre système IA touche l’un de ces domaines, il est probablement à haut risque avec des obligations renforcées.
Référence : AI Act, Annexe III
📌 Sanctions (Art. 99)
Définition : Amendes administratives prévues par l’AI Act selon la gravité de l’infraction.
En pratique : Pratiques interdites : 35M€/7% CA. Haut risque : 15M€/3% CA. Autres : 7.5M€/1.5% CA. PME : montants réduits.
Référence : AI Act, Article 99
📌 Déclaration UE de Conformité
Définition : Document par lequel le fournisseur atteste que son système IA à haut risque satisfait aux exigences de l’AI Act.
En pratique : Obligatoire avant mise sur le marché. Doit être mise à jour en cas de modification substantielle du système.
Référence : AI Act, Article 47
👥 Acteurs et Rôles
📌 Fournisseur (Provider)
Définition : Personne physique ou morale qui développe ou fait développer un système d’IA et le met sur le marché ou en service sous son propre nom ou sa propre marque.
En pratique : OpenAI, Microsoft, Google, startups IA. Responsable de la conception conforme du système.
Référence : AI Act, Article 3(3)
📌 Déployeur (Deployer)
Définition : Personne physique ou morale qui utilise un système d’IA sous sa propre autorité, sauf usage personnel non professionnel.
En pratique : Votre entreprise qui utilise ChatGPT, un logiciel RH avec IA, etc. Responsable de l’usage conforme.
Référence : AI Act, Article 3(4)
📌 Importateur
Définition : Personne physique ou morale établie dans l’UE qui met sur le marché un système d’IA provenant d’un pays tiers.
En pratique : Si vous introduisez un système IA américain ou chinois dans l’UE, vous avez des obligations spécifiques de vérification.
Référence : AI Act, Article 3(6)
📌 Distributeur
Définition : Personne physique ou morale (autre que le fournisseur ou l’importateur) qui rend un système d’IA disponible sur le marché sans modifier.
En pratique : Revendeurs, intégrateurs qui ne modifient pas le système. Obligations limitées mais existantes.
Référence : AI Act, Article 3(7)
📌 Mandataire
Définition : Personne physique ou morale établie dans l’UE ayant reçu mandat écrit d’un fournisseur hors UE pour agir en son nom.
En pratique : Permet aux fournisseurs hors UE d’accéder au marché européen. Le mandataire assume certaines responsabilités.
Référence : AI Act, Article 3(5)
📌 Organisme Notifié
Définition : Organisme d’évaluation de la conformité désigné par un État membre pour effectuer des évaluations tierces pour certains systèmes IA à haut risque.
En pratique : Délivre des certificats de conformité. Liste dans la base NANDO de la Commission européenne.
Référence : AI Act, Articles 28-39
📌 Autorité Compétente
Définition : Autorité nationale responsable de la surveillance du marché et du contrôle de l’application de l’AI Act.
En pratique : En France : probablement la CNIL et/ou une nouvelle autorité dédiée. Peut mener des inspections et imposer des sanctions.
Référence : AI Act, Articles 70-74
Photo par Scott Graham sur Unsplash
🎯 Classification des Risques
📌 Système d’IA
Définition : Système automatisé conçu pour fonctionner avec différents niveaux d’autonomie, qui peut s’adapter après déploiement et génère des sorties (prédictions, contenu, recommandations, décisions).
En pratique : Inclut : ChatGPT, systèmes de recommandation, scoring automatique, chatbots intelligents, maintenance prédictive…
Référence : AI Act, Article 3(1)
📌 Risque Inacceptable (Interdit)
Définition : Systèmes IA totalement interdits car contraires aux valeurs de l’UE et aux droits fondamentaux.
Exemples : Manipulation subliminale, scoring social généralisé, reconnaissance faciale en temps réel (sauf exceptions), exploitation des vulnérabilités.
Référence : AI Act, Article 5
📌 Haut Risque
Définition : Systèmes IA soumis aux exigences les plus strictes car pouvant affecter la santé, la sécurité ou les droits fondamentaux.
Exemples : Recrutement automatisé, scoring crédit, diagnostic médical, justice prédictive, contrôle aux frontières.
Référence : AI Act, Article 6 + Annexe III
📌 Risque Limité
Définition : Systèmes IA soumis principalement à des obligations de transparence envers les utilisateurs.
Exemples : Chatbots, deepfakes, systèmes générant du contenu IA. L’utilisateur doit être informé qu’il interagit avec une IA.
Référence : AI Act, Article 50
📌 Risque Minimal
Définition : Systèmes IA non soumis à des obligations spécifiques de l’AI Act, mais encouragés à suivre des bonnes pratiques volontaires.
Exemples : Filtres anti-spam, jeux vidéo avec IA, systèmes de recommandation de contenu non critique.
Référence : AI Act, considérants
📌 GPAI (IA à Usage Général)
Définition : Modèle d’IA capable d’accomplir de manière compétente une large gamme de tâches distinctes, indépendamment de la manière dont il est mis sur le marché.
Exemples : GPT-4, Claude, Gemini, Llama. Obligations spécifiques : documentation, respect du droit d’auteur, transparence.
Référence : AI Act, Article 3(63) + Chapitre V
📌 Risque Systémique (GPAI)
Définition : GPAI présentant des capacités à fort impact, déterminées par le calcul cumulé utilisé pour son entraînement (seuil : 10^25 FLOP).
En pratique : Obligations renforcées : évaluation des risques, tests contradictoires, cybersécurité, notification des incidents.
Référence : AI Act, Article 51
📋 Termes de Conformité
📌 Marquage CE
Définition : Marquage indiquant qu’un système IA à haut risque est conforme aux exigences de l’AI Act et peut être mis sur le marché européen.
En pratique : Obligatoire pour les systèmes haut risque. Apposé par le fournisseur après évaluation de conformité.
Référence : AI Act, Article 48
📌 Documentation Technique
Définition : Ensemble de documents démontrant la conformité d’un système IA aux exigences de l’AI Act.
Contenu : Description du système, algorithmes, données d’entraînement, tests, mesures de gestion des risques, instructions d’utilisation.
Référence : AI Act, Article 11 + Annexe IV
📌 Supervision Humaine
Définition : Obligation pour les systèmes IA à haut risque d’être conçus pour permettre une surveillance effective par des personnes physiques.
En pratique : Capacité d’intervention, compréhension des limites, interprétation des résultats, possibilité d’outrepasser les décisions IA.
Référence : AI Act, Article 14
📌 Gestion des Risques
Définition : Processus itératif continu d’identification, d’analyse et d’atténuation des risques liés aux systèmes IA à haut risque.
En pratique : Analyse initiale, tests, mesures correctives, documentation, révision régulière tout au long du cycle de vie.
Référence : AI Act, Article 9
📌 Base de Données Européenne
Définition : Registre public des systèmes IA à haut risque, géré par la Commission européenne.
En pratique : Les fournisseurs et déployeurs doivent y enregistrer leurs systèmes haut risque avant mise sur le marché/utilisation.
Référence : AI Act, Article 71
📌 Bac à Sable Réglementaire
Définition : Environnement contrôlé permettant de tester des systèmes IA innovants sous supervision des autorités, avec dérogations temporaires.
En pratique : Chaque État membre doit en établir au moins un. Durée : jusqu’à 2 ans, renouvelable. Favorise l’innovation.
Référence : AI Act, Articles 57-62
📌 Modification Substantielle
Définition : Changement apporté à un système IA après sa mise sur le marché qui affecte sa conformité ou modifie son usage prévu.
En pratique : Déclenche une nouvelle évaluation de conformité. Le déployeur qui modifie devient fournisseur.
Référence : AI Act, Article 3(23)
Photo par Carlos Muza sur Unsplash
💻 Termes Techniques
📌 Apprentissage Automatique (ML)
Définition : Technique permettant à un système d’apprendre et de s’améliorer à partir de données sans être explicitement programmé pour chaque tâche.
En pratique : Base de la plupart des systèmes IA modernes. Inclut supervised, unsupervised, reinforcement learning.
Référence : Concept technique général
📌 Données d’Entraînement
Définition : Ensemble de données utilisées pour entraîner un modèle d’IA à reconnaître des patterns et faire des prédictions.
En pratique : Qualité critique pour la conformité. L’AI Act exige des données pertinentes, représentatives, sans biais discriminatoires.
Référence : AI Act, Article 10
📌 Biais (IA)
Définition : Distorsion systématique dans les résultats d’un système IA pouvant entraîner des discriminations ou des résultats injustes.
En pratique : L’AI Act exige des mesures de détection et d’atténuation des biais, particulièrement pour les systèmes haut risque.
Référence : AI Act, Articles 9-10
📌 Explicabilité
Définition : Capacité d’un système IA à fournir des explications compréhensibles sur ses décisions ou recommandations.
En pratique : Requise pour les systèmes haut risque. Les utilisateurs doivent pouvoir comprendre les résultats pour les superviser.
Référence : AI Act, Article 13
📌 Robustesse
Définition : Capacité d’un système IA à maintenir ses performances malgré des perturbations, erreurs ou tentatives de manipulation.
En pratique : Exigence pour les systèmes haut risque. Inclut la résistance aux attaques adversariales et aux données corrompues.
Référence : AI Act, Article 15
📌 Deepfake
Définition : Contenu image, audio ou vidéo généré ou manipulé par IA qui ressemble faussement à des personnes, objets ou événements réels.
En pratique : Obligation de transparence : tout deepfake doit être clairement identifié comme généré par IA.
Référence : AI Act, Article 50(4)
📌 LLM (Large Language Model)
Définition : Modèle d’IA de grande taille entraîné sur de vastes corpus de textes pour comprendre et générer du langage naturel.
Exemples : GPT-4, Claude, Gemini, Llama. Généralement classés comme GPAI avec obligations spécifiques.
Référence : Concept technique, lié au Chapitre V AI Act
📌 Modèle de Fondation
Définition : Modèle d’IA entraîné sur de grandes quantités de données, capable d’être adapté à de nombreuses tâches en aval.
En pratique : Synonyme approximatif de GPAI dans le contexte AI Act. Inclut les LLM et modèles multimodaux.
Référence : AI Act, lié à Article 3(63)
🎯 Quiz : Testez Votre Vocabulaire AI Act
❓ Questions Fréquentes – Glossaire IA Act
Système automatisé fonctionnant avec autonomie, capable de s’adapter et générant des sorties (prédictions, contenu, décisions). Définition large incluant ChatGPT, scoring, chatbots, maintenance prédictive…
Fournisseur : développe et met sur le marché (OpenAI, Microsoft). Déployeur : utilise dans son activité (votre entreprise). Obligations distinctes : conception conforme vs usage conforme.
Catégorie soumise aux exigences les plus strictes. Domaines listés Annexe III : recrutement, éducation, crédit, santé, justice. Obligations : documentation, tests, supervision, marquage CE.
Obligation de maîtrise de l’IA (AI literacy) pour tout utilisateur/superviseur de systèmes IA. Formation adaptée requise. Absence = aggravation sanctions +50%.
Usages totalement prohibés (Article 5) : manipulation subliminale, scoring social, reconnaissance faciale temps réel (sauf exceptions), exploitation vulnérabilités. Sanctions maximales : 35M€/7% CA.
Déclaration du fournisseur que le système haut risque est conforme. Obligatoire avant mise sur le marché UE. Nécessite évaluation de conformité et documentation technique.
General Purpose AI (IA à usage général). Modèles capables de nombreuses tâches (GPT-4, Claude). Obligations spécifiques : documentation, droit d’auteur, transparence.
Obligation pour systèmes haut risque de permettre surveillance effective par humains. Capacité d’intervention, compréhension des limites, possibilité d’outrepasser les décisions IA.
✅ Conclusion : Maîtrisez le Vocabulaire AI Act
Le vocabulaire de l’AI Act peut sembler complexe, mais il est essentiel pour comprendre vos obligations et communiquer efficacement avec les parties prenantes.
📚 Les 5 Termes à Retenir Absolument
- 1️⃣ Fournisseur vs Déployeur — Comprendre qui fait quoi
- 2️⃣ Haut Risque — Savoir si vous êtes concerné
- 3️⃣ Article 4 — L’obligation de formation
- 4️⃣ Supervision Humaine — Exigence opérationnelle clé
- 5️⃣ GPAI — La catégorie des IA génératives
Maîtrisez ce vocabulaire avant l’entrée en vigueur complète de l’AI Act.
🎓 Formation Complète AI Act
Le vocabulaire n’est que le début. La formation Article 4 vous donne toutes les clés pour être conforme.
Formation Certifiante → 500€✅ Certificat Article 4 • ✅ Vocabulaire maîtrisé • ✅ Finançable OPCO
📚 Sources et Références
- AI Act — Règlement (UE) 2024/1689 • Texte officiel avec définitions Article 3
- Commission européenne — Documentation AI Act • Explications officielles
- CNIL — Dossier IA • Perspective française