Quels sont les systèmes d’IA concernés par l’AI Act ?
C’est l’impact potentiel sur les droits fondamentaux qui détermine le niveau d’encadrement juridique, et non le secteur ou la taille de l’organisation.
Par Magali Mezerette – Le 26 juin 2025
Le règlement européen sur l’intelligence artificielle, ou AI Act, instaure un cadre juridique inédit pour encadrer l’usage de l’IA. Son objectif : garantir que les systèmes d’intelligence artificielle déployés dans l’Union européenne respectent les droits fondamentaux, la transparence et la sécurité. Mais quels types de systèmes sont véritablement concernés ? Et comment savoir si un outil RH entre dans le périmètre ? Voici ce qu’il faut retenir.
L’AI Act repose sur une logique de risque
Le texte ne raisonne pas par type d’entreprise, mais par niveau de risque associé à l’usage de l’IA. C’est l’impact potentiel sur les droits fondamentaux qui détermine le niveau d’encadrement juridique, et non le secteur ou la taille de l’organisation. Il existe ainsi 4 grandes catégories :
Risque inacceptable : totalement interdit
Haut risque : fortement encadré
Risque limité : soumis à des obligations de transparence
Risque minimal : pas de contrainte particulière
Découvrez la fiche mémo des niveaux de risque définis par l’AI Act :
👉 à télécharger gratuitement ici
Quels systèmes sont interdits (risque inacceptable) ?
Le règlement interdit formellement certains usages jugés incompatibles avec les valeurs européennes. Sont notamment prohibés :
Les systèmes de notation sociale automatisée (sur le modèle chinois)
La manipulation cognitive ou émotionnelle des utilisateurs à leur insu
La reconnaissance biométrique en temps réel dans les lieux publics (hors exceptions)
L’utilisation d’une IA sans information préalable de la personne concernée
Ce type d’usage est rare dans les entreprises, mais peut concerner certaines pratiques marketing ou des outils intégrés à des logiciels de surveillance.
Découvrez nos formations dédiées à l’intelligence artificielle :
Quels systèmes sont à haut risque ?
C’est la catégorie centrale du règlement, et celle qui concerne directement les fonctions RH. Un système est classé à haut risque s’il est utilisé dans l’un des domaines suivants :
Recrutement ou présélection des candidats
Évaluation des performances professionnelles
Attribution, supervision ou planification des tâches
Décisions en matière de mobilité interne, promotion ou licenciement
Par exemple, un outil d’aide à la décision pour trier des CV, analyser des entretiens vidéo ou mesurer des taux de productivité via l’IA entre potentiellement dans cette catégorie.
« L’IA ne devient pas « à haut risque » par nature, mais par usage. C’est l’impact sur les droits du salarié qui déclenche l’encadrement. » — Jacques de Tonquédec, avocat associé chez Littler France
Ces systèmes devront faire l’objet :
D’une analyse d’impact IA
D’une documentation technique complète
D’un suivi humain explicite
Et d’un enregistrement dans une base de données européenne
À lire aussi : Comment se mettre en conformité avec l’AI Act ?
Qu’en est-il des IA génératives comme ChatGPT ?
Les outils d’IA générative sont considérés comme des modèles à usage général. Ils ne sont pas classés automatiquement comme “à haut risque”, mais font l’objet d’un encadrement spécifique. Cela concerne par exemple :
ChatGPT (OpenAI)
Gemini (Google)
Copilot (Microsoft)
Claude (Anthropic)
Les obligations portent principalement sur la transparence, la documentation technique et, pour les entreprises utilisatrices, la formation des collaborateurs à leur bon usage. S’ils sont intégrés dans un outil RH automatisé, ils peuvent en revanche être reclassés comme système à haut risque.
À lire aussi : Quelle est la règle de l’AI Act concernant ChatGPT ?
Faut-il évaluer chaque outil utilisé ?
Oui. Le premier travail de conformité consiste à cartographier les systèmes d’IA présents dans l’entreprise, et à analyser pour chacun :
Son usage réel
Son impact potentiel sur les personnes
La nature des décisions qu’il influence
C’est cette logique d’impact qui prime. Un simple chatbot RH n’est pas concerné s’il n’influe pas sur les décisions. En revanche, un outil qui pré-analyse des réponses de candidats ou qui produit des scores de performance l’est très probablement.
À lire aussi : AI Act : que doivent faire les RH dès 2025 ?
Et les outils achetés auprès de prestataires ?
L’entreprise utilisatrice reste responsable dès lors qu’elle déploie un système sous son autorité. Le fait que l’outil soit fourni par un tiers ne la dispense pas de ses obligations (formation, documentation, information, etc.). Elle doit donc vérifier la conformité du fournisseur… et ne pas se contenter d’un usage “clé en main”.
Conclusion
L’AI Act ne cible pas un outil en particulier, mais la manière dont il est utilisé. Les fonctions RH doivent dès maintenant identifier les systèmes à risque, vérifier leurs usages, et structurer la conformité autour des trois piliers clés : transparence, supervision humaine et formation. C’est une démarche continue, qui permet aussi de poser les bases d’un usage responsable et maîtrisé de l’intelligence artificielle en entreprise.
Pour répondre à l’obligation de formation introduite par l’AI Act, Unow propose plusieurs parcours dédiés à l’IA : des formations conçues pour les fonctions RH, les managers et les équipes opérationnelles. Ces programmes permettent de comprendre les enjeux réglementaires, d’identifier les systèmes à risque, et d’apprendre à utiliser l’IA de manière responsable, efficace et conforme au cadre légal. Une démarche indispensable pour anticiper les prochaines échéances du règlement et sécuriser l’usage de l’IA dans l’entreprise.
Découvrez nos formations sur les IA
Des formations pour aider les professionnels à s’approprier ces outils et à utiliser leur plein potentiel
Voir les formationsEnvie d’en voir un peu plus ?
-
Le coin des experts
Comment se mettre en conformité avec l’AI Act ?
L’AI Act, entré en vigueur en août 2024, impose progressivement aux entreprises un ensemble d’obligations autour de l’usage de l’intelligence artificielle.
-
Le coin des experts
Quelle est la règle de l’AI Act concernant ChatGPT ?
L’AI Act encadre ChatGPT comme un modèle d’IA à usage général. Si vous êtes une entreprise utilisatrice, vous devez vous assurer d’un usage conforme.
-
Le coin des experts
Quelles sanctions sont prévues par l’AI Act ?
L’AI Act prévoit des sanctions allant jusqu’à 35 millions d’euros. Découvrez quels manquements sont concernés, qui est responsable, comment s’y conformer.