🚀 Unow lance la deuxième édition de son MOOC phare sur l’intelligence artificielle !  Inscrivez-vous maintenant.
Le coin des experts

Quels sont les systèmes d’IA concernés par l’AI Act ?

C’est l’impact potentiel sur les droits fondamentaux qui détermine le niveau d’encadrement juridique, et non le secteur ou la taille de l’organisation.

Par Magali Mezerette – Le 26 juin 2025

Le règlement européen sur l’intelligence artificielle, ou AI Act, instaure un cadre juridique inédit pour encadrer l’usage de l’IA. Son objectif : garantir que les systèmes d’intelligence artificielle déployés dans l’Union européenne respectent les droits fondamentaux, la transparence et la sécurité. Mais quels types de systèmes sont véritablement concernés ? Et comment savoir si un outil RH entre dans le périmètre ? Voici ce qu’il faut retenir.

L’AI Act repose sur une logique de risque

Le texte ne raisonne pas par type d’entreprise, mais par niveau de risque associé à l’usage de l’IA. C’est l’impact potentiel sur les droits fondamentaux qui détermine le niveau d’encadrement juridique, et non le secteur ou la taille de l’organisation. Il existe ainsi 4 grandes catégories :

  • Risque inacceptable : totalement interdit

  • Haut risque : fortement encadré

  • Risque limité : soumis à des obligations de transparence

  • Risque minimal : pas de contrainte particulière

Découvrez la fiche mémo des niveaux de risque définis par l’AI Act :

Les niveaux de risque définis par l'AI Act

👉 à télécharger gratuitement ici

Quels systèmes sont interdits (risque inacceptable) ?

Le règlement interdit formellement certains usages jugés incompatibles avec les valeurs européennes. Sont notamment prohibés :

  • Les systèmes de notation sociale automatisée (sur le modèle chinois)

  • La manipulation cognitive ou émotionnelle des utilisateurs à leur insu

  • La reconnaissance biométrique en temps réel dans les lieux publics (hors exceptions)

  • L’utilisation d’une IA sans information préalable de la personne concernée

Ce type d’usage est rare dans les entreprises, mais peut concerner certaines pratiques marketing ou des outils intégrés à des logiciels de surveillance.

Découvrez nos formations dédiées à l’intelligence artificielle : 
Découvrez nos formations en intelligence artificielle

Quels systèmes sont à haut risque ?

C’est la catégorie centrale du règlement, et celle qui concerne directement les fonctions RH. Un système est classé à haut risque s’il est utilisé dans l’un des domaines suivants :

  • Recrutement ou présélection des candidats

  • Évaluation des performances professionnelles

  • Attribution, supervision ou planification des tâches

  • Décisions en matière de mobilité interne, promotion ou licenciement

Par exemple, un outil d’aide à la décision pour trier des CV, analyser des entretiens vidéo ou mesurer des taux de productivité via l’IA entre potentiellement dans cette catégorie.

« L’IA ne devient pas « à haut risque » par nature, mais par usage. C’est l’impact sur les droits du salarié qui déclenche l’encadrement. » — Jacques de Tonquédec, avocat associé chez Littler France

Ces systèmes devront faire l’objet :

  • D’une analyse d’impact IA

  • D’une documentation technique complète

  • D’un suivi humain explicite

  • Et d’un enregistrement dans une base de données européenne

À lire aussi : Comment se mettre en conformité avec l’AI Act ?

Qu’en est-il des IA génératives comme ChatGPT ?

Les outils d’IA générative sont considérés comme des modèles à usage général. Ils ne sont pas classés automatiquement comme “à haut risque”, mais font l’objet d’un encadrement spécifique. Cela concerne par exemple :

  • ChatGPT (OpenAI)

  • Gemini (Google)

  • Copilot (Microsoft)

  • Claude (Anthropic)

Les obligations portent principalement sur la transparence, la documentation technique et, pour les entreprises utilisatrices, la formation des collaborateurs à leur bon usage. S’ils sont intégrés dans un outil RH automatisé, ils peuvent en revanche être reclassés comme système à haut risque.

À lire aussi : Quelle est la règle de l’AI Act concernant ChatGPT ?

Faut-il évaluer chaque outil utilisé ?

Oui. Le premier travail de conformité consiste à cartographier les systèmes d’IA présents dans l’entreprise, et à analyser pour chacun :

  • Son usage réel

  • Son impact potentiel sur les personnes

  • La nature des décisions qu’il influence

C’est cette logique d’impact qui prime. Un simple chatbot RH n’est pas concerné s’il n’influe pas sur les décisions. En revanche, un outil qui pré-analyse des réponses de candidats ou qui produit des scores de performance l’est très probablement.

À lire aussi : AI Act : que doivent faire les RH dès 2025 ?

Et les outils achetés auprès de prestataires ?

L’entreprise utilisatrice reste responsable dès lors qu’elle déploie un système sous son autorité. Le fait que l’outil soit fourni par un tiers ne la dispense pas de ses obligations (formation, documentation, information, etc.). Elle doit donc vérifier la conformité du fournisseur… et ne pas se contenter d’un usage “clé en main”.

Conclusion

L’AI Act ne cible pas un outil en particulier, mais la manière dont il est utilisé. Les fonctions RH doivent dès maintenant identifier les systèmes à risque, vérifier leurs usages, et structurer la conformité autour des trois piliers clés : transparence, supervision humaine et formation. C’est une démarche continue, qui permet aussi de poser les bases d’un usage responsable et maîtrisé de l’intelligence artificielle en entreprise.

Pour répondre à l’obligation de formation introduite par l’AI Act, Unow propose plusieurs parcours dédiés à l’IA : des formations conçues pour les fonctions RH, les managers et les équipes opérationnelles. Ces programmes permettent de comprendre les enjeux réglementaires, d’identifier les systèmes à risque, et d’apprendre à utiliser l’IA de manière responsable, efficace et conforme au cadre légal. Une démarche indispensable pour anticiper les prochaines échéances du règlement et sécuriser l’usage de l’IA dans l’entreprise.

Découvrez nos formations sur les IA

Des formations pour aider les professionnels à s’approprier ces outils et à utiliser leur plein potentiel

Voir les formations

Envie d’en voir un peu plus ?

  • Le coin des experts

    Comment se mettre en conformité avec l’AI Act ?

    L’AI Act, entré en vigueur en août 2024, impose progressivement aux entreprises un ensemble d’obligations autour de l’usage de l’intelligence artificielle.

  • Le coin des experts

    Quelle est la règle de l’AI Act concernant ChatGPT ?

    L’AI Act encadre ChatGPT comme un modèle d’IA à usage général. Si vous êtes une entreprise utilisatrice, vous devez vous assurer d’un usage conforme.

  • Le coin des experts

    Quelles sanctions sont prévues par l’AI Act ?

    L’AI Act prévoit des sanctions allant jusqu’à 35 millions d’euros. Découvrez quels manquements sont concernés, qui est responsable, comment s’y conformer.

Restez informé·e grâce à notre newsletter