Comment se mettre en conformité avec l’AI Act ?
L’AI Act, entré en vigueur en août 2024, impose progressivement aux entreprises un ensemble d’obligations autour de l’usage de l’intelligence artificielle.
Par Magali Mezerette – Le 19 juin 2025
L’AI Act, entré en vigueur en août 2024, impose progressivement aux entreprises un ensemble d’obligations autour de l’usage de l’intelligence artificielle. Pour les entreprises, et en particulier pour les RH, il est urgent d’anticiper les échéances et de structurer leur mise en conformité.
Qui est concerné par l’AI Act ?
Le règlement distingue deux types d’acteurs : les fournisseurs (ceux qui développent ou commercialisent une IA sous leur propre nom) et les déployeurs (toute entreprise qui utilise une IA dans un cadre professionnel). La grande majorité des entreprises sont donc considérées comme déployeurs, même si elles ne développent pas elles-mêmes leurs outils.
Découvrez la fiche mémo des niveaux de risque définis par l’AI Act :👉 à télécharger gratuitement ici
Quelles sont les échéances à retenir ?
- 2 février 2025 : entrée en vigueur de l’interdiction des systèmes à risque inacceptable et de l’obligation générale de formation.
- 2 août 2025 : entrée en vigueur des règles spécifiques aux IA à usage général.
- 2 août 2026 : application des règles pour les systèmes à haut risque et obligation de transparence envers les utilisateurs (ex. : informer les collaborateurs qu’ils interagissent avec une IA).
- 2 août 2027 : extension à d’autres secteurs (jouets, véhicules, etc.).
À lire aussi : AI Act : que doivent faire les RH dès 2025 ?
Quelles sont les obligations concrètes à mettre en œuvre ?
1. Former les utilisateurs de l’IA
L’AI Act impose une obligation générale de formation pour tous les salariés (ou prestataires) utilisant un système d’IA dans le cadre de leur activité. Il s’agit de leur assurer un « niveau suffisant de connaissance » pour utiliser ces outils en toute sécurité et en pleine compréhension de leurs limites.
Cette obligation, déjà en vigueur depuis février 2025, doit être anticipée dans les plans de développement des compétences. Elle peut s’intégrer dans les dispositifs de GEPP (gestion des emplois et des parcours professionnels), en lien avec les partenaires sociaux.
Découvrez nos formations dédiées à l’intelligence artificielle :
2. Identifier les systèmes d’IA utilisés
Le premier réflexe est de cartographier les outils utilisant de l’intelligence artificielle au sein de l’entreprise. Cela permet d’identifier ceux qui relèvent de l’AI Act, notamment :
Les IA à usage général (ex. : ChatGPT)
Les systèmes à haut risque (ex. : IA utilisée pour le recrutement, l’évaluation, ou l’attribution de tâches)
À lire aussi : Quelle est la règle de l’AI Act concernant ChatGPT ?
3. Effectuer une analyse d’impact pour les systèmes à haut risque
Cette analyse, inspirée du RGPD, vise à évaluer les biais potentiels, la documentation technique, la gouvernance des données, les erreurs possibles, la cybersécurité, etc. Elle devra être prête d’ici août 2026 pour les outils concernés.
4. Mettre en place une politique de transparence
À partir d’août 2026, les collaborateurs devront être informés dès lors qu’ils interagissent avec un système d’IA. Cela suppose d’anticiper des modifications dans les processus internes et les interfaces RH.
5. Encadrer les usages non contrôlés (shadow IT)
De nombreux collaborateurs utilisent déjà des IA de leur propre initiative, sans validation de l’employeur. Pour sécuriser ces pratiques, l’AI Act recommande fortement de formaliser une charte IA, en l’intégrant au règlement intérieur. Cela permet à la fois d’informer, de fixer un cadre clair, et de pouvoir sanctionner les usages risqués.
6. Consulter les instances représentatives du personnel
L’introduction d’une IA dans l’entreprise, même à titre expérimental, peut nécessiter une consultation préalable du CSE. Une décision judiciaire récente (tribunal de Nanterre, février 2024) a suspendu une expérimentation d’IA pour non-respect de cette obligation.
Que risque-t-on en cas de non-conformité ?
Les sanctions prévues sont lourdes :
Jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les violations les plus graves (ex. : utilisation d’une IA interdite)
15 millions ou 3 % du CA mondial pour les autres manquements, comme l’absence de formation ou de transparence.
Les risques ne sont pas uniquement financiers : l’image de l’entreprise, sa performance opérationnelle (en cas de suspension d’un outil clé), ou la confiance des salariés peuvent être durablement affectés.
À lire aussi : Quelles sanctions sont prévues par l’AI Act ?
Et maintenant, par où commencer ?
Commencez par dresser un état des lieux des usages d’IA dans votre entreprise, et en particulier dans les processus RH. Puis, planifiez dès aujourd’hui la mise en place des premières briques : cartographie, formation, consultation du CSE, charte IA. Vous gagnerez en sécurité juridique, en performance… et en confiance.
Envie de vous faire accompagner ?
Chez Unow, nous proposons des formations IA concrètes, interactives et adaptées à tous les niveaux pour permettre aux RH, aux managers et aux équipes opérationnelles de se former à l’IA et de respecter leurs nouvelles obligations. Nos parcours certifiants et nos ateliers sur mesure sont spécialement pensés pour accompagner cette mise en conformité de manière fluide et pragmatique.
Découvrez nos formations sur les IA
Des formations pour aider les professionnels à s’approprier ces outils et à utiliser leur plein potentiel
Voir les formationsEnvie d’en voir un peu plus ?
-
Le coin des experts
Quelle est la règle de l’AI Act concernant ChatGPT ?
L’AI Act encadre ChatGPT comme un modèle d’IA à usage général. Si vous êtes une entreprise utilisatrice, vous devez vous assurer d’un usage conforme.
-
Le coin des experts
Quelles sanctions sont prévues par l’AI Act ?
L’AI Act prévoit des sanctions allant jusqu’à 35 millions d’euros. Découvrez quels manquements sont concernés, qui est responsable, comment s’y conformer.
-
Le coin des experts
Doit-on vraiment consulter le CSE avant d’utiliser une IA ?
Oui, dans la grande majorité des cas.