Quelle est la règle de l’AI Act concernant ChatGPT ?
L’AI Act encadre ChatGPT comme un modèle d’IA à usage général. Si vous êtes une entreprise utilisatrice, vous devez vous assurer d’un usage conforme.
Par Magali Mezerette – Le 12 juin 2025
Avec l’entrée en vigueur progressive de l’AI Act, de nombreuses entreprises s’interrogent sur les outils qu’elles utilisent au quotidien. ChatGPT, sans doute le plus emblématique d’entre eux, est-il concerné ? Et si oui, à quelles règles est-il soumis ? Voici ce qu’il faut retenir.
ChatGPT est-il concerné par l’AI Act ?
Oui, ChatGPT est directement concerné par l’AI Act, en tant que modèle d’IA à usage général. L’AI Act classe les systèmes d’intelligence artificielle selon leur niveau de risque, mais distingue également les modèles à usage général des systèmes spécifiquement conçus pour une finalité particulière (comme le recrutement ou l’évaluation de performance).
Découvrez la fiche mémo des niveaux de risque définis par l’AI Act :👉 à télécharger gratuitement ici
ChatGPT entre dans la première catégorie : il s’agit d’un modèle générique, capable de générer du texte, des idées, des recommandations ou des contenus, sans viser un domaine d’application unique. À ce titre, il est encadré par un régime juridique spécifique dans le texte européen.
Quelles obligations s’appliquent à ChatGPT selon l’AI Act ?
Le règlement européen impose un certain nombre d’exigences aux fournisseurs de modèles d’IA à usage général, comme OpenAI pour ChatGPT. Parmi elles :
Fournir une documentation technique permettant de comprendre le fonctionnement de l’outil,
Répertorier les incidents graves, notamment s’il y a des dérives ou erreurs critiques,
Mettre en place un système de gouvernance des données, incluant traçabilité, gestion des biais, cybersécurité, etc.,
Informer clairement les utilisateurs lorsqu’un contenu a été généré par une IA.
Le niveau d’exigence varie selon la puissance de calcul du modèle (plus il est puissant, plus les obligations sont strictes).
Quelles obligations pour les entreprises qui utilisent ChatGPT ?
L’AI Act distingue deux rôles : les fournisseurs (ceux qui développent ou commercialisent un système d’IA) et les déployeurs (ceux qui l’utilisent sous leur autorité, dans un cadre professionnel). Une entreprise qui utilise ChatGPT pour ses activités RH, marketing ou commerciales est considérée comme déployeur.
Cela signifie qu’elle doit :
Identifier les usages de ChatGPT dans l’entreprise,
Vérifier que l’usage est conforme à la réglementation (ex. : pas de traitement de données sensibles),
Former ses collaborateurs à un usage responsable de l’IA via une formation ChatGPT (c’est une obligation depuis février 2025),
Encadrer les usages via des chartes ou politiques internes.
En revanche, si ChatGPT est utilisé uniquement pour des tâches sans impact sur les droits fondamentaux (rédaction d’un plan marketing, reformulation de texte, etc.), il ne sera pas considéré comme un système à haut risque.
À lire aussi : AI Act : que doivent faire les RH dès 2025 ?
Faut-il faire une analyse d’impact si on utilise ChatGPT ?
Pas nécessairement. L’analyse d’impact devient obligatoire si ChatGPT est intégré dans un système à haut risque : par exemple, un outil de recrutement automatisé, d’évaluation de performance ou de gestion de tâches individuelles.
Si l’usage est plus générique, sans lien direct avec des décisions affectant les droits des personnes, l’entreprise n’est pas soumise à cette exigence. En revanche, elle doit toujours veiller à respecter le RGPD si elle traite des données personnelles.
L’entreprise est-elle responsable en cas de problème lié à ChatGPT ?
Cela dépend de son rôle. Si elle se contente d’utiliser ChatGPT via l’interface d’OpenAI (ou d’un autre fournisseur), elle est déployeur. Sa responsabilité est engagée si elle n’a pas vérifié que le fournisseur respecte ses obligations, ou si elle n’a pas mis en place les mesures nécessaires (information des utilisateurs, formation, charte d’usage…).
Mais si l’entreprise commercialise une solution reposant sur ChatGPT sous sa propre marque, elle est considérée comme fournisseur. Dans ce cas, elle engage sa responsabilité beaucoup plus largement, y compris sur la qualité du modèle.
À lire aussi : Quelles sanctions sont prévues par l’AI Act ?
En résumé
L’AI Act encadre ChatGPT comme un modèle d’IA à usage général. Si vous êtes une entreprise utilisatrice, vous devez vous assurer d’un usage conforme, notamment en formant vos équipes, en encadrant les pratiques, et en identifiant les risques liés aux données personnelles ou aux décisions automatisées.
Et pour aller plus loin ?
Unow propose des formations dédiées aux impacts de l’IA générative sur les métiers et les obligations légales. Ces parcours, conçus avec des experts du droit social, vous permettent d’anticiper les changements réglementaires, de sensibiliser vos équipes et de déployer l’IA en toute conformité.
Découvrez nos formations sur les IA
Des formations pour aider les professionnels à s’approprier ces outils et à utiliser leur plein potentiel
Voir les formationsEnvie d’en voir un peu plus ?
-
Le coin des experts
Une journée dans la peau d’un commercial B2B boosté à l’IA
83 % des commerciaux qui utilisent l’IA déclarent une hausse de leurs ventes, contre 66 % pour ceux qui ne l’utilisent pas.
-
Le coin des experts
Adoption de l’IA en entreprise en 2026 : 5 tendances clés
Copilotes, agents IA, ROI, gouvernance… Découvrez 5 tendances de l’adoption de l’IA en entreprise en 2026 et ce qu’elles changent concrètement.
-
Le coin des experts
Licences Microsoft Copilot : comment faire les bons choix et optimiser son budget
Copilot Chat, Business, Enterprise, Studio… Comment choisir les bonnes licences Microsoft Copilot et éviter les mauvais investissements en entreprise.