🚀 Unow lance la deuxième édition de son MOOC phare sur l’intelligence artificielle !  Inscrivez-vous maintenant.
Le coin des experts

Quelle est la règle de l’AI Act concernant ChatGPT ?

L’AI Act encadre ChatGPT comme un modèle d’IA à usage général. Si vous êtes une entreprise utilisatrice, vous devez vous assurer d’un usage conforme.

Par Magali Mezerette – Le 12 juin 2025

Avec l’entrée en vigueur progressive de l’AI Act, de nombreuses entreprises s’interrogent sur les outils qu’elles utilisent au quotidien. ChatGPT, sans doute le plus emblématique d’entre eux, est-il concerné ? Et si oui, à quelles règles est-il soumis ? Voici ce qu’il faut retenir.

ChatGPT est-il concerné par l’AI Act ?

Oui, ChatGPT est directement concerné par l’AI Act, en tant que modèle d’IA à usage général. L’AI Act classe les systèmes d’intelligence artificielle selon leur niveau de risque, mais distingue également les modèles à usage général des systèmes spécifiquement conçus pour une finalité particulière (comme le recrutement ou l’évaluation de performance).

Découvrez la fiche mémo des niveaux de risque définis par l’AI Act :Mémo : les niveaux de risque définis par l'AI Act👉 à télécharger gratuitement ici

ChatGPT entre dans la première catégorie : il s’agit d’un modèle générique, capable de générer du texte, des idées, des recommandations ou des contenus, sans viser un domaine d’application unique. À ce titre, il est encadré par un régime juridique spécifique dans le texte européen.

Quelles obligations s’appliquent à ChatGPT selon l’AI Act ?

Le règlement européen impose un certain nombre d’exigences aux fournisseurs de modèles d’IA à usage général, comme OpenAI pour ChatGPT. Parmi elles :

  • Fournir une documentation technique permettant de comprendre le fonctionnement de l’outil,

  • Répertorier les incidents graves, notamment s’il y a des dérives ou erreurs critiques,

  • Mettre en place un système de gouvernance des données, incluant traçabilité, gestion des biais, cybersécurité, etc.,

  • Informer clairement les utilisateurs lorsqu’un contenu a été généré par une IA.

Le niveau d’exigence varie selon la puissance de calcul du modèle (plus il est puissant, plus les obligations sont strictes).

Quelles obligations pour les entreprises qui utilisent ChatGPT ?

L’AI Act distingue deux rôles : les fournisseurs (ceux qui développent ou commercialisent un système d’IA) et les déployeurs (ceux qui l’utilisent sous leur autorité, dans un cadre professionnel). Une entreprise qui utilise ChatGPT pour ses activités RH, marketing ou commerciales est considérée comme déployeur.

Cela signifie qu’elle doit :

  • Identifier les usages de ChatGPT dans l’entreprise,

  • Vérifier que l’usage est conforme à la réglementation (ex. : pas de traitement de données sensibles),

  • Former ses collaborateurs à un usage responsable de l’IA (c’est une obligation depuis février 2025),

  • Encadrer les usages via des chartes ou politiques internes.

En revanche, si ChatGPT est utilisé uniquement pour des tâches sans impact sur les droits fondamentaux (rédaction d’un plan marketing, reformulation de texte, etc.), il ne sera pas considéré comme un système à haut risque.

À lire aussi : AI Act : que doivent faire les RH dès 2025 ?

Faut-il faire une analyse d’impact si on utilise ChatGPT ?

Pas nécessairement. L’analyse d’impact devient obligatoire si ChatGPT est intégré dans un système à haut risque : par exemple, un outil de recrutement automatisé, d’évaluation de performance ou de gestion de tâches individuelles.

Si l’usage est plus générique, sans lien direct avec des décisions affectant les droits des personnes, l’entreprise n’est pas soumise à cette exigence. En revanche, elle doit toujours veiller à respecter le RGPD si elle traite des données personnelles.

L’entreprise est-elle responsable en cas de problème lié à ChatGPT ?

Cela dépend de son rôle. Si elle se contente d’utiliser ChatGPT via l’interface d’OpenAI (ou d’un autre fournisseur), elle est déployeur. Sa responsabilité est engagée si elle n’a pas vérifié que le fournisseur respecte ses obligations, ou si elle n’a pas mis en place les mesures nécessaires (information des utilisateurs, formation, charte d’usage…).

Mais si l’entreprise commercialise une solution reposant sur ChatGPT sous sa propre marque, elle est considérée comme fournisseur. Dans ce cas, elle engage sa responsabilité beaucoup plus largement, y compris sur la qualité du modèle.

À lire aussi : Quelles sanctions sont prévues par l’AI Act ?

En résumé

L’AI Act encadre ChatGPT comme un modèle d’IA à usage général. Si vous êtes une entreprise utilisatrice, vous devez vous assurer d’un usage conforme, notamment en formant vos équipes, en encadrant les pratiques, et en identifiant les risques liés aux données personnelles ou aux décisions automatisées.

Et pour aller plus loin ?

Unow propose des formations dédiées aux impacts de l’IA générative sur les métiers et les obligations légales. Ces parcours, conçus avec des experts du droit social, vous permettent d’anticiper les changements réglementaires, de sensibiliser vos équipes et de déployer l’IA en toute conformité.

Découvrez nos formations sur les IA

Des formations pour aider les professionnels à s’approprier ces outils et à utiliser leur plein potentiel

Voir les formations

Envie d’en voir un peu plus ?

Restez informé·e grâce à notre newsletter