Conditions de travail

Le règlement européen sur l’intelligence artificielle — communément appelé « IA Act » — marque une étape majeure dans la régulation des technologies d’IA en Europe. Publié au Journal officiel de l’Union européenne le 12 juillet 2024, il prévoit une entrée en vigueur progressive de ses mesures jusqu’en 2030.

Après un premier volet entrĂ© en vigueur le 2 fĂ©vrier 2025, qui instaurait des interdictions pour certains usages jugĂ©s contraires aux droits fondamentaux (comme le « scoring social » par exemple), ainsi que l’obligation pour les employeurs de garantir un niveau suffisant de connaissances en matière d’IA de leur personnel (voir « Formation des salariĂ©s Ă  l’IA : 5 questions sur vos obligations d’employeur Â»), un deuxième volet, applicable depuis le 2 aoĂ»t 2025, introduit pour la première fois de vĂ©ritables obligations pour les acteurs de l’IA.

Il concerne les modèles d’IA à usage général (General Purpose AI, ou GPAI), qui constituent aujourd’hui la majorité des systèmes d’IA déployés en Europe, notamment dans les entreprises. Retour sur ce 2e volet en 6 questions.

1. Qu’est-ce qu’un modèle d’IA Ă  usage gĂ©nĂ©ral (GPAI) ?

On entend par GPAI un « modèle d’IA, y compris lorsqu’il est entraĂ®nĂ© Ă  l’aide d’une grande quantitĂ© de donnĂ©es en utilisant l’autosupervision Ă  grande Ă©chelle, qui fait preuve d’une grande gĂ©nĂ©ralitĂ© et qui est capable d’exĂ©cuter avec compĂ©tence un large Ă©ventail de tâches distinctes, quelle que soit la manière dont le modèle est mis sur le marchĂ©, et qui peut ĂŞtre intĂ©grĂ© dans une variĂ©tĂ© de systèmes ou d’applications en aval » (AI Act, art. 33, 63).

En résumé, le GPAI se distingue par :

  • Sa capacitĂ© Ă  accomplir de multiples tâches variĂ©es, et non une seule fonction ;
  • La possibilitĂ© d’être intĂ©grĂ© dans de nombreux systèmes ou applications ;
  • Un entraĂ®nement sur de vastes ensembles de donnĂ©es ;
  • Une architecture flexible et adaptable Ă  de nouveaux usages.

Les grands modèles de langage (LLM), tels que Chat GPT, Claude ou encore Gemini sont aujourd’hui les exemples les plus emblématiques de GPAI, utilisés pour l’assistance, la génération de contenu, la traduction ou le support.

2. Qui est concernĂ© ?

Les obligations prĂ©vues par l’AI Act en matière de GPAI concernent les fournisseurs de GPAI, dĂ©finis par le règlement comme toute personne ou entitĂ© qui dĂ©veloppe ou fait dĂ©velopper un GPAI et le met sur le marchĂ© ou en service sous son propre nom ou sa propre marque, Ă  titre onĂ©reux ou gratuit (art. 3, 3).

Sont ainsi considĂ©rĂ©s comme fournisseurs au sens du règlement, aussi bien les dĂ©veloppeurs de systèmes d’IA que les entreprises qui dĂ©velopperaient ou feraient dĂ©velopper pour leur propre compte un GPAI interne (ex : Chatbot RH, gĂ©nĂ©rateur interne de contenu…).

3. Comment distinguer GPAI standard et GPAI Ă  risque systĂ©mique ?

L’AI Act distingue les GPAI standards des GPAI présentant un risque systémique, qui doivent satisfaire à des obligations renforcées.

Le risque systĂ©mique est dĂ©fini comme « une incidence significative sur le marchĂ© de l’Union en raison de leur portĂ©e ou d’effets nĂ©gatifs rĂ©els ou raisonnablement prĂ©visibles sur la santĂ© publique, la sĂ»retĂ©, la sĂ©curitĂ© publique, les droits fondamentaux ou la sociĂ©tĂ© dans son   ensemble, pouvant ĂŞtre propagĂ© Ă  grande Ă©chelle tout au long de la chaĂ®ne de valeur Â» (AI Act, art. 3, 65).

En effet, si les GPAI ouvrent des opportunitĂ©s considĂ©rables, ils peuvent aussi engendrer des risques importants qui proviennent de leur puissance de calcul, de leur polyvalence et de leur potentiel d’utilisation dans de nombreux domaines impactant la sociĂ©tĂ©, parmi lesquels :

  • Risques de sĂ©curitĂ© : possibilitĂ© d’utilisation malveillante, cyberattaques ou propagation de contenus nuisibles,
  • Risques pour les droits fondamentaux : biais discriminatoires, atteintes Ă  la vie privĂ©e et Ă  la confidentialitĂ©,
  • DĂ©sinformation et manipulation : gĂ©nĂ©ration de contenus faux, profonds truquages (deepfakes), ou manipulations Ă  grande Ă©chelle.

A noter : au regard des dispositions du règlement, et des prĂ©cisions techniques qu’il comporte, la majoritĂ© des LLM lancĂ©s ces trois dernières annĂ©es sont prĂ©sumĂ©es prĂ©senter un risque systĂ©mique.

4. Quelles obligations ?

Les fournisseurs de GPAI standards doivent notamment (art. 53) :

  • RĂ©diger la documentation technique, y compris le processus de formation et d’essai et les rĂ©sultats de l’Ă©valuation ;
  • Élaborer des informations et de la documentation Ă  fournir aux fournisseurs en aval qui ont l’intention d’intĂ©grer le modèle GPAI dans leur propre système d’IA, afin que ces derniers en comprennent les capacitĂ©s et les limites et soient en mesure de s’y conformer ;
  • Établir une politique de respect de la directive sur le droit d’auteur ;
  • Publier un rĂ©sumĂ© suffisamment dĂ©taillĂ© du contenu utilisĂ© pour la formation du modèle GPAI.

Outre les 4 obligations susmentionnĂ©es, les fournisseurs de modèles GPAI prĂ©sentant un risque systĂ©mique doivent Ă©galement (art. 55) :

  • Effectuer des Ă©valuations de modèles, y compris mener et documenter des tests contradictoires afin d’identifier et d’attĂ©nuer le risque systĂ©mique ;
  • Évaluer et attĂ©nuer les risques systĂ©miques Ă©ventuels, y compris leurs sources ;
  • RepĂ©rer, documenter et signaler les incidents graves et les Ă©ventuelles mesures correctives Ă  l’Office AI et aux autoritĂ©s nationales compĂ©tentes dans les meilleurs dĂ©lais ;
  • Assurer un niveau adĂ©quat de protection de la cybersĂ©curitĂ©.

5. Faut-il adopter un code de bonnes pratiques ?

Tous les fournisseurs de modèles GPAI peuvent prouver qu’ils respectent leurs obligations en adhĂ©rant volontairement Ă  un code de bonnes pratiques jusqu’Ă  la publication de normes europĂ©ennes harmonisĂ©es, dont le respect entraĂ®nera une prĂ©somption de conformitĂ©. Les fournisseurs qui n’adhèrent pas Ă  des codes de bonnes pratiques doivent dĂ©montrer qu’ils disposent d’autres moyens adĂ©quats pour se conformer Ă  leurs obligations, afin d’obtenir l’approbation de la Commission.

Le premier Code de bonnes pratiques GPAI a été publié par la Commission le 10 juillet 2025, et plusieurs grands acteurs du secteur, comme Google, OpenAI ou Anthropic, y ont déjà adhéré volontairement.

6. Quelles sanctions ?

Si les sanctions sont moins fortes que la transgression des pratiques interdites (jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial), le non-respect des obligations applicables aux fournisseurs de GPAI est puni d’une amende administrative pouvant aller jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires annuel.

CrĂ©dit photo : iStock.com