Emploi

Le 21 mai dernier, le règlement (EU) établissant les règles harmonisées concernant l’intelligence artificielle (plus connu sous le nom de « EU IA Act ») a été définitivement adopté pour une entrée en application totale en 2026. Un évènement historique, puisqu’il s’agit du premier cadre règlementaire sur l’IA au monde, positionnant ainsi l’Europe en véritable pionnière dans ce domaine (voir « [A l’international] Le règlement européen sur l’intelligence artificielle »).

Ce règlement est le fruit de longues discussions pour parvenir à un difficile équilibre entre la nécessité de prévenir les risques liés à l’IA et celle d’encourager l’innovation dans ce domaine.

Pour y parvenir, le texte édicte des interdictions et des obligations en fonction du niveau de risque du système d’IA tout en prévoyant des mesures de soutien à l’innovation, notamment au profit des PME et des start-ups.

S’il constitue le premier socle d’une législation indispensable sur l’IA, ce texte est loin de répondre aux nombreux enjeux liés au développement de l’IA, notamment dans le monde du travail.

Encadrer l’utilisation de l’IA par les salariés

Selon une récente étude IFOP pour LearnThings, 22 % des salariés français ont déjà utilisé un outil d’IA dans le cadre professionnel et 55 % d’entre eux l’ont fait sans en informer leur responsable. Une tendance qui va nécessairement s’accélérer avec le développement des outils d’IA accessibles au grand public, parfois même gratuitement.

Or, l’utilisation de l’IA par les salariés, en particulier si elle est effectuée à l’insu de l’employeur, est susceptible d’exposer l’entreprise à de nombreux risques : compromission de données confidentielles, non-respect du RGPD, problématiques en termes de propriété intellectuelle, erreurs, etc.

Il est donc nécessaire que les entreprises édictent les lignes directrices qui permettront aux salariés de savoir ce qu’ils peuvent faire et ne pas faire, et ainsi encourager une utilisation de l’IA responsable.

Ces règles pourraient notamment être introduites dans le règlement intérieur de l’entreprise, sa charte informatique ou un document spécifique. Quel que soit le support choisi, il est recommandé de fixer un cadre d’utilisation et ses limites à l’IA au sein de l’entreprise. Il y a des sujets de confidentialité des données, de risque cyber, de responsabilité, … dont il est essentiel d’informer les salariés. Il faut aussi veiller à rendre ces règles opposables aux salariés afin de s’assurer de l’effectivité de la sanction disciplinaire qui pourrait être prononcée en cas de non-respect pour qu’elles soient pleinement efficaces.

A défaut d’un tel cadre, l’entreprise s’expose non seulement à des risques multiples, mais également à des incertitudes juridiques quant à la manière dont elle pourrait réagir à une utilisation de l’IA par un salarié à son insu.

En effet, dès lors qu’aucune règle interne à l’entreprise n’interdit expressément l’utilisation de l’IA, un tel agissement peut-il être considéré comme fautif ? Peut-on soutenir qu’il s’agit par exemple d’un manquement à l’obligation de loyauté considérant que le salarié est tenu de réaliser « personnellement » les missions qui lui incombent ? Ou peut-on au contraire considérer que l’IA n’est qu’un outil de travail parmi d’autres ?

Autant de questions qui sont aujourd’hui sans réponses et invitent d’autant plus les entreprises à se doter d’un cadre spécifique.

Anticiper les évolutions d’emplois et la manière de travailler

Selon le dernier rapport sur l’IA publié par le FMI, 60% des emplois dans les pays avancés seront impactés par l’IA.

Si le développement de l’IA va également créer des millions de nouveaux emplois (500 millions d’emplois d’ici 2033 selon un rapport de Gatner cité par Le monde informatique), il n’en demeure pas moins que les entreprises doivent dès à présent anticiper les effets de l’IA sur leurs métiers afin d’accompagner les salariés, en particulier dans les secteurs les plus fortement impactés.

Pour ce faire, les entreprises pourront notamment s’appuyer sur les dispositifs existants telle que la gestion des emplois et des parcours professionnels (GEPP).

Au-delà de l’anticipation des impacts sur les emplois, les entreprises doivent également sans attendre s’interroger sur la manière dont l’IA va impacter la façon de travailler dans un contexte où de plus en plus de tâches aujourd’hui accomplies par des humains peuvent – et pourront – être prises en charge par l’IA.

Les entreprises doivent ainsi non seulement former les salariés à travailler avec l’IA mais également prévenir les risques psychosociaux susceptibles d’être engendrés par les évolutions des méthodes de travail.

Dans une note d’orientation intitulée « Incidences de l’IA sur la sécurité et la santé au travail », l’Agence Européenne pour la Santé et la Sécurité au travail alerte notamment sur les risques de déqualification, de réduction des échanges humains, ou encore de complexification et d’intensification du travail « humain ».

Article rédigé sans l’aide de ChatGPT !