Emploi

Le 21 mai dernier, le règlement (EU) Ă©tablissant les règles harmonisĂ©es concernant l’intelligence artificielle (plus connu sous le nom de « EU IA Act Â») a Ă©tĂ© dĂ©finitivement adoptĂ© pour une entrĂ©e en application totale en 2026. Un Ă©vènement historique, puisqu’il s’agit du premier cadre règlementaire sur l’IA au monde, positionnant ainsi l’Europe en vĂ©ritable pionnière dans ce domaine (voir « [A l’international] Le règlement europĂ©en sur l’intelligence artificielle Â»).

Ce règlement est le fruit de longues discussions pour parvenir à un difficile équilibre entre la nécessité de prévenir les risques liés à l’IA et celle d’encourager l’innovation dans ce domaine.

Pour y parvenir, le texte Ă©dicte des interdictions et des obligations en fonction du niveau de risque du système d’IA tout en prĂ©voyant des mesures de soutien Ă  l’innovation, notamment au profit des PME et des start-ups.

S’il constitue le premier socle d’une législation indispensable sur l’IA, ce texte est loin de répondre aux nombreux enjeux liés au développement de l’IA, notamment dans le monde du travail.

Encadrer l’utilisation de l’IA par les salariés

Selon une récente étude IFOP pour LearnThings, 22 % des salariés français ont déjà utilisé un outil d’IA dans le cadre professionnel et 55 % d’entre eux l’ont fait sans en informer leur responsable. Une tendance qui va nécessairement s’accélérer avec le développement des outils d’IA accessibles au grand public, parfois même gratuitement.

Or, l’utilisation de l’IA par les salariĂ©s, en particulier si elle est effectuĂ©e Ă  l’insu de l’employeur, est susceptible d’exposer l’entreprise Ă  de nombreux risques : compromission de donnĂ©es confidentielles, non-respect du RGPD, problĂ©matiques en termes de propriĂ©tĂ© intellectuelle, erreurs, etc.

Il est donc nécessaire que les entreprises édictent les lignes directrices qui permettront aux salariés de savoir ce qu’ils peuvent faire et ne pas faire, et ainsi encourager une utilisation de l’IA responsable.

Ces règles pourraient notamment être introduites dans le règlement intérieur de l’entreprise, sa charte informatique ou un document spécifique. Quel que soit le support choisi, il est recommandé de fixer un cadre d’utilisation et ses limites à l’IA au sein de l’entreprise. Il y a des sujets de confidentialité des données, de risque cyber, de responsabilité, … dont il est essentiel d’informer les salariés. Il faut aussi veiller à rendre ces règles opposables aux salariés afin de s’assurer de l’effectivité de la sanction disciplinaire qui pourrait être prononcée en cas de non-respect pour qu’elles soient pleinement efficaces.

A défaut d’un tel cadre, l’entreprise s’expose non seulement à des risques multiples, mais également à des incertitudes juridiques quant à la manière dont elle pourrait réagir à une utilisation de l’IA par un salarié à son insu.

En effet, dès lors qu’aucune règle interne Ă  l’entreprise n’interdit expressĂ©ment l’utilisation de l’IA, un tel agissement peut-il ĂŞtre considĂ©rĂ© comme fautif ? Peut-on soutenir qu’il s’agit par exemple d’un manquement Ă  l’obligation de loyautĂ© considĂ©rant que le salariĂ© est tenu de rĂ©aliser « personnellement Â» les missions qui lui incombent ? Ou peut-on au contraire considĂ©rer que l’IA n’est qu’un outil de travail parmi d’autres ?

Autant de questions qui sont aujourd’hui sans réponses et invitent d’autant plus les entreprises à se doter d’un cadre spécifique.

Anticiper les évolutions d’emplois et la manière de travailler

Selon le dernier rapport sur l’IA publié par le FMI, 60% des emplois dans les pays avancés seront impactés par l’IA.

Si le dĂ©veloppement de l’IA va Ă©galement crĂ©er des millions de nouveaux emplois (500 millions d’emplois d’ici 2033 selon un rapport de Gatner citĂ© par Le monde informatique), il n’en demeure pas moins que les entreprises doivent dès Ă  prĂ©sent anticiper les effets de l’IA sur leurs mĂ©tiers afin d’accompagner les salariĂ©s, en particulier dans les secteurs les plus fortement impactĂ©s.

Pour ce faire, les entreprises pourront notamment s’appuyer sur les dispositifs existants telle que la gestion des emplois et des parcours professionnels (GEPP).

Au-delĂ  de l’anticipation des impacts sur les emplois, les entreprises doivent Ă©galement sans attendre s’interroger sur la manière dont l’IA va impacter la façon de travailler dans un contexte oĂą de plus en plus de tâches aujourd’hui accomplies par des humains peuvent – et pourront – ĂŞtre prises en charge par l’IA.

Les entreprises doivent ainsi non seulement former les salariés à travailler avec l’IA mais également prévenir les risques psychosociaux susceptibles d’être engendrés par les évolutions des méthodes de travail.

Dans une note d’orientation intitulĂ©e « Incidences de l’IA sur la sĂ©curitĂ© et la santĂ© au travail Â», l’Agence EuropĂ©enne pour la SantĂ© et la SĂ©curitĂ© au travail alerte notamment sur les risques de dĂ©qualification, de rĂ©duction des Ă©changes humains, ou encore de complexification et d’intensification du travail « humain Â».

Article rĂ©digĂ© sans l’aide de ChatGPT !