Komitê
Nous contacter
Tel : 01 84 80 40 74

Parce qu’un CSE informé en vaut deux, inscrivez-vous à notre lettre d’information ! (Rédigée par nos avocats, pour vous)

Nous n'avons pas pu confirmer votre inscription.
Votre inscription est confirmée.

Mon DRH est-il un robot ?

Les élections européennes approchent, et ceux qui en ont entendu parler se demandent sûrement à quoi servent les députés européens. Non, l’Europe n’est pas qu’une planque pour politiques aux ambitions nationales, ni un moyen de faire financer ses assistants parlementaires. La récente affaire des congés payés ou le célèbre RGPD nous rappellent qu’elle est à la pointe du combat sur de nombreux sujets, et qu’elle peut même protéger (parfois) les droits des salariés et des consommateurs. Un exemple avec la question d’actualité de l’intelligence artificielle, preuve que les machines ne contrôlent pas encore Bruxelles.

Au secours, mon patron est un robot : l’IA sous contrôle ?

Même si les CSE ne sont pas encore présidés par des robots (quoique…), l’intelligence artificielle est déjà dans le monde du travail. Logiciel RH de sélection des CV, dispositifs de suivi de l’activité, outils d’optimisation des process… Nombreuses sont ses applications, et nombreux sont les risques pour les salariés. Le traitement massif et automatisé des données peut être source de risque, notamment lorsqu’il conduit à la prise de décision basée sur des critères discriminatoires.

L’UE s’est dotée d’un règlement encadrant de manière large l’usage de l’IA, dans tous les aspects qu’elle peut concerner (santé, sécurité, travail…). Le texte distingue ainsi les systèmes présentant des risques inacceptables, en principe inutilisables, de ceux à haut risques ou à usage général, qui doivent être encadrés.

Parmi les systèmes prohibés figurent ceux permettant la reconnaissance faciale en temps réel ou d’inférer les émotions d’une personne physique sur le lieu de travail (soit deviner dans quel état d’esprit est le salarié). De même, les logiciels visant à déterminer notamment les opinions politiques, l’affiliation à une organisation syndicale, ou encore les convictions religieuses ou philosophiques sont interdits. Pas de détecteur à syndicaliste dans l’entreprise, ou de système de classification pour déterminer les salariés sympas des fauteurs de troubles. Dans le viseur de l’UE notamment, les systèmes de notation sociale, tels qu’ils peuvent exister dans certains pays, déterminant qui sont les bons citoyens des mauvais.

A noter, certains de ces systèmes peuvent être utilisés par les forces de l’ordre, notamment pour prévenir des actes de terrorismes ou retrouver une personne disparue.

Les systèmes à haut risques sont, eux, autorisés mais encadrés. Le règlement vise ainsi deux types d’outils :

  • Les logiciels de recrutement ou de sélection, très utilisés par les RH
  • Les logiciels d’aide à la décision susceptible d’influer sur la carrière des salariés. Tout logiciel visant à classer, noter, évaluer ou aider un manager dans sa prise de décision sur un subordonné est concerné.

Le règlement impose tant une information des salariés concernés que des représentants du personnel. C’est déjà le cas en France, un tel outil ne pouvant être utilisé sans avis préalable du CSE. Ils tombent également sous l’empire de plusieurs règles déjà existantes, notamment celles du RGPD. Outre les principes de finalités et de proportionnalité, un tel système devra répondre à l’intérêt légitime de l’entreprise l’utilisant, ou recueillir l’accord préalable des personnes qu’il concerne. Il ne pourra surtout aboutir à une surveillance permanente des salariés, sous peine de porter atteinte à leur vie privée (qui, rappelons-le, existe même sur le lieu de travail).

Les fournisseurs et créateurs d’IA à haut risque sont tenus de prendre toutes les mesures pour réduire au minimum les risques pour les utilisateurs et les personnes concernées par le traitement de leurs données. Concrètement, il s’agira d’éviter que les données ne fuitent, que le logiciel utilise des critères discriminants, viole une liberté fondamentale comme le droit à la vie privée… Les exemples de logiciels de recrutement se mettant soudainement à préférer les recrues masculines montrant que le paramétrage est un point essentiel, même les IA semblant opter pour le patriarcat.

Quant à l’utilisation d’intelligence artificielle à usage général (système de suivi des commandes ou des stocks, outils d’aide à la création…), elle devra respecter une obligation de transparence sur leur fonctionnement et leur mode d’apprentissage.

-Sarah Connor ?

-Non, Gary du CSE !

Qu’est-ce qu’une IA ? Y a-t-il un test déterminant le degré d’intelligence minimal pour y être assimilé ? Le règlement défini l’intelligence artificielle comme un logiciel développé au moyen d’une ou plusieurs des techniques et approches telles que “l’apprentissage automatique » et pouvant, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit.

Retour

Envie d’en savoir plus ou juste de bavarder un peu ?

Vous pouvez nous joindre au 01 84 80 40 74
sur notre adresse email contact@komite-avocats.fr
ou en remplissant le formulaire ci-dessous

Ce champ est invalide
Ce champ est invalide
Ce champ est invalide
Ce champ est invalide
Ce champ est invalide