Participatif
ACCÈS PUBLIC
21 / 10 / 2021 | 88 vues
Christine Besseyre / Abonné
Articles : 7
Inscrit(e) le 04 / 06 / 2016

Nos désaccords sur le projet de règlement européen sur l’intelligence artificielle

Devant l’omniprésence de l’intelligence artificielle (IA), les députés européens se sont saisis du sujet en février 2020 pour garantir une utilisation équitable et sûre pour les consommateurs. La résolution adoptée en plénière aborde plusieurs défis découlant du développement rapide des technologies de l’intelligence artificielle et de la prise de décision automatisée (ADM). Les trois axes majeurs de cette réglementation sont la mise à jour des règles de sécurité et de responsabilité de l’Union européenne au vu des produits reposant sur l’IA, l’utilisation d’algorithmes non biaisés, la mise en place de structures de contrôle et la garantie que l’humain reste finalement le seul maître de la situation.

 

La crise sanitaire en 2020 a fortement accru le recours à l’intelligence artificielle sous toutes ses formes : dans l'e-commerce, dans le recrutement, dans la surveillance des citoyens et des salariés, dans les chaînes d’approvisionnement, les centres d’appel etc. Nous sommes aujourd’hui dans un contexte politique mondial dans lequel de plus en plus de pays investissent massivement dans l’IA. L’Union européenne a décidé d’agir d’une seule manière pour relever les défis de l’IA.

 

La voix de « Why Not Lab »

 

Depuis des années, notre organisation syndicale travaille sur le numérique, du droit à la déconnexion aux effets du numérique en intégrant l’équilibre vie privée/vie professionnelle et en réfléchissant au nouveau monde du travail. Dans ses activités au sein de l’UNI (*), notre fédération a rencontré Christina J. Colclough, experte de l’avenir du travail et de la politique de la technologie numérique, défendant l’importance de la voix des travailleurs au niveau mondial. Aujourd’hui, fondatrice de « Why Not Lab », elle a ainsi interpellé les membres de la Commission européenne : « avec les millions de points de données extraits quotidiennement des travailleurs, transformant leurs actions et non-actions en « vérités » définies mathématiquement ou en probabilités calculées statistiquement, nous devons nous demander si nous trahissons l’histoire ».

 

Elle a également posé une question essentielle : « alors que les systèmes numériques peuvent être efficaces et productifs, nous devons nous demander « efficace pour quoi ? Productif pour quoi ? » ». Efficacité et productivité ne signifient pas nécessairement « bon », « juste » ou même « légal ».

 

Elle a confirmé le changement de l’équilibre des pouvoirs sur les lieux de travail : qui décide vraiment et à quelle échelle ? Elle a souligné la responsabilité des développeurs qui doivent connaître les effets sur les travailleurs et celle des employeurs. Lors de son audition, elle a revendiqué un renforcement du règlement général sur la protection des données (RGPD), une meilleure réglementation en matière d’accès et de contrôle des données, un contrôle de ces systèmes algorithmiques en mettant le rôle du dialogue social en valeur, un engagement des employeurs à investir dans les compétences et les parcours professionnels des travailleurs concernés en amont et en aval des chaînes d’approvisionnement.

 

Pour terminer, elle a rappelé qu’« il est de la responsabilité de la Commission européenne de renverser la vapeur et d’empêcher la marchandisation irréversible du travail et des travailleurs de toute urgence ».

 

Décrytage

 

Nous avons toujours mis le dialogue social et la négociation collective en exergue. C’est également notre position vis-à-vis du règlement européen sur l’IA. Utiliser l’IA dans le cadre de l’emploi est une activité classée à haut risque, la biométrie et la surveillance des travailleurs ne devraient pas être autorisées. Le contrôle par l’humain, la transparence et l’amélioration des compétences des travailleurs sont incontournables si nous souhaitons une IA « digne de confiance ».

 

Participation des syndicats, dialogue social et négociation collective

 

Notre fédération revendique le renforcement des conventions collectives qui restent un moyen souple de garantir les conditions de travail. Un cadre européen doit contribuer à cette protection mais ne peut primer sur les lois nationales. Ces dernières offrent davantage de garanties, comme la loi espagnole sur la transparence algorithmique ou le modèle allemand de codécision. Quand la Commission européenne dispose que « la participation des parties prenantes à la conception et au développement de l’IA et des équipes diverses doit être encouragée » (article 69), cela n’est pas clair. L’implication des syndicats doit être effective (CHSCT ou CNSST, CSE, CT etc.) et information, consultation et participation sont tenues de faire partie des obligations de conformité. De même, la proposition de la Commission européenne ne couvre que la gouvernance de la mise en œuvre du règlement (article 56-59). Ce dernier ne mentionne que « experts et observateurs internes » (article 57.4) et non les syndicats.

 

Applications de l’IA dans le cadre de l’emploi, surveillance des travailleurs et droits des données

 

La Commission européenne occulte tous les emplois à faibles compétences générés par l’IA avec, pour exemple, les emplois aux tâches répétitives comme l’étiquetage ou la modération des données nécessaires aux systèmes d’IA. Aussi revendiquons-nous un regard sur l'effet négatif de ces nouveaux emplois générés par l’IA.

De même, la liste des applications couvertes (annexe 3.4) se limite aux systèmes utilisés pour la gestion algorithmique, notamment dans le domaine des RH, de la prise de décisions à la répartition des tâches mais les autres applications pourraient bien avoir des conséquences pour les salariés. Compte tenu des risques pour la santé et la sécurité, notre fédération exige l’application du principe de précaution et tout système d’IA devrait faire l’objet d’une étude d’impact par des autorités compétentes, avec un regard des syndicats.

Aujourd’hui, l’identification biométrique et la surveillance des travailleurs se mettent en place pour différentes raisons, de manière trop souvent disproportionnée par rapport aux besoins et affectant le travailleur.

 

Investir dans le capital humain et introduire une éthique

 

Un ingénieur ou un développeur de système d’IA ne peut être seul incriminé en raison de décisions erronées. La responsabilité doit être répartie sur l’ensemble du processus et des parties prenantes. Le choix de mise en place de système d’IA doit être transparent et l’aspect « formation » ne doit pas être négligé.

Notre organisation syndicale désapprouve donc ce projet de cadre réglementaire car il ne prévoit ni le droit à contester une décision algorithmique ou d’obtenir un « regard » humain, ni un droit de recours. La transparence est nécessaire et bien au-delà de celle prescrite par le règlement européen. Ce dernier ne prévoit de clarté que pour soutenir les « utilisateurs » (rec. 47, art. 13). Les employeurs sont responsables du niveau d’information donné aux travailleurs sur les systèmes d’IA sur le lieu de travail, les effets sur leurs données, l’organisation du travail etc. C’est là que le dialogue social trouve tout son sens.

 

Enfin, la formation sur les systèmes d’IA est essentielle pour fournir les compétences nécessaires aux salariés. Elle permet à chacun d’appréhender les conséquences sur les conditions de travail, la santé et la sécurité. La négociation collective a bien ici un rôle à jouer. L’éthique est également une valeur à introduire dans le cursus de formation, en ne se limitant pas à une formation technique mais en tenant compte d’une diversité d’aptitudes et de compétences (et ne pas s’en tenir aux sciences, technologies, ingénierie et mathématiques ou STIM).

 

 

 

(*) https://www.uniglobalunion.org/fr/

---------------------------------------------------------------------------------------------------------------------------------------------

Exemples d’effets de l’IA

----------------------------------------------------------------------------------------------------------------------------------------------

Gestion algorithmique

 

Un outil de gestion des absences au Royaume-Uni a déclenché des procédures de contrôle sans tenir compte de la légitimité des absences, allant même jusqu’à remettre l’aptitude de salariés en question. Dans le recrutement, un outil « hireview » analyse les expressions faciales, le ton de la voix et l’accent… Un autre outil comme « fama » examine le flux de médias sociaux d’un employé et signale selon un comportement « potentiellement problématique ».

 

Surveillance et contrôle

 

Dans les centres d’appel, des programmes tels que Cogito ou Voci utilisent l’IA d’analyse vocale pour fournir un retour immédiat aux salariés, leur indiquant s’ils parlent trop vite, semblent fatigués ou pas suffisamment empathiques. Les enregistrements audios mémorisent ainsi les émotions des salariés, ce qui permet aux algorithmes de vérifier que les travailleurs respectent les scripts. Les mêmes enregistrements sont retranscrits et conservés trois mois. Les syndicats n’y ont pas accès, ne pouvant ainsi vérifier la nature des données mémorisées.

 

Chez Teleperformance, sous couvert de la pandémie, l’entreprise a augmenté la surveillance du personnel. Les salariés ont reçu des caméras pour être sous surveillance permanente pendant qu’ils travaillent à domicile. Cela permet de voir des gens non autorisés qui pourraient voir l’écran de travail et de vérifier la présence de papier ou de téléphone portable dans l'espace de travail.

 

Chez Amazon, l’entreprise a mis des scanners en place, assignant des tâches aux salariés tout en surveillant leurs déplacements dans l’entrepôt et des lunettes de réalité virtuelle qui montrent aux employés où placer les objets.

Pas encore de commentaires