Participatif
ACCÈS PUBLIC
18 / 06 / 2024 | 58 vues
Frédéric Homez / Abonné
Articles : 101
Inscrit(e) le 23 / 05 / 2012

Intelligence artificielle : un feu d’artifices ?

Derrière les prouesses de l’IA, des craintes se font jour : impact sur l’emploi, concentration des capitaux, empreinte écologique et conséquences plus larges sur la société. Notre fédération s'est  penchée sur les enjeux d’une révolution annoncée. Elle en a fait un dossier complet dans le dernier numéro de journal de juin (*)

 

Si elle s’est imposée comme le sujet n°1 sur le plan technologique, la montée en puissance de l’intelligence artificielle (IA) pose des questions bien au-delà de la seule sphère informatique.
 

Qu’il s’agisse de travail, de loisirs, de démocratie, de culture, de communication ou tout simplement de rapports humains, jamais une disruption n’avait présenté un caractère aussi total, lequel oblige à tenter de définir le phénomène avant de l’analyser sous plusieurs prismes pour en souligner les enjeux, notamment syndicaux.
 

Smartphones, réfrigérateurs, voitures, machines à café, téléviseurs mais aussi appareils médicaux ou même dispositif de maquillage et de soin de la peau : l’IA est partout, pas un jour ne passe sans que ses prouesses soient vantées et l’extension de son domaine d’application salué. Mais de quoi parle-t-on exactement ? Pour le moment, les entreprises qui en font la promotion semblent n’avoir pas trouvé mieux que les cantonner à offrir une nouvelle expérience de consommation, comme le déclarait le viceprésident de Samsung Electronics France, Guillaume Rault, lors du CES 2024 (Consumer Electronic Show) de Las Vegas, en expliquant que l’IA, en apprenant de nos usages, apporte « une meilleure connexion entre les produits et les consommateurs ». Résultat : le frigo gère seul son remplissage, l’aspirateur adapte son mode à la nature des saletés et la voiture fait son chemin (presque) de manière autonome. Derrière ces jolis tours, la machine serait-elle capable d’écrire ou de parler ? Peut-elle penser, voire être consciente d’elle-même ? Pourrait-elle se substituer aux activités humaines qu’elle imite et simule ? Bref, aurait-elle les capacités d’une véritable intelligence ? Le lancement de ChatGPT en novembre 2022 a laissé la question posée et ce n’est qu’en tentant d’y répondre qu’il est possible de faire la part des réelles capacités de l’IA et des fantasmes qui y sont associés pour s’intéresser à l’une des interrogations les plus importantes : est-elle une menace pour l’emploi et les salariés ? Luc Julia, concepteur de l’assistant vocal d’Apple, Siri, l’expliquait déjà en 2019 : « Tout ce qui est mathématiques et logique et statistiques, c’est de l’IA. Siri, comme Google Maps, c’est de l’IA. Les robots un peu stupides qui vissent une vis, c’est de l’IA. Tout ce qu’on crée aujourd’hui en technologie, c’est de l’IA ! » Un dispositif comme ChatGPT n’a rien d’intelligent : il est constitué par un assemblage d’algorithmes aussi pointus que performants qui effectuent des calculs statistiques sur des quantités massives de données afin de déterminer des suites de mots probables par rapport aux données d’entrée. Rien à voir ici avec une conversation avec autrui, qui ne suppose pas de calculs probabilistes sur du big data (inaccessible de toute façon à tout être humain). C’est son association à une messagerie instantanée, qui permet aux utilisateurs de poser des questions ou de donner des « consignes » à la machine, afin d’obtenir des productions textuelles variées (de la recette de cuisine aux poèmes, en passant par les articles scientifiques ou le code informatique), qui a été le coup de génie de la start-up OpenAI et a fait le succès de l’outil. ChatGPT est une intelligence artificielle qui n’a rien d’extraordinaire, sauf qu’elle fait bien semblant d’entendre et de répondre à des questions. C’est un système classique connu sous le nom de machine learning, mais entouré d’une espèce d’aura de grande innovation, voire de révolution. Or, la révolution est de faible ampleur. ChatGPT s’appelle « GPT » parce que le « P » signifie « pretrained », signifiant que tout ce que la machine sait faire a été précalculé par des êtres humains. Des modèles géométriques pour dresser le plan des égouts de Paris à la position des constellations dans le ciel, le logiciel bénéficie de l’élan de mise en données nourri par l’humanité de longue date, qu’elle met à profit comme base de données sur laquelle repose son fonctionnement. Rien de bien nouveau ici, depuis cinquante ans (voir encadré), on assiste à la montée en puissance d’une IA dite « symbolique », c’est-à-dire programmée par un algorithme auquel on donne une série d’ordres. On parle aussi d’IA « faible », quand deux autres niveaux (« forte » et « superintelligence ») appartiennent pour le moment à la sciencefiction. Désormais, dans la lignée de ChatGPT, les grands modèles de langage sont probabilistes. Ils ont appris à partir d’une multitude de textes et en tirent des déductions vraisemblables pour répondre. Pour autant, ils ne sont pas en mesure de trouver seuls la meilleure option. La véritable intelligence artificielle générale (ou générative, selon les spécialistes ou les entrepreneurs qui en parlent), pourvu d’autonomie, n’est encore qu’une chimère. Au point que certains préfèrent maintenant parler d’« informatique avancée », d’« informatique algorithmique », d’« intelligence augmentée » ou d’« intelligence auxiliaire ». Autant de manières, tout en conservant le sigle IA, de mieux circonscrire les attentes. Une IA difficile à cerner D’autant qu’on bute ici sur la définition de ce qu’est l’intelligence, sachant qu’il est difficile, voire impossible de définir ainsi de manière exhaustive ce que les gens sont capables de faire. Au mieux peut-on considérer qu’elle ne se résume pas à une capacité individuelle, mais aussi à une forme de socialité — « être en bonne intelligence » signifiant partager une entente, une complicité ou une connivence, née dans tous les cas de l’échange et de la collaboration. Dès lors, contrairement aux articles élaborés sur Wikipédia par une communauté de rédacteurs, les textes automatiquement générés par ChatGPT ne constituent pas des savoirs collectifs, mais des informations statistiquement glanées sur Internet via un processus d’extraction de données. D’autant que l’IA reprend sans sourciller les fausses informations dominantes ou agrémente leurs productions de références scientifiques inexistantes, au risque de disséminer des aberrations sur la toile qui, seuls les spécialistes pouvant les détecter, risquent avant tout d’altérer le concept de connaissance en lui-même. Les dangers vont d’ailleurs bien au-delà de ce seul domaine (voir article p. 9). Pour le sociologue Antonio Casilli, les peurs autour de l’IA, en particulier celle d’un remplacement des hommes par les machines, détournent l’attention des vrais problèmes politiques, économiques et sociaux découlant de son avènement, comme les techniques de surveillance rendues possibles par ces technologies ou leur instrumentalisation pour fragiliser la situation des salariés. Le lancement de ChatGPT a par exemple constitué une énorme opération de communication pour OpenAI, qui en a aussi profité pour exploiter le travail gratuit de ses millions d’utilisateurs (cent millions de comptes enregistrés à peine deux mois après !). Ces derniers restent convaincus d’expérimenter un nouveau gadget, alors que c’est le système qui se nourrit de leurs requêtes pour améliorer les performances de ses algorithmes selon le principe bien connu « si c’est gratuit, c’est vous le produit ! ». Pour le syndicalisme et pour notre organisation, il convient de se saisir des problématiques liées à l’IA dans leur ensemble pour en traiter les véritables enjeux, tant leurs multiples dimensions amènent non seulement à réfléchir au modèle de société de demain, mais s’avèrent in fine toucher les salariés de manière multiple

 

IA et emploi : menace ou opportunité ?
 

Derrière le rêve de machines intelligentes libérant l’humanité du travail, la réalité de l’IA pose de nombreuses questions quant à son impact sur le monde du travail.

 

Une intelligence pas très verte


Servie à toutes les sauces, l’IA est également auscultée sous toutes ses coutures. Enfin, presque. L’empreinte environnementale de cette technologie forme une sorte d’angle mort d’autant plus curieux que l’époque est celle d’une prise de conscience écologique. Passée au tamis vert, l’IA est probablement plus inquiétante qu’au travers d’autres filtres.

 

Une problématique globale
 

Si l’IA inquiète les salariés quant à l’avenir de leur emploi, elle aura des répercussions majeures sur de nombreux autres plans, et plus particulièrement celui de la démocratie, de la question militaire et du domaine artistique.

 

Des règles... qui ne règlent rien

 

Face aux multiples dangers et incertitudes liés à l’IA, instaurer règles et garde-fous semble un réflexe sain.

 

Mais protéger qui, et de quoi ?

 

L’Union européenne est parvenue, en décembre 2023, à un accord européen pour réguler l’Intelligence artificielle, baptisé IA Act. Ce texte, présenté comme « historique » par la Commission européenne, est censé favoriser l’innovation en Europe, tout en limitant les possibles dérives de ces technologies très avancées.

 

Le principe ?

 

Imposer aux systèmes jugés à « haut risque », tels que ceux utilisés dans l’éducation, les ressources humaines ou le maintien de l’ordre, une liste de règles dans leur conception et leur utilisation. Il prévoit également un encadrement particulier pour les systèmes d’IA interagissant avec les humains, les obligeant à informer l’utilisateur qu’il est en relation avec une machine.


L’Elysée a salué l’avancée pour mieux ensuite s’inquiéter de l’aspect pionnier du texte, soulignant que les grands concurrents de la France et de l’Europe, à savoir USA, Chine et Grande-Bretagne, ne seront pas bridés, eux, par des règles contraignantes et pourraient de ce fait s’adjuger des avantages qui échapperont au vieux continent. OpenAI et les autres géants américains de l'IA appellent de leurs vœux de nouvelles règles, tant qu'elles « ne ralentissent pas certains des progrès incroyables qui se passent », a précisé Sam Altman, patron de la start-up.

 

Au niveau de l’Hexagone, le premier rapport parlementaire consacré à l'IA, publié le 14 février 2024, ne s’est pas distingué par son audace, suggérant par exemple de faire de la CNIL l'autorité régulatrice en la matière, tout en considérant qu’elle ne dispose pas des moyens adéquats.

 

Parmi les autres préconisations des députés figurent notamment l'étiquetage des contenus produits par une IA générative en matière de propagande électorale, la nomination d'un ambassadeur dans ce domaine « pour suivre les discussions internationales autour de sa régulation » ou la pénalisation des hypertrucages (plus connus sous l’appellation « deepfakes » en anglais), dès lors qu'ils sont réalisés sans le consentement de la personne concernée. Là encore, si l’intention est louable, la mise en application s’annonce plus complexe et les outils de contrôle, comme l’IA, ont encore des progrès à réaliser.

 

Pour notre organisation syndicale , cela donne surtout le temps d’anticiper et de faire évoluer les protections au plus près des besoins des salariés.

 

(*) pour plus de détails: 

Télécharger le journal

Pas encore de commentaires