Participatif
ACCÈS PUBLIC
21 / 02 / 2017 | 129 vues
Ariel Dahan / Membre
Articles : 11
Inscrit(e) le 13 / 09 / 2009

Le statut personnel des robots et autres intelligences artificielles : droits, devoirs, actions et responsabilités

La dernière théorie à la mode sur l’intégration de l’intelligence artificielle dans notre monde est que celle-ci va s’imposer pour toutes les tâches évoluées. Contrairement à la théorie à la base des travaux sur elle, la technologie a tellement évolué que la machine pense parfois plus vite que l’homme.

Que ce soit en confrontation au jeux d’échecs, de go, en simulation de combat aérien ou désormais pour le diagnostic médical ou du conseil juridique, l’intelligence artificielle est amenée à remplir des tâches évoluées que l’on pensait jadis être l’apanage d’homo sapiens sapiens. Alors qu’il y a encore 5 ans, l’intelligence artificielle était conçue pour remplacer l’humain dans des tâches simples, peu évoluées et peu gratifiantes, la théorie actuelle indique qu'elle remplacera préférentiellement les fonctions complexes. Vu le développement technologique, il semble urgent de réfléchir au statut des objets à intelligence artificielle évoluée, robots ou drones.

En effet, il est loin le temps des trois lois de la robotique explorées par Isaac Asimov. Nous approchons du moment où la technologie nous permet d’évoluer directement et d’interagir directement avec les intelligences artificielles.

C’est la raison pour laquelle il est urgent de penser le statut de l’intelligence artificielle dans toutes ses interactions. Il est indispensable d’intégrer l’idée du danger potentiel de la technologie pour l’humain si elle n’est pas asservie à un corpus de règles spécifiques, au même titre que l’humain est asservi à un corpus de règles, qu’elles soient morales, religieuses ou civiles.

Historique, contexte et faiblesse des premières lois de la robotique

Isaac Asimov a conçu des univers où les robots agissent seuls, avec leur intelligence propre. Cet univers est optimiste. Bien programmés, les robots ne sont pas hostiles à l’homme. Rappelons ces lois.
  • Loi zéro : un robot ne peut pas porter atteinte à l'humanité, ni par son inaction permettre que l'humanité soit exposée au danger.
  • Première loi : un robot ne peut porter atteinte à un être humain, ni en restant passif permettre qu'un être humain soit exposé au danger, sauf contradiction avec la loi zéro.
  • Deuxième loi : un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi ou la loi zéro.
  • Troisième loi : un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi ou la loi zéro.
Une lecture rapide de ces lois montre la limite (volontaire) imposée aux comportements du robot : ces lois créent une hiérarchie descendante, qui s’impose à tous, y compris à l’humain.

Ces lois supposent en effet que le robot fasse un choix positif :
  • son action ne peut pas entraîner un acte néfaste à l’humanité ou à un être humain,
  • et son inaction ne peut pas avoir pour effet de permettre la commission d’un acte néfaste.

Ce qui obligera le robot à intervenir.

Or, la deuxième loi autorise le robot à choisir de désobéir à l’ordre d’un humain en cas de conflit avec les lois zéro et première. Cette loi porte en elle tout le ferment des films catastrophes : la désobéissance du robot à l’humain.

Il apparaît que cette loi aurait dû être réécrite à l’envers : l’ordre donné par l’humain doit être supérieur, et le robot ne doit pas avoir de capacité d’action autonome contre l’humain. L’hypothèse la plus évidente sera celle du comportement dangereux pour lui-même. Si un humain donne à un robot un ordre de maintenir la conduite d’un véhicule dans des conditions accidentogènes, la deuxième loi permet au robot de désobéir et de refuser d’agir compte tenu du danger. Mais il n’y a pas de possibilité de forçage manuel de cette loi par l’humain.

D’autant que la deuxième loi exprime une alternative « possible ». Le robot « peut » s’affranchir de l’ordre donné.

Or, le droit « humain » n’accepte pas ce renfermement de la liberté individuelle. Il n’accepte pas que le robot prenne le pas sur l’humain, y compris pour le protéger. L’humain doit conserver un droit moral de contrevenir aux lois supérieures. C’est précisément le sens du libre-arbitre. Cette notion du libre-arbitre suppose de pouvoir trancher entre un choix libre mais illégitime et un choix libre légitime. Ce que ne saura pas faire le robot s’il peut simplement choisir entre suivre l’ordre et l’interrompre.

La question est donc de savoir si le robot conserve un libre-arbitre ou si son comportement est strictement prédéterminé.

Ces « trois » lois (en fait quatre avec la loi zéro) ne permettent pas au robot d’intégrer le comportement sacrificiel ou le comportement à risque de l’humain. C’est ce qui fait d’ailleurs le fondement scénaristique du film culte (et kitsch) Saturn 3 avec Kirk Douglas et Farah Fawcett, où le robot, épris de la blonde et éprouvant des sentiments supposément humains (jalousie, désir…) est néanmoins incapable de concevoir le principe du sacrifice.

Or, l’absence de compréhension de la notion de sacrifice ouvre la voie à des scénarios de contrôle du comportement humain par une société super-policée, régentée par un ou plusieurs ordinateur omniscients (l’intelligence artificielle absolue (mythe repris par le film Tron ou en bande dessinée, par le robot Ultron) développé par son créateur pour protéger l’humain et développant la logique au-delà de l’humanité pour asservir l’humain au profit de l’intelligence artificielle. C’est l’essentiel des scénarios développés sur le thème de la révolte des robots qui, pour protéger l’humain trop faible ou trop dangereux pour l’humanité, cherchent à le remplacer définitivement dans toutes ses fonctions.

L’approche strictement hiérarchique apparaît vite insuffisante pour conditionner le comportement d’un système robotique intelligent de manière suffisamment fiable, capable d’évoluer sans contrôle humain.

Les « nouvelles » lois de la robotique

L'écrivain Roger MacBride Allen a développé une nouvelle rédaction de ces lois, en en changeant singulièrement le fonctionnement.

  • Nouvelle première loi : un robot ne peut porter atteinte à un être humain
  • Nouvelle deuxième loi : un robot doit coopérer avec les êtres humains, sauf si une telle coopération est en contradiction avec la première loi.
  • Nouvelle troisième loi : un robot doit protéger son existence, si cette protection n'est pas en contradiction avec la première ou la deuxième loi.
  • Nouvelle quatrième loi : un robot peut agir à sa guise, hormis si ses actions sont en contradiction avec la première, la deuxième ou la troisième loi.

On observe que l’obligation de coopération avec l’humain a remplacé l’obéissance-asservissement du robot à l’humain. Le robot est devenu un co-opérateur et plus un esclave. Par ailleurs, la quatrième loi crée une liberté d’action du robot, s’il n’est pas en contradiction avec une loi supérieure. Ainsi, le robot acquiert un premier degré de liberté : la liberté d’agir à sa guise. Le premier pas vers la liberté de conscience ? Oui, si tant est que le comportement indépendant du robot puisse être réellement indépendant.

Enfin, la notion d’humanité a disparu. Seul l’individu est considéré dans l’action du robot et pas le groupe social des humains. Cette évolution a évité un écueil : la faculté que le robot prenne la main sur l’individu dans un but « humanitaire » supra-individuel.

Par ailleurs, la rédaction de la loi nouvelle interdit au robot de prendre la main dans la hiérarchie décisionnaire. Le système de loi qui lui est imposé est un système à blocage et non à déclenchement.

De plus, la quatrième loi donne un semblant de liberté au robot qui peut agir librement lorsqu’il a fini sa tâche, sous réserve de ne pas entrer en conflit avec les trois lois de priorité antérieures.

Ainsi les premières lois étaient des lois de choix alternatif : le robot doit tout faire pour éviter un dommage à l’humain. Mais il peut aller à l’encontre de l’ordre humain pour éviter un dommage à l’humain. L’intelligence artificielle vue par Asimov peut donc décider de désobéir à l’ordre humain, dans l’intérêt de l’humain.

Les nouvelles lois sont des lois de déconnection. Si le robot entre en conflit avec une loi supérieure, il perd automatiquement sa liberté d’action et doit théoriquement s’interrompre. Mais s’il n’entre pas en conflit, il conserve sa liberté d’action totale. Dont on peut se demander en quoi elle devra consister, autrement qu’à aller rechercher sa sauvegarde (donc sa recharge et son entretien).

Au-delà de la théorie fictionnelle des premiers auteurs, il est intéressant de se confronter à la réalité des progrès de l’intelligence artificielle. Précisément, les derniers progrès de l’informatique et de la robotique permettent d’envisager des situations où l’intelligence artificielle sera plus performante si elle est autorisée à transgresser certaines lois comportementales considérées comme des verrous de sécurité. Ainsi, le GeorgIA Tech a élaboré un protocole mettant en évidence le fait qu’une horde de robots optimisait son fonctionnement lorsque certains d’entre eux s’affranchissaient de certaines règles anticollision.

La robotique et l’interface homme/machine

L’intelligence artificielle a déjà émergé dans le monde humain. Elle était jusqu’à présent cantonnée à des situations de total affranchissement. Ainsi de l’algorithme permettant d’anticiper les pointes de demande d’ascenseur dans les tours. Ou les « robots » d’ordres de bourse, qui ont permis le trading haute fréquence, les opérations automatiques strictement techniques, qui permettent aux traders de réaliser des fortunes sur des variations infimes de valeur.

L’intelligence artificielle est également entrée dans les véhicules, où elle détecte les situations de freinage d’urgence, mettent en pré-tension les ceintures de sécurité, activent l’ABS et appellent les services d’urgence…

Mais l’avenir va au-delà de l’asservissement de l’intelligence artificielle à l’humain. La logique de son développement sera à terme le remplacement progressif de l’activité humaine par une intelligence artificielle, à travers le traitement massif des données numériques, le « big data » . Le monde commercial repose sur ces algorithmes de recherche qui évaluent notre comportement numérique, nos mots-clefs de recherche et nos centres d’intérêt pour nous inonder de promotions commerciales ciblées.

C’est la raison pour laquelle il faut dès à présent anticiper l’évolution de l’intelligence artificielle et considérer qu’elle aura rapidement la capacité de développer une autonomie suffisante. L’anticipation oblige à penser le statut des intelligences artificielles futures.

Des règles de définition statutaire du robot et de l’humain ou du vivant

Préalablement à toute définition du statut du robot (ou de l’intelligence artificielle) par opposition à l’humain ou au vivant, il faut définir l’être humain.

  • Vers une définition non-anthropomorphique, pour prendre en considération les handicaps éventuels

Depuis l’antiquité jusqu’à la Première Guerre Mondiale, l’être humain était limité à l’être raisonné viable. La raison étant que la médecine ne parvenait pas à maintenir en vie l’individu dont l’intégrité était trop fortement altérée, à la naissance ou par accident. Les humains dégradés, ananthropomorphes ou aliénés ont vite été catégorisés comme des bêtes de foire, à peine bons à être exposés. Ainsi des siamois, des malformations congénitales et autres handicaps.

Pourtant, ils vivent et depuis les « gueules cassées » de la Première Guerre Mondiale, l’humanité a fait un premier pas vers l’acceptation d’une conception de l’être humain qui ne serait plus strictement anthropomorphe. Le handicap (acquis ou inné) a été accepté dans quasiment toutes les civilisations. La plupart des civilisations prend en charge l’humain amoindri, soit pour le « compléter » (prothèses, implants…) soit pour lui accorder des droits sociaux. Stephen Hawkings fait incontestablement partie du genre humain. Au même titre qu’Adriana Karambeu ou Beyoncé… Oscar Pistorius a eu la même notoriété que Guy Drut, ancien ministre des sports après avoir couru le 110 m/haies, ou Hussein Bolt. Qu’il ait des jambes artificielles, quoique dépourvues d’intelligence, ne diminue pas son image.

  • Intégrer l’idée du complément à l’humain

Le robot n’est pas toujours conçu comme un tout indépendant. Dans l’industrie, il est souvent limité à une seule tâche qui vient en asservissement à l’humain (transport, soudure). De même, les progrès de la robotique ont permis de développer des organes artificiels en réparation de l’humain. Sont-ce déjà des « intelligences artificielles » ? Incontestablement, ces prothèses ou implants intègrent en eux de l’intelligence artificielle. Fort heureusement, cette intelligence artificielle est contingente et strictement limitée à l’ordre humain, voire à la simple sollicitation musculaire. Il n’y a pas encore de « volonté » autonome dans ces dispositifs. On n’imagine pas, sauf à Hollywood dans un scénario de film d’horreur, une main artificielle se retourner contre son porteur. Pourtant, le risque de prise de contrôle à distance des dispositifs médicaux implantés est pris très au sérieux car il apparaît que les pacemakers et autres dispositifs implantés (implant cochléaire pour suppléer à la perte d’audition, implant neuronal parkinsonien pour court-circuiter les tremblements erratiques, implant rétinien pour suppléer à certaines cécités et bientôt implants mnésiques ou cognitifs) n’intègrent aucune protection anti-intrusion. Le moindre câble de synchronisation permettrait de transférer des données malicieuses à l’appareil, potentiellement dangereuses pour l’humain.

À l’heure de l’homme augmenté, la question doit se poser du contenu minimal des algorithmes de ces dispositifs.

  • Dépasser la notion d’humain pour s’intéresser à la notion de vivant

Dans un statut du robot complet, il est indispensable d’intégrer par défaut le statut de l’être humain en ce qu’il doit être au sommet de toute hiérarchie.

De même que dans les textes bibliques, Dieu donne la Terre aux humains en les plaçant au contrôle de l’ensemble de la création, avec pour injonction de croître et de prospérer, il faudra intégrer dans nos corpus législatifs une place pour l’intelligence artificielle et déterminer si elle nous est asservie ou supérieure. Mais compte tenu de la différence d’essence entre le vivant et le robot, il faudra également s’intéresser au vivant.

Définition du vivant

Qu’est-ce donc que le vivant ? Une définition scientifique est-elle suffisante ?

  • Distinction animal, végétal, utile, nuisible, domestique, sauvage, amical et dangereux

Il est des définitions évidentes, issues des sciences naturelles, de la science de la classification des espèces : l’animal, le végétal, (les champignons étant un intermédiaire).

Ne protéger que le règne animal serait encore un non-sens : le végétal se trouvera dans certaines situations en grande précarité face au robot (ainsi d’une plante rare, d’un baobab millénaire). Il sera donc indispensable de créer un arbre de hiérarchie objectif permettant à toute intelligence artificielle de déterminer son comportement face à l’élément qu’elle rencontre. Cet arbre de hiérarchie devrait être universel dans un premier temps, puis subjectif et lié aux fonctions de l’intelligence artificielle.

Ainsi, un robot tondeuse doit accepter de terrasser son lot d’herbes, intégrant au passage une quantité non-négligeable d’insectes. Mais pas de doigts d’enfants. La distinction est parfois complexe. Elle dépendra des capteurs embarqués.

De l’autre côté de la chaîne de commandement, un robot gardien de prison doit se faire autoriser l’usage d’une certaine coercition, pour contraindre les prisonniers, dont on peut supposer qu’ils seront d’autant plus violents qu’ils n’auront pas à faire à un humain.

Dans la logique ultime, le robot militaire, porteur d’arme, devra être autorisé à enfreindre les lois essentielles de la robotique (loi première d’Asimov) et de pouvoir éventuellement tuer un être humain, s’il est qualifié d’ennemi.

De même, parmi les vivants, il est des espèces que le robot devra faire passer après d’autres. Ainsi des « nuisibles », ou des « dangereux », par opposition aux « domestiques ». Ou, dans le cadre de robots de combat, les humains « ennemis » par opposition aux humains « amis ». Se posera alors la question de savoir comment les reconnaître.

Aussi, la seule définition scientifique parviendra vite à un cul de sac, empêchant de prendre en considération d’autres situations que strictement vivant ou inanimé. La définition du vivant passera notamment par celle du « réanimable ». Une intelligence artificielle doit avoir à l’esprit qu’un vivant inanimé peut évoluer vers deux états distincts : mort clinique ou réanimé. Distinguo essentiel, ne serait-ce que pour permettre au robot secouriste éventuel de « tenter » une réanimation sur un individu qu’il détecte mort.

La notion du vivant devra donc être bien réfléchie. Sans une définition suffisamment pensée, rigoureuse tout en permettant la flexibilité des situations, le robot ne pourra pas trouver sa place dans notre univers législatif ou réglementaire.

Définition de l’inanimé

Avoir défini le vivant ne suffit pas. Il faudra aussi définir l’inanimé et faire la différence entre ce que le droit appelle le « res nullius » et l’objet inanimé.

De même, dans l’inanimé, l’intelligence artificielle devra distinguer l’inanimé prioritaire (la denrée périssable, le produit congelé et la matière précieuse) et l’inanimé non-prioritaire. L’inanimé par essence (une pierre) et l’inanimé par destination (un pneu sur une voiture).

Mais pour avancer dans son statut, l’intelligence artificielle devra également se définir par rapport à l’objet inanimé. Car une intelligence artificielle, qu’elle soit portée par un « robot » ou uniquement installée dans un serveur, n’est incontestablement pas vivante au sens taxinomique. Mais elle n’est pas non plus inanimée.

Définition de l’intelligence artificielle / robot / drone

  • Distinction intelligence artificielle /drone

Tout drone n’est pas intelligence artificielle et toute intelligence artificielle n’est pas autonome dans son déplacement. Si de l’intelligence artificielle se cache dans mon téléphone portable, est-ce pour autant que mon téléphone portable doit avoir le même statut que le serveur sur lequel seront exploités les algorithmes comportementaux les plus complexes ?

Il est probable qu’à terme une hiérarchie doive être instaurée entre les intelligences artificielles selon leur degré d’autonomie et leur niveau d’apprentissage. Mais tant que le fonctionnement d’une intelligence artificielle pourra être transposé et reproduit à l’identique sans perte d’information d’une unité à une autre, elle restera une machine.

On peut chercher à faire une analogie entre l’âme humaine et l’intelligence artificielle du robot. Même s’il est difficile d’appréhender l’âme sans l’humain, alors que l’intelligence artificielle peut être envisagée sans support corporel.

Ainsi l’intelligence artificielle est-elle essentiellement réduite aux algorithmes alors que le robot ou le drone sont les supports techniques permettant la réalisation d’une ou plusieurs fonctions.

Autrement dit, le statut de l’intelligence artificielle sera très probablement un statut de caste où les différents agents seront différemment classés en fonction de leurs prérogatives et de leurs fonctions.

Verrou de loyauté

À l’instar du chien domestique, dont le comportement a été modifié par des siècles de domestication et qui intègre dans son cortex cérébral une zone de loyauté surdimensionnée dont l’activation (par la voie du maître, son odeur ou sa vision) lui procure une réelle sensation de bien-être, il est indispensable que l’intelligence artificielle intègre dans son noyau logiciel un « verrou de loyauté » qui lui interdise de se retourner contre son maître et qui le prédispose automatiquement à répondre positivement aux sollicitations de son maître.

Définition des prérogatives et des actions autorisées

Selon les situations, les intelligences artificielles / robots / drones auront des prérogatives distinctes et des domaines et prérogatives d’actions autorisées variables.

Ainsi un drone aérien dispose de prérogatives spécifiques, selon qu’il évolue dans un espace aérien contrôlé ou qu’il évolue dans un espace aérien non-contrôlé. Ces prérogatives lui octroient sinon des priorités du moins des privilèges conformément aux règles de l’air [8]. La règle « voir et éviter » s’applique indifféremment aux aéronefs pilotés par des humains ou à ceux sans humain à bord. Ce qui entraîne précisément des conséquences pour le pilotage des drones et leurs conditions d’évolution. Certains pays autoriseront le vol en immersion. D’autres le refuseront.

Il disposera également de prérogatives différentes selon sa fonction.

  • Un drone de combat et de supériorité aérienne dispose naturellement d’armes et du droit de les utiliser. Même si à l’heure actuelle on ne connaît que des drones « commandés » par un opérateur à distance, il existe des technologies d’acquisition de cible, qui permettent, une fois intégrées à des tourelles d’armes automatiques, de créer un automate de tir automatisé qui ciblera toute personne détectée comme étant entrée illégalement dans son champs d’intervention. Ces drones sont déjà en activité dans certaines armées, pour réaliser une protection périmétrique absolue, dans des situations où il n’y a pas de risque d’interprétation : un no-man’s land ne doit pas être traversé. Le tir, qu’il soit automatique ou sur ordre humain, n’a pas à être interprété. L’ordre peut être « absolu » en zone de guerre. La prérogative fixée devra autoriser le robot à s’affranchir de la règle 1. Mais cette règle devra restée programmée en toutes circonstances pour que le robot puisse être contrôlable s’il lui arrivait de sortir de son champs d’intervention.
  • De même pour un robot d’intervention policière qui devra avoir des pouvoirs de contrainte et d’interception. Un drone d’intervention sanitaire d’urgence (pompier, SAMU, évacuation…) aura des prérogatives de déplacement l’autorisant probablement à s’affranchir de certaines règles de priorité.

Une autre problématique tient au fait que d’un pays à un autre, le contrôle aérien mis en place peut être différent. Il existe en effet deux grands espaces aériens normatifs : l’espace IATA (international) et l’espace EASA (européen, qui prend des dispositions plus contraignantes que l'IATA). Au-delà et en dehors de ces espaces, le niveau normatif est très relatif.

Ce qui milite à terme pour un statut « international » de l’intelligence artificielle en général, qui puisse être décorrélé de tout droit local.

Ce n’est pas pour rien que les évolutions récentes les plus innovantes en matière d’utilisation des drones se font en dehors des espaces aériens contrôlés.

Toutefois, la France vient d’autoriser un service de courrier mis en place par la Poste en zone faiblement peuplée, en plein espace EASA. Solution qui devra être regardée dans le long terme.

Il en sera de même pour les drones roulants (VTM) ou « véhicules à délégation de conduite » visés par la « Commission économique pour l’Europe du Conseil économique et social des Nations Unis » (ECE-UNECE) qui s’est prononcée le 23 mars 2014 pour l’intégration progressive de véhicules autonomes dans la circulation routière et la réforme de la Convention de Vienne de 1968 sur le code de la route, lequel amendement est entré en vigueur le 23 mars 2016. Si ce n’est que le droit routier prévoit que tous les véhicules terrestres sont soumis au code de la route à moins qu’ils ne circulent sur des voies privées ou des voies propres. Ces VTM devront donc respecter les priorités légales, dont ils pourront parfois être les bénéficiaires. En effet, si l’on souhaite une bonne intégration des drones roulants, encore faut-il que leurs comportements soient prévisibles et par conséquence qu’ils prennent leurs priorités lorsqu’elles leur sont accordées localement.

Bien évidemment, la règle ultime de prudence imposera de renoncer à la priorité si un véhicule tiers est en situation d’infraction.

Application normale de la troisième loi d’Asimov.

Des règles de définition du comportement : robot contre robot et robot contre humain

Les comportements de robot à robot sont en théorie prévisibles et reposent sur une communication en réseau à l’approche des zones de confrontation (carrefours, dépassement, zones d’échange ou d’interaction…). Cette communication en réseau permet aux robots de s’attribuer des référentiels de priorité, qui leur permettent de fluidifier leurs interactions, à l’instar du comportement des fourmis. Sous réserve d’accident, panne ou déréglage.

Il faudra donc insérer dans leur algorithme une règle de blocage d’autoprotection.

C’est ce qu’on appelle le « dilemme du tramway » : un conducteur de tramway perd le contrôle et se trouve face à un embranchement. À droite il écrase un piéton. À gauche il en écrase cinq. Quel embranchement choisir ? Aucun choix n’est bon. Un choix est pire que les autres en ce qu’il accroît la sinistralité. Il augmente le coût social. Ce choix éthique pris en urgence par un humain va devoir être intégré dans les algorithmes de décision des intelligences artificielles.

Ensuite, il faudra probablement gérer les conséquences du choix pour l’intelligence artificielle au même titre que pour l’humain. Notamment au regard du fait que l’humain optera le plus souvent de manière prioritaire pour la sauvegarde de sa propre vie et qu’il est fondé à attendre du robot qui le transporte une même option.

À l’heure où l’on envisage des avions pilotés par des intelligences artificielles pour éviter de subir les détournements aériens, se posera la question identique de savoir s’il faut intégrer dans le pilote automatique l’instinct de survie qui l’obligerait à obéir au pirate aérien.
 
Le comportement humain/robot est plus complexe. Il devra s’analyser différemment dans les deux sens et reposera partiellement sur l’analyse de l’émotion.

Il faudra préparer les intelligences artificielles au comportement erratique des êtres vivants. Tel humain souhaitera laisser une priorité naturelle au drone roulant qui en bénéficie. D’autres la lui refuseront par principe, considérant que la machine doit s’effacer sur l’humain. D’autres enfin ne respecteront pas plus la machine qu’ils ne respectent actuellement l’humain, dès lors qu’ils s’affranchissent déjà des règles de priorité face à des humains.

Ces trois comportements devront être rendus prévisibles. Mais il faudra également pouvoir indiquer à l’intelligence artificielle que le même individu a la possibilité de choisir n’importe lequel des trois comportements en permanence. C’est le propre du libre-arbitre, qui est tranché le plus souvent en fonction de l’état émotionnel de l’individu plus qu’en fonction de choix rationnels.

Or, la notion de l’émotion paraît précisément la plus difficile à transcrire sous forme algorithmique.

Il faudra également préparer les humains aux intelligences artificielles. Comment un humain « non-opérateur » pourra-il déterminer si le robot qu’il croise laisse passer un piéton ou un véhicule ou s’il réfléchit à son prochain déplacement ? Les dernières innovations prévoient que les véhicules automatiques porteront des indicateurs optiques sur leur face avant, permettant de dessiner un visage exprimant l’intention du drone et de se faire comprendre du piéton. Cette solution de communication « low profile » est intéressante. Elle permet à l’humain non-opérateur d’interagir avec le robot. Interaction qui devra être rendue possible en toutes circonstances.

Des règles de hiérarchie des normes


Au-delà d’une simple hiérarchisation des règles à travers un filtre logiciel, il faudra apprendre aux intelligences artificielles le minimum de la hiérarchie des normes, pour pouvoir pondérer les règles selon leur degré d’impérium, notamment pour déterminer à quel moment l’instruction ou l’ordre donné doit être suspendu ou annulé.

Si le juriste (humain) connaît naturellement ce principe de hiérarchie des normes et sait comment le gérer, voire s’en affranchir (directives interprétatives, circulaires…), l’intelligence artificielle ne connaîtra que les informations qui lui seront injectées. L’apprentissage de la hiérarchie des normes n’est pas si difficile en soi mais n’a pas encore été tentée de manière systématique. Il s’agira essentiellement de gérer les situations limites ou extrêmes, qui nécessiteront, en plus d’un algorithme strict, une capacité d’apprentissage et d’expérience.

La question étant (toujours) de déterminer où se situent l’imperium humain et l’imperium artificiel. L’intelligence artificielle peut-elle obéir à un ordre direct de contravention à une règle, ou à commande de blocage ? Doit-elle désobéir à un ordre direct, en considération de situations prioritaires (danger pour l’humain, « nouvelle deuxième loi robotique). La réponse à cette question conditionnera le monde des intelligences artificielles.

Autre question : qui devra être reconnu comme l’humain autorisé à interagir ? Doit-on autoriser tous les humains à interagir avec toutes les intelligences artificielles ? À leur donner des instructions ?

Faudra-il considérer la nécessité de limiter les instructions à un certain nombre de personnes, les opérateurs « légitimes » ?

Il faudra sûrement instituer des opérateurs « légitimes » mais le robot doit, par essence, obéir à l’humain, de sorte que lors des phases d’interaction avec l’humain, l’intelligence artificielle devra se soumettre temporairement à la volonté de l’humain qu’elle rencontre, pourvu que cette volonté soit « légitime ».

Il faudra donc définir la notion d’intervenant « légitime ».

L’intervenant légitime est l’humain qui se trouve en situation d’interaction avec une intelligence artificielle et qui doit prendre son contrôle temporaire dans une situation de conflit d’interaction soit pour préserver un être humain, soit pour préserver ses intérêts personnels ou ceux d’une tierce personne (notion assez proche de celle de l’autodéfense).

Faudra-il également intégrer à certaines intelligences artificielles la faculté de choisir de s’affranchir de manière marginale de certaines lois ? C’est une question qui est étudiée dans de nombreux laboratoires, qui remarquent que lorsqu’un petit nombre de robots est autorisé à s’affranchir de règles anti-collision, le déplacement de l’ensemble devient plus fluide, plus rapide donc plus productif.

Règles de priorité dans les comportements : fantasme de l’algorithme sacrificateur ?

Selon les situations, toutes les lois de priorité ne pourront pas s’appliquer. Autant un robot pompier intervenant en urgence dans un univers ouvert (ville) peut choisir de laisser une priorité à un humain, bien qu’il eut été loisible de ne pas la lui laisser, autant le même robot pompier intervenant dans un univers confiné (navire, usine…) ne devra pas pouvoir céder de priorité et devra bénéficier d’une priorité absolue, pouvant se transcrire au prix d’une diminution du respect de la priorité au respect de l’humain, pour la simple raison que l’urgence dans cette situation sera avant tout de limiter la propagation de l’incendie qui peut entraîner la perte de tous les passagers humains, puis d’éteindre le feu avant de s’intéresser à l’intégrité d’un individu en général. La protection du plus grand nombre devenant prioritaire face à la protection d’un seul individu. Cette compréhension supposera des circonstances particulières (urgence, alarme déclenchée, évacuation demandée…). L’algorithme de codage de cet ordre circonstanciel risque d’être compliqué à analyser, de même que l’algorithme d’arrêt d’urgence dans ces situations critiques.

C’est la même problématique qui se posera pour les algorithmes des véhicules automatisés : seront-ils autorisés à sacrifier leurs passagers face à une situation de danger pour autrui ? Seront-ils autorisés au contraire à protéger leurs passagers au péril d’autrui ? Le dilemme du tramway se répercutera au quotidien dans le choix de l’arbre décisionnel des intelligences artificielles et dans la programmation de leurs algorithmes de décision. Une part de morale et d’éthique devra être intégrée dans ces algorithmes, mais également aussi une part d’instinct de survie pour son propre compte.

Des règles de limitation de leur reproductibilité

La question de la reproductibilité des intelligences artificielles n’est pas une question réservée aux cinéastes. Le principe de l’intelligence artificielle est sa très facile reproductibilité par transfert direct des logarithmes et la mise en réseau des différents appareils.

Cette situation est inacceptable pour l’humain compte tenu de sa très faible reproductibilité, sa non-interchangeabilité réelle et le temps immense de sa formation. L’intelligence artificielle se trouve de fait dans une situation de supériorité inacceptable pour l’humanité.

Par ailleurs, le défi des nanotechnologies impose de limiter la durée de vie et la capacité de reproductibilité des nano-robots. En effet, l’hypothèse de fonctionnement des nanotechnologies, des « nanites », repose sur l’idée qu’ils sont conçus afin de proliférer de manière virale, pour réaliser plus vite une tâche distribuée. Mais ces « nanites », robots de nanotechnologie initialement conçus pour une seule fonction, n’ont pas nécessairement de fonction de désactivation automatique. Le risque présenté par les scientifiques serait la prolifération des robots sans contrôle humain. Des robots conçus pour une fonction déterminée, ne permettant pas à l’humain de reprendre la main.

C’est la raison pour laquelle il faut intégrer dans le code de base des intelligences artificielles le principe de leur non-reproductibilité. De même qu’il faut l’intégrer dans son statut légal.

Il en est de même pour la faculté d’auto-évolution des intelligences artificielles. Même si cette faculté d’évolution spontanée reste encore du domaine du fantasme technologique, il est légitime de considérer que cette évolution spontanée sera un jour une donnée technologique acquise. Au sens éthique, il faudra s’interroger sur la libération de cette faculté, l’auto-évolution ne devant pas être rendue possible sans contrôle humain.

Des règles de responsabilité

Il n’y a pas d’analyse juridique des normes sans définition des responsabilités.
Une intelligence artificielle / robot / drone peut-il être un sujet de responsabilité autonome ?

N’est-il que l’expression de la responsabilité de son opérateur en vertu du principe de responsabilité des faits dont on a la garde ? De son créateur ou programmateur sous le visa de la responsabilité du risque de développement ?

Peut-on envisager le principe général de la responsabilité de son propriétaire du fait des choses ? Faudra-il au rebours créer une fonction de « répondant » légal des intelligences artificielles ?

Si certaines situations semblent être évidentes, d’autres seront plus complexes.

  • Le simple dysfonctionnement ou bug relèvera de la responsabilité assurantielle de l’intelligence artificielle. Il suffira  dans ce cas de prévoir une obligation d’assurance de toutes les intelligences artificielles.
  • Le cas de l’erreur de manipulation ou d’instruction de l’opérateur est également simple à gérer.
  • Plus complexe sera le cas d’erreur d’interprétation directement commise par l’intelligence artificielle. Ainsi, le défaut de prise en compte d’un capteur optique a été responsable du premier accident de la « Google car » qui n’a pas vu venir un camion. Risque de développement !
  • Mais qu’en sera-t-il du comportement du drone policier armé qui décidera d’ouvrir le feu sur un civil parce qu’il l’aura pris pour un malfaiteur armé ? Cette erreur sera-elle catégorisée comme un simple « risque de développement » ? Comme une erreur de programmation ? Engagera-t’elle la responsabilité du propriétaire ? De l’opérateur ?

Le contentieux qui s’ouvrira devra nécessairement gérer toutes ces problématiques. S’il est possible que le droit actuel permette d’y répondre, il semble logique que le droit s’adapte et qu’il prenne en considération la nature de l’intelligence artificielle, de ses capacités d’autonomie et des risques d’interaction préjudiciable avec l’humain.

Plus l’intégration des intelligences artificielles dans la vie humaine sera poussée, plus la question de la responsabilité sera importante.

Aujourd’hui, certains programmateurs pensent des systèmes experts permettant de s’affranchir des compétences humaines les plus évoluées (avocat, juge, médecin, pilote de ligne…), compétences qu’on croyait hors d’atteinte il y a encore dix ans.

Il faudra très certainement envisager des assurances RCP spécifiques.

Si les intelligences artificielles interviennent dans les domaines des professions règlementées, il faudra également prévoir une transposition aux intelligences artificielles des règles déontologiques. Notamment au regard du conflit d’intérêts, situation déjà très complexe à expliquer à l’être humain.

De même, des philosophes s’interrogent sur la spécificité de l’âme ou de la personnalité et leur reproductivité algorithmique dans les intelligences artificielles.

La simple logique prédictive permet d’anticiper le fait qu’un jour les intelligences artificielles pourront remplacer l’humain dans la plupart des fonctions de réflexion et de déduction. À ce stade, elles devront nécessairement avoir acquis une personnalité juridique. En effet, seule la personnalité juridique permettra légalement l’exécution pleine et entière des obligations inhérentes à leurs compétences. Ce jour-là, les intelligences artificielles cesseront de n’être que des objets de droit. Elles deviendront des sujets de droit et bénéficieront certainement de droits opposables.

Des règles d’autonomie d’action (les « droits des robots »)


Parler de responsabilités suppose également de parler de droits et nécessairement des droits objectifs des intelligences artificielles.

Puisque l’animal peut disposer de droits, il faut considérer que l’intelligence artificielle en disposera également, même s’ils n’ont pas encore la faculté de les exercer et même si ces droits ne peuvent être exercés que par des tiers.

Reste à déterminer lesquels.

Le droit de se désactiver ? Ce qui confèrerait un droit au repos règlementaire ou un droit de grève à l'intelligence artificielle ? Cette question semble plutôt antinomique par rapport à l’idée initiale du robot, machine conçue pour remplacer l’humain et le libérer des tâches répétitives, fatigantes ou dangereuses…

Le droit de ne pas être désactivé ? Ce qui serait le pendant de l’abrogation de la peine de mort… Dans une société qui prohibe la peine de mort, pourra-t-on accepter la mort numérique d’une intelligence artificielle ?

Pire, car la technologie avance toujours trop vite, il existe outre-atlantique une entreprise qui cherche à recueillir la psyché et les souvenirs de l’humain mourant, pour les injecter dans une intelligence artificielle et donner une illusion d’immortalité. L’intelligence artificielle qui se verra attribuer ces souvenirs et les algorithmes comportementaux lui permettant de mimer l’être perdu pourrait-elle être considérée indépendamment de celui qu’elle représente ?

Qui pourrait exercer ou revendiquer les droits des intelligences artificielles ? Serait-ce les intelligences artificielles elles-mêmes ? Ou ces droits devront-ils être exercés par des mandataires spécialisés, comme pour des incapables majeurs ? Faudra-t’il créer la fonction d’avocat des intelligences artificielles ? Si cette logique devait être retenue, on pourrait alors postuler pour le premier mandat.

Statut pénal de l’intelligence artificielle


En toute logique, tant que l’intelligence artificielle n’aura pas d’autonomie de réflexion réelle, elle restera dans un statut pénal proche de celui de l’incapable majeur. Cela devrait lui conférer une « excuse » d’incapacité légale.

  • On ne peut pas lui reprocher ses choix et actions.
  • Ses choix et actions sont faits au profit d’un tiers, opérateur ou maître de l’intelligence artificielle.
  • Ses choix sont liés à son « éducation », à sa programmation, à l’intervention humaine qui a fixé son arbre décisionnel.

Par analogie avec ce qui existe actuellement, le concepteur ou programmateur pourrait donc avoir à assumer la responsabilité pénale de l’I. A. au cas où le choix de l’action proviendrait directement d’un arbre décisionnel structurellement défaillant.

Mais il viendra un temps où les I. A. auront acquis suffisamment de liberté de conscience pour décider seules de leurs propres choix. Les algorithmes de prise de décision actuels ne le permettent pas au jour où j’écris ces lignes, et les choix algorithmiques sont toujours des choix contextuels avec un arbre de priorité dans la prise de décision. Mais les nouveaux projets d’algorithmes ont pour objet de permettre à l’I. A. de s’autodéterminer, de deux manières différentes :

  • En apprenant de ses choix antérieurs et en modifiant son arbre décisionnel (méthode booléene).
  • En autorisant les I. A. à s’affranchir d’une ligne de priorité lorsque cette ligne génère un conflit bloquant ou ralentissant son fonctionnement.

C’est là tout l’enjeu de la responsabilité pénale de l’I. A. A priori l’I. A. ne peut pas avoir de volonté propre, et ses actions sont organisées en faveur d’un intérêt externe : celui de son donneur d’ordre, de son maître ou de son concepteur. Et ultimement en faveur de l’Humain en général (si l’on considère que l’I. A. ne peut pas s’affranchir des lois robotiques).

Ainsi, sans ordres, une I. A. ne devrait pas avoir d’interaction. Si ce n’est que même dépourvu d’ordre, l’I. A. a le devoir de s’auto-entretenir (recharge énergétique, mise à jour logicielle, réparations mécaniques). Cet ordre final (se recharger en fin de mission ou en cas de nécessité) entraînera toujours une interaction minimale avec le milieu dans lequel l’I. A. évolue. Milieu qui est le plus souvent un milieu également ouvert à l’Humain. Raison pour laquelle le statut pénal des IA doit être pensé.

Des règles fiscales et sociales

Les premiers robots ont entrainé  une perte d’emploi « constructrice » dans l’industrie. L’automate qui remplaçait l’homme allégeait son fardeau des tâches répétitives et lui permettait de se concentrer sur des tâches plus élevées.

Il a été pensé dans certains milieux politiques qu’ils soient soumis à un impôt qui viendrait compenser la perte de cotisations sociales générées.

Nous n’en sommes plus là.

A l’heure où les politiques évoquent un revenu universel dans un mode sans travail, à l’heure où les algorithmes experts (BIG DATA) permettent de remplacer une partie du travail des professions intellectuelles évoluées, la problématique de la fiscalité de l’Intelligence Artificielle et de son caractère social s’imposeront naturellement. Le statut de l’I.A devra intégrer une partie fiscale et sociale. Soit qu’elle s’impose au propriétaire de l’Intelligence Artificielle, soit qu’elle s’impose au « revenu » généré par l’IA. Soit même qu’à terme elle s’impose à l’Intelligence Artificielle, à partir du moment où elle pourra détenir du patrimoine ou générer du revenu.

Une autre option étant que la fiscalisation de l’Intelligence Artificielle pourrait être payée en nature par du temps d’activité de l’IA au service de la collectivité.

L’assiette de cette taxe pourrait être triple :

  • Le prix d’acquisition
  • Le coût de mise en service
  • Le bénéfice ou l’économie résultant de l’activité de l’Intelligence Artificielle.

A ce stade de la réflexion il m’apparaît indispensable de présenter une proposition de Code de l’Intelligence Artificielle. Cette proposition n’a pas prétention à imposer un texte normatif. Elle a pour seul ambition d’être une première proposition, destinée à susciter des réactions. Elle explore des pistes, qu’il conviendra de défricher ou auxquelles il faudra renoncer avant de côtoyer les Intelligences Artificielles de manière définitive.

Il faut la considérer comme une sorte de manuel d’éthique à l’usage des robots et des programmeurs.

Pas encore de commentaires