A mesure que l’intelligence artificielle s’améliore, les robots développent de plus en plus de similitudes avec…l’humain. Pourquoi et comment établir un « droit du robot » pour le protéger de l’homme ?
1942, les premières lois des robots sont écrites...par l’auteur russe de science-fiction Isaac Asimov. « Un robot ne peut porter atteinte à un être humain ou permettre qu’il soit exposé au danger / doit obéir aux ordres humains / doit protéger son existence ». Depuis 75 ans, ces lois inspirent la recherche et les réflexions autour du droit du robot. Elles ont même été reprises par la première « Charte éthique des robots », établie par la Corée du Sud en 2007.
Les lois d’Asimov sont, cependant, aujourd’hui trop simplistes. A l’heure actuelle, l’éthique et le droit des machines voient plus loin : à mesure que le robot ressemble de plus en plus à l’homme en termes d’intelligence comme d’apparence, il est temps de lui donner le cadre légal qui lui manque, selon certains chercheurs du numérique comme Ronald Siebes : « Les robots commencent à tellement ressembler aux humains qu’il faut penser à les protéger de la même façon que nous le sommes ».
Un droit nécessaire pour contrôler l’usage de l’IA par l’humain
« Un robot est un objet juridique non identifié » martèle Alain Bensoussan, avocat connu pour défendre le droit des robots. « Plus la machine est indépendante de son propriétaire, plus elle se rapprochera du droit humain. Je ne suis pas responsable de ma voiture qui va se rendre toute seule à Toulouse comme je suis responsable de mon grille-pain » expliquait-il à l’Express en avril 2015.
Nous l’évoquions à L’Atelier, les robots détiendront de plus en plus une place de compagnons dans la vie des citoyens. Ils peuvent aujourd’hui converser et faire preuve « d’empathie artificielle », expliquait le psychiatre Serge Tisseron en janvier dernier à L’Atelier. La compréhension de l’intonation de la voix ou des mimiques humaines les rapprochera de l’homme, et, selon l’ingénieure Nell Watson interrogée à The Next Web Conference, il sera alors « très compliqué de ne pas s’attacher à eux et de ne pas les aimer ». Le type de relation entretenue avec les machines sera similaire, selon elle, de celle que l’homme entretient avec un animal de compagnie. Ces derniers sont protégés par le droit des animaux qui punit la cruauté, ce qui amène à penser que les robots devraient, eux aussi, disposer de droits afin d’éviter les abus, notamment la maltraitance. L’avocate Murielle Cahen explique sur son blog que : « réprimer le fait de porter des atteintes à l’intégrité des robots [existerait] non pas pour protéger les atteintes matérielles en tant que telles, mais plutôt pour protéger la sensibilité des humains et les intérêts de la société. »
L’entier contrôle humain sur la machine est évidemment susceptible d’entraîner des dérives quant à son utilisation à des fins de nuisance. A titre d’exemple, l’IA est capable d’analyser une personne, de générer un profil et de le tracker : un usage à mauvais escient pourrait ordonner à l’IA de chercher des mots de passe sur la base d’éléments de vie d’un tiers (nom, date de naissance : les mots de passe les plus courants). Un robot serait également en mesure d’absorber ou de générer de fausses informations qui passeraient pour vrai, et de les transmettre à un autre robot. La fraude et les faux documents seront monnaie courante dans le futur, d’après Nell Watson, « ce qui encouragera l’adoption de technologies comme la blockchain qui sont, elles, très difficiles à falsifier. » Elle ajoute que si nous voulons que les robots soient responsables, ils vont avoir besoin de reconnaissance en tant que personnes.
Enfin, le droit des robots doit déterminer l’éthique du champ d’action et de l’autonomie des robots dans leur prise de décision. Un robot peut-il dire « non » ? Doit-il exécuter tout ce que l’humain lui demande ? Si un enfant l’entraîne jouer sur la route ou si conducteur éméché souhaite prendre le volant ? « Pour être un servant efficace, il doit être capable de dire non. » affirme Nell Watson. La question de l’auto-défense en découle : en a-t-il le droit ? Si le robot protège un humain ou un bien, peut-il aller jusqu’à la défense létale ? Récemment, Google a annoncé son intention de créer un bouton « off » de l’intelligence artificielle, qui ouvre un tout nouveau chantier concernant son usage, : sous quelles conditions les propriétaires et non-propriétaires pourront-ils l’utiliser le robot sera-t-il en mesure d’empêcher d’être désactivé ?
Des questions difficiles qui rendent légitime la création d’un droit du robot dès aujourd’hui, comme précisait Serge Tisseron : « Ce dont je m’inquiète est qu’on ne se soucie pas davantage de créer, dès aujourd'hui, des balises législatives et éducatives. Le progrès scientifique est inévitable. Il faut réfléchir dès aujourd'hui à des repères éducatifs et législatifs. Il ne faut pas attendre que les robots soient déjà là, pour commencer à imaginer les meilleures manières de les gérer. » et Ronald Siebes de renchérir « Puisque le robot est aujourd’hui capable de nous comprendre, pourquoi ne pas nous aussi se mettre à sa place ?»
La difficile notion « d’éthique »
La première étape exige de définir le champ d’application éthique du robot, ce sur quoi plusieurs comités travaillent déjà : le CNRS (Centre National de la Recherche Scientifique) et la CERNA en France (Commission de réflexion sur l'Éthique de la Recherche en sciences et technologies du Numérique d'Allistene, l’Alliance des Sciences et Technologies du Numérique), RoboLaw au niveau européen, Google et OpenEth à l’échelle planétaire.
Pour Nell Watson, fondatrice d’OpenEth, il est par exemple primordial que l’intelligence artificielle comprenne bien l’éthique du business et de la privacy « Une machine doit respecter les souhaits d’un humain, être transparent, mais en même temps respecter la privacy. Elle doit pouvoir identifier les informations que son utilisateur ne souhaite pas divulguer, notamment les données médicales ou financières ». Nombre de chercheurs s’accordent sur la notion de transparence : le robot devrait ne pas tromper l’utilisateur et l’informer à la fois de ses actions et de ce qui les légitime.
Sur quelle base juridique se lancer ? L’avocat Alain Bensoussan propose de créer, à l’instar du statut de « personne morale », le statut de « personne robot ». Il lui semble également essentiel d’identifier les robots - par un numéro de sécurité sociale par exemple « le 1 est pour les hommes, le 2 pour les femmes, pourquoi pas le 3 pour les robots » - et de les assurer par un capital et un représentant légal. Ce capital permettrait le dédommagement d’un tiers, en contrepartie d’une charte de droit au respect du robot et à la dignité. Quant à la responsabilité, il l’imagine en cascade : du constructeur au propriétaire en passant par l’utilisateur. D’autres initiatives soulèvent l’idée d’une boîte noire qui pourrait « plus objectivement » tracer la responsabilité en cas d’incident, ou rappellent le rôle des futurs agents de maintenance de ces robots.
Définir un cadre éthique n’est pas aisé car tout le monde ne détient pas les mêmes valeurs, ne définit pas la morale de la même façon. Cela diffère selon la culture, la génération, la religion, l’éducation… Nell Watson essaye d’expliquer le processus de définition « il faut déconstruire les concepts et les expliquer de la manière la plus basique possible, accessible à tout le monde. Établir les règles primaires, un peu comme celles que l’on apprend en premier à l’enfant » Ensuite, il s’agit d’explorer les concepts et leurs variations. L’objectif n’est donc pas de créer une unique éthique mais de « cartographier un espace et des liens possibles entre les machines et les autres agents ». Qui pour s’en charger ? L’éthique ne peut rester aux seules mains des chercheurs, elle doit au contraire être décortiquée par toutes les couches de la société. « Je crois fermement à la sagesse de la foule » relate Nell Watson « Nous avons besoin de poètes, de politiciens, de prêtres, de programmateurs… de débattre tous ensemble de ces sujets. »
Le droit des robots doit-il se rapprocher davantage de celui de l’homme, ou de l’entreprise ? Peut-être un peu des deux. Pour Nell Watson, les droits entre hommes et machines doivent être aussi équitables que possibles, mais pas forcément égaux. De la même façon que les enfants et leurs parents ont des droits différents, les médecins et leurs patients, les entreprises et leurs employés. « Il y a toujours un équilibre, une justice entre droits et devoirs pour chacun. Nous devons l’appliquer aux robots car les pires comportements de la civilisation humaine se sont basés sur l’idée suprême qu’un groupe d’individus devait être traité différemment des autres… »
L’ingénieure et penseuse de la Singularity University s’inquiète en effet de l’accueil que l’être humain réservera à l’intégration des robots dans la société « On ne peut prédire ce que la machine sera vraiment, mais l’être humain est, lui, plutôt prévisible… Nous avons de tristes exemples dans le passé. J’espère simplement que, cette fois, la civilisation sera capable de vivre avec ce nouveau cadre émergent de la moralité des machines ».