- Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger.
- Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
- Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la seconde loi.
La très anglaise Royal Academy of Engineering a publié une série de réflexion sur ce point, se demandant tout d'abord comment les robots doivent être appréhendés. S'ils sont des « personnes machines », alors ils peuvent être accusés de fautes en cas d'accident, tout comme un personne morale peut être responsable lors d'une défaillance technique.
Alors, si une machine tue, est-elle responsable ? Le rapport tente de comprendre les enjeux sur 19 pages de commentaires et se heurte à un frein social : il n'est pas évident à concevoir qu'une machine puisse être responsable de nos jours. Mais dans ce cas, est-ce la main qui l'a conçue, cette machine, qu'il faut blâmer - ce qui équivaudrait à accuser un fabricant de couteaux de cuisine d'être un fabricant d'armes...
En outre, s'il existe un apprentissage pour ce robot, doit-on se tourner vers celui qui a programmé cette faculté à apprendre ? Ira-t-on également vers un code des procédures pour humains et un autre pour robot ?
« Nous devons vraiment commencer à nous préoccuper de ces questions », estime la RAE, pour qui elles viendront à se poser dans tous les cas. Des enjeux nouveaux pour me système judiciaire du XXIe siècle, qui pourraient inspirer de futurs chefs-d'oeuvre de la science-fiction ? « Si nous ne pouvons pas résoudre les questions portant sur la responsabilité, qui sera blamé en cas d'accident et qui doit être arrêté, nous nous priverons de l'avantage de pouvoir recourir à ces évolutions », estime Chris Elliott, avocat et ingénieur.