Magazine Culture
Le test de Turing... Voilà une antiquité qui ressurgit du siècle dernier comme un
fantôme avec toujours les mêmes fantasmes.
Mettons tout de suite les choses au point. NON : Eugène Goostman n'a pas passé avec succès le
fameux test de Turing, le Graal de l'IA classique. Certes, dans son article
fondateur de l'IA, publié en 1950, Turing prédisait que dans les 50 ans, des
machines pourraient être confondues avec un humain dans plus de 30% des cas
lors de conversations de 5 minutes, mais ceci est une mauvaise interprétation
de ce qu'il pensait être son "jeu de l'imitation".
Rappelons-en brièvement le principe : ce test consiste à mettre en confrontation verbale un
interrogateur avec un ordinateur et un humain au travers d'un clavier-écran de
manière à ne pas voir ni entendre celui-qui répond. Si l’homme qui engage les
conversations n’est pas capable de dire lequel de ses interlocuteurs est un
ordinateur, alors on peut considérer que le logiciel de l’ordinateur est doté
des mêmes capacités que l'esprit humain : intelligence, esprit, conscience...
Voyons ce qu'il en est.
Le principal problème consiste dans la durée du test. Même si l'on admet sa
validité, alors celui-ci doit être beaucoup plus long. En outre, si l'on
testait l'orthographe de quelqu'un par une dictée de 5 minutes et qu'il
obtenait comme note 3 sur 10, on ne dirait certainement pas qu'il est bon. Pour
être bon, il faudrait qu'il obtienne régulièrement plus de 8.
C'est la même chose avec le test de Turing. Pour qu'une machine le passe avec succès,
il faudrait qu'on ne puisse pas distinguer ses réponses de l'humain très
régulièrement, c'est à dire dans plus de 80% (au moins) et sur une durée
beaucoup plus longue. En fait, théoriquement, pour affirmer que les deux "systèmes" sont équivalents, il
faudrait un temps infiniment long : A = B si et seulement si T tend vers
l'infini. En d'autres termes, seulement dans cette condition il nous serait strictement impossible de faire la différence.
Le second problème vient de la pertinence du test lui-même. J'ai déjà écrit sur ce sujet et je ne suis pas le seul, car le test de Turing a été au centre des
débats entre l'IA "forte" et l'IA "faible", entre les
fonctionnalistes et les matérialistes depuis 1950.
Je ne reparlerai donc pas ici de l'expérience de pensée de la "chambre
chinoise" créée par le philosophe John Searle (lire mon dernier livre à ce sujet : Immortalité numérique). Mais en voici une autre,
plus simple, que j'ai appelé "Le faux Van Gogh". Imaginez que nous
ayons un peintre qui ait appris à reproduire à la perfection les toiles du
maître. Les tableaux seraient si parfaits, que seuls quelques rares experts
pourraient faire la différence. Pourrions-nous dire pour autant que le peintre
pense comme Van Gogh ? Pourrait-on dire qu'il EST Van Gogh ? Évidemment non. Et
si l'on remplace le peintre par un robot, cela ne change rien à l'affaire.
Cela rejoint le thème également très discuté depuis des siècles de la réalité des
mathématiques. Un phénomène modélisé par un jeu d'équations, qui permet de
comprendre et prédire ses comportements, est-il équivalent au phénomène ? Les
mathématiques existent-elles dans la réalité physique ?
Personnellement, je répond une nouvelle fois : non.
Pour conclure, je pense que le test de Turing a beaucoup vieilli. Il prend le problème de l'IA de la plus
mauvaise manière qui soit : essayer de faire croire qu'une machine peut
remplacer un humain sans que l'on puisse faire une quelconque différence. Cette
approche est, de mon point de vue philosophiquement et éthiquement critiquable.
L'IA est une formidable discipline, pleine de promesses, mais elle doit être au
service de l'homme et non le remplacer.