Une machine sera "intelligente" le jour où on ne saura pas distinguer entre ses réponses et celles d'un être humain. C'est le Test de Turing. On pense, généralement, que c'est la solution définitive à la question de l'intelligence de la machine. Si l'on creuse un peu, on découvre qu'il y a eu beaucoup de travaux sur le sujet, et que tous ont conclu que c'était un mauvais test. (Wikipedia.) Ce test devrait être une curiosité, alors qu'il est demeuré dans notre esprit comme une vérité.
Dans les années 50, me semble-t-il, on a demandé à une audience de juger si le son qu'elle entendait venait d'un électrophone ou d'un orchestre (qui étaient cachés par un rideau). L'un a été confondu avec l'autre. Il est facile de tromper l'homme.
Pourquoi conçoit-on des tests aussi ridicules ? Pourquoi, en ce qui concerne l'intelligence, ne pas juger la machine sur sa capacité à résoudre les grandes questions auxquelles l'homme se confronte. Par exemple, comme éliminer le chômage, éviter les crises ou un développement non durable ?