Depuis plusieurs décennies et avec le développement rapide de l’informatique, l’homme, se prenant pour un démiurge, a cherché à reproduire artificiellement le fonctionnement de l’intelligence. L’intelligence artificielle a été définie par l’un de ses créateurs, Marvin Lee Minsky, comme la construction de programmes informatiques qui exécutent des tâches qui sont habituellement accomplies par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique. On relève donc, dans cette définition, l’aspect « artificiel » dû à l'usage des ordinateurs ou de processus électroniques élaborés et l’aspect « intelligence » associé à l’imitation du comportement humain. Cette imitation trouve son application dans le raisonnement, par exemple dans les jeux ou la pratique de mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d'autres capteurs comme ceux qui sont utilisés dans la commande des robots.
En physique fondamentale, on distingue les principes anthropiques fort et faible pour expliquer pourquoi le monde est comme il est. De même, on fait la différence entre l’IA forte et l’IA faible. Actuellement, le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais de simuler une conscience de soi ainsi qu’une compréhension de ses propres raisonnements (boucle de feed-back) et, donc, dotée d’une capacité d’apprentissage autonome. En se fondant sur le constat que la conscience a un support biologique et donc matériel, certains scientifiques ne voient pas d’obstacle de principe à créer un jour une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas d'ordinateurs ou de robots aussi intelligents que l'être humain, ce n'est qu’un problème de conception. Un ordinateur typique de 1970 effectuait 10 puissance 7 opérations logiques par seconde, c’est-à-dire une sorte d’intermédiaire entre une balance de Roberval (1 opération logique par seconde) et le cerveau humain (environ 2 x 10 puissance 14 opérations logiques par seconde). En 2009, un microprocesseur type traite 64 bits en parallèle (128 dans le cas de machines à double cœur) à une vitesse de 2 GHz, ce qui lui permet en principe d’effectuer 10 puissance 11 opérations logiques par seconde. Il n’existe plus qu’un facteur 3 pour atteindre les performances du cerveau humain. Les ordinateurs quantiques permettront peut-être de franchir cette différence. C’est la position défendue notamment par Roger Penrose. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l'atteinte pratique des calculateurs conventionnels. Au-delà de la rapidité, le fait que l'on puisse envisager des systèmes quantiques en mesure de calculer des fonctions dites non calculables (au sens donné par Turing) ouvre des possibilités qui sont fondamentalement interdites aux machines actuelles. La notion d’intelligence artificielle faible, quant à elle, constitue une approche pragmatique d’ingénieur qui cherche à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, comme ceux rencontrés en cybernétique. Ces algorithmes sont souvent construits à partir de moteurs d’inférences tournant sur une base de faits et une base de règles. Ces bases mémorisent, sous des formes diverses, le savoir des experts, ce qui nécessite la participation volontaire de ceux-ci pour formaliser et livrer leurs connaissances et leur expertise. Ce partage ne va pas de soi et soulève souvent des difficultés, non seulement de modélisation mais également de résistance, l’expert ayant la sensation d’une dépossession et d’une perte de pouvoir. De plus, lorsque l’intelligence artificielle s’attache à décrire le fonctionnement de systèmes complexes à toutes les échelles, cette description impose une transversalité du savoir, ce qui est encore aujourd’hui assez contradictoire avec la parcellisation et la « ghettoïsation » des disciplines scientifiques. Internet pourrait peut-être devenir le catalyseur de la mise en commun des savoirs scientifiques, aboutissant à cette transversalité nécessaire dans la modélisation des systèmes ouverts et complexes.
Malgré tout, il reste extrêmement douteux que l’IA soit capable de reproduire un jour totalement le fonctionnement de l’intelligence, car celle-ci possède des qualités qui semblent hors de portée de tout artéfact, l’intuition et les émotions par exemple. Jamais une machine ne sera capable de renoncer à une décision parce qu’elle la ressent comme immorale. Jamais une machine ne prendra une décision par vengeance. HAL 9000 reste une utopie. Je crois qu’il ne faut pas s’en plaindre.