Avatar en vrai
Des chercheurs ont développé une interface informatique permettant de contrôler les mouvements d’un robot par la pensée
Souvenez-vous d’Avatar, le film dans lequel Jake Sully un marine paraplégique réussit à faire marcher son avatar, un corps biologique commandé à distance simplement en liant son esprit à ce dernier.
Eh bien, des chercheurs du laboratoire de la virtualité avancée du Centre Interdisciplinaire d’Herzliya en Israël, ont réussi à contrôler les mouvements non pas d’un alien cloné comme dans le film de James Cameron, mais d’un robot uniquement par la pensée.
En effet, les scientifiques Ori Cohen et Doron Friedman ont permis à un étudiant de l’Institut Weizmann des sciences de diriger les mouvements d'un droide situé à l'Institut de technologie de Béziers soit une distance d’environ 3000 km en utilisant les ondes cérébrales.
Cette expérience a été associée au projet d'incarnation virtuelle et de ré-incarnation robotique (VERE) dont le but est de dissoudre la frontière entre le corps humain et sa représentation substitutive dans la réalité virtuelle immersive et la réalité physique. C’est-à-dire que l’individu a l’illusion que sa représentation de substitution est son propre corps, il agit et pense donc de façon correspondante.
Certains produits de consommation permettent déjà à leurs utilisateurs de contrôler l'électronique seulement en utilisant leurs pensées. La plupart s'appuie sur une technologie liée à l'électroencéphalogramme (EEG), qui mesure les fluctuations de l'activité électrique du cerveau à travers le cuir chevelu.
C’est le cas notamment d’entreprises comme Neurosky ou Emotiv qui vendent des casques permettant de traduire ces signaux en entrées informatiques pour le logiciel. Cependant, puisque ce système est fondé sur la mesure EEG du cuir chevelu, un bruit de fond électrique demeure, ce qui abaisse l'efficacité de cette méthode. En utilisant l'imagerie par résonance magnétique fonctionnelle (IRMf), qui mesure les variations du flux sanguin en temps réel, Ori Cohen et Doron Friedman ont obtenu une lecture plus précise de l'activité cérébrale.
Lors de l’expérience, les chercheurs ont procédé tout d’abord par une phase de localisation dans laquelle le sujet à l’intérieur de la machine IRMf doit imaginer faire bouger sa main droite ou gauche, puis ses pieds. Au même moment, un avatar se déplace dans un environnement virtuel. Une fois que suffisamment de données correspondant aux différents mouvements ont été recueillies dans les régions du cerveau de l’étudiant, les chercheurs les appliquent pour contrôler le robot.
Même si cette technologie est encore limitée en raison de son coût, elle est une porte ouverte à de nombreuses possibilités comme permettre à des patients paralysés de contrôler un "substitut" de leur corps ou une sorte d'exosquelette robotique.