Au lieu d'un joystick ou d'un écran tactile, l'utilisateur contrôle ce quadricopter AR.Drone par la pensée... au plutôt grâce à une coiffe EEG (électroencéphalographique) qui analyse et transmet l'activité du cortex moteur à un logiciel interprétant le guidage des mouvements en commandes envoyées par Wi-fi à l'appareil.
Menée par des scientifiques de l'université du Minnesota sous la direction du Pr.Bin He et décrite en détail dans le Journal of Neural Engineering, cette expérimentation est une étape supplémentaire dans la R&D d'interfaces neuronales directes (brain-computer interfaces).
Les interfaces neuronales directes ne concernent pas seulement le contrôle de robots ou le jeu vidéo augmentée, bande de rêveurs ! Leurs applications s'étendent également à la neuro-prosthétique (pour les membres artificiels) et à la commande de chaises roulantes, notamment grâce à des coiffes EEG universelles peu intrusives (munies d'électrodes qui interagissent avec le cortex moteur via la surface du cuir chevelu sans le pénétrer) que l'utilisateur peut enfiler ou enlever aussi simplement qu'un casque de moto. À plus long terme, de nombreux ingénieurs et scientfiques entrevoient des « interfaces de neurocommande » destinées à des chirurgiens ou à des pilotes de drones.
Dans quelques décennies, des essaims de drones civils ou militaires seront télécommandés par une armada d'opérateurs parfaitement immobiles et assis dans une immense salle de contrôle... pendant que votre chirurgien neurocommandera une noria de semi-robots équipés d'injecteurs, de scalpels et de lasers.