Connaissez-vous les Shadoks ? Ces oiseaux retardés ne possèdent que quatre cases dans leur cerveau, chacune de ces cases pouvant contenir un seul et unique mot. Tel est le fonctionnement de la mémoire shadokienne. Notre mémoire fonctionne-t-elle sur le même principe ? Ne sommes-nous que des Shadoks pourvus d'innombrables cases ? La réponse est non.
Contrairement aux Shadoks, pour qui la nature des éléments contenus dans leurs quatre cases cérébrales n'influe pas sur la qualité de la mémoire, notre mémoire est principalement associative. Cet aspect associatif explique pourquoi le contexte joue un rôle si primordial dans notre capacité à nous remémorer. Si je vous demande ce que vous avez étudié en cours d'histoire au lycée, il est fort probable que cet exercice vous soit extrêmement difficile. Mais, lors d'une discussion sur le Japon, il vous sera sans doute plus aisé de vous rappeler que vous avez étudié ce sujet en classe de terminale. Souvent, l'information recherchée est disponible dans notre cerveau, mais c'est l'accès à ce souvenir qui pose problème, cet accès se faisant généralement de manière associative (en association avec le contexte, d'autres souvenirs, des indices fournis par la conversation, etc.). Une équipe de chercheurs israéliens de l'Institut Weizmann dirigée par le professeur Misha Tsodyks a proposé un nouveau modèle mathématique de la mémoire, tenant compte de cet aspect associatif. Pour cela, les scientifiques se sont servi d'un modèle de calcul fréquemment utilisé pour modéliser l'activité cérébrale : les réseaux de neurones artificiels.
Introduction aux réseaux de neurones
Pour comprendre cette étude, parue dans la revue Neural Computation, il est nécessaire de savoir ce qu'est un réseau de neurones artificiels. Ce modèle computationnel a été dérivé du fonctionnement cérébral. En effet, le cerveau est constitué principalement de cellules appelées neurones, connectées entre elles par l'intermédiaire de synapses. L'une des caractéristiques principales de ces neurones est leur excitabilité : ils peuvent présenter de rapides et importantes fluctuations de leur potentiel membranaire (différence de courant entre l'intérieur et l'extérieur de la cellule), appelées potentiels d'action. Lorsqu'un potentiel d'action est émis au niveau du neurone pré-synaptique, cela peut éventuellement engendrer un potentiel d'action au niveau du neurone post-synaptique.
Le fonctionnement des réseaux de neurones artificiels est similaire. Ces réseaux sont en général caractérisés par un vecteur contenant l'état d'activité des différents neurones du réseau ainsi qu'une matrice contenant les poids de connections entre les différents neurones. Différents types de neurones peuvent être considérés : des neurones biologiquement réalistes, émettant des potentiels d'action, ou des modélisations plus simplistes comme par exemple des neurones binaires (existant dans deux états : actif ou inactif). L'état d'activité de chacun de ces neurones dépend, comme pour les neurones cérébraux, de l'état des neurones pré-synaptiques.
Modélisation de la mémoire associative à l'aide de réseaux de neurones
Cette étude n'est pas la première à s'intéresser à la modélisation de la mémoire associative à l'aide de réseaux de neurones artificiels. Plusieurs chercheurs ont montré que l'encodage de la mémoire dans ces réseaux est permis par le renforcement de la connexion entre des groupes de neurones spécifiques, créant ainsi un aspect associatif de la mémoire. Ces réseaux présentent des attracteurs, des motifs d'activité stable du réseau, correspondant à des éléments mémorisés. Pour avoir accès à l'un des éléments mémorisés, le principe est le suivant : le réseau est initialisé dans un état proche de l'attracteur. Une telle initialisation correspond à donner au système un indice sur l'élément à retrouver. Cependant, que se passe-t-il lorsqu'aucun indice n'est fourni directement au système ? Le but de cette étude était de simuler ce qui se passe en cas d'accès à la mémoire sans qu'aucun "indice" ne soit fourni, comme par exemple lorsqu'on demande à quelqu'un de mémoriser une liste aléatoire de mots.
Accès à la mémoire sans "indice" direct : mode d'emploi
Les chercheurs ont représenté chacun des mots de cette liste aléatoire par un groupe de neurones (correspondant à un attracteur du système). Les chercheurs ont utilisés des neurones binaires, pouvant donc être soient actifs soient inactifs. Pour un réseau de N neurones, la taille de chacun de ces groupes était de f*N, f étant un paramètre du système compris entre 0 et 1. Le paramètre f va donc jouer sur le chevauchement entre les différents groupes de neurones utilisés pour représenter des mots différents.
L'algorithme converge tout d'abord vers l'attracteur le plus proche des conditions initiales, puis passe d'attracteur en attracteur, privilégiant à chaque fois celui avec lequel il présente le plus de similarités. Au bout d'un moment, l'algorithme va revenir vers un attracteur déjà visité et le système va tourner en boucle. L'équipe de scientifiques israéliens a également montré que le nombre d'éléments remémorés par le système (nombre d'attracteurs visités par l'algorithme) dépend de la valeur du paramètre f (en général ce nombre augmente quand f diminue).
Ce modèle est-il un bon modèle de la mémoire associative ?
Pour tester la validité du modèle, les chercheurs ont comparé les prédictions du modèle avec les performances d'humains qui devaient se remémorer une liste de mots aléatoires. Chez l'homme aussi, l'ordre des mots remémorés n'est pas aléatoire mais suit une sorte de logique. Deux mots proches dans la liste originale auront ainsi plus de chances d'être remémorés l'un après l'autre. Le modèle prédit également que le système arrive à sa limite lorsque les mêmes éléments sont remémorés répétitivement. Une telle hypothèse a déjà été proposée à de multiples reprises en psychologie.
Pour résumer, cette étude est la première étude analytique de l'accès à la mémoire associative en absence d'indices externes. Les résultats obtenus sont proches de ceux décrits en psychologie, ce qui fournit une bonne validation du modèle. Les performances de l'algorithme semblent être fortement liées à la manière dont les souvenirs sont encodés dans le réseau (paramètre f).
Source :http://www.bulletins-electroniques.com/actualites/74472.htm