Les scientifiques découvrent que plus la synapse ou zone de contact entre 2 neurones est large, mieux le neurone communique avec son voisin. La synapse est donc un élément clé de l’activité cérébrale : un axone (en sortie) d’un neurone se connecte à une dendrite (en entrée) d’un second neurone. Les signaux voyagent à travers la synapse grâce aux neurotransmetteurs. Chaque neurone peut communiquer à des milliers d’autres neurones grâce à des milliers de ces synapses avec des milliers d’autres neurones.
L’équipe californienne est parvenue à reconstituer un modèle de tissu de d’hippocampe de rat en 3D puis a constaté, avec surprise que, dans certains cas, un seul axone d’un neurone formé de deux synapses communique avec un seul dendrite d’un deuxième neurone, ce qui signifie que le premier neurone envoie un signal dupliqué au neurone récepteur. Cette double communication, qui intervient dans environ 10% des connexions n’a pas immédiatement attiré l’attention des chercheurs mais, finalement les a incités à mesurer les tailles synaptiques, qui, jusqu’ici, étaient sommairement classées en » petites, moyennes et grandes « . Grâce à des techniques de microscopie de pointe, les scientifiques montrent que les tailles des synapses ne varient que de 8% et que cette taille n’est pas figée, les synapses pouvant adopter jusqu’à 26 tailles » discrètes » en quelques minutes. Sur la base de ces 26 » forces synaptiques » distinctes, chaque synapse permettrait de stocker 4,7 bits d’information. De cette capacité synaptique, les chercheurs déduisent donc une capacité globale de stockage de données, ou de mémoire, du cerveau, bien plus élevée qu’on ne le pensait. Cette capacité d’adaptation ou plasticité contribue ainsi à expliquer une capacité de mémoire énorme mais aussi très économe en énergie.
Une véritable bombe dans le domaine des neurosciences : Le Dr Terry Sejnowski, professeur au Salk et co-auteur l’étude, explique que la constatation de cette forte puissance de calcul pour aussi peu d’énergie, permet d’estimer la capacité de mémoire du cerveau comme 10 fois plus élevée que ce qu’on avait jusque-là imaginé. Pourquoi ? Parce que nos souvenirs ou données stockées dans en mémoire sont bien le résultat de l’activité électrique et chimique dans le cerveau. La capacité de mémoire des neurones dépend bien de la taille de la synapse et les modèles algorithmiques développés par les chercheurs ont permis, ici, de mesurer la quantité d’informations susceptibles d’être stocké dans ces connexions synaptiques.
Au moins un pétaoctet (1015 octets), autant que toutes les données du web mondial ! » Lorsque nous avons reconstitué toutes les dendrites, tous les axones, ainsi que l’ensemble du processus de connexion, à partir d’un volume de l’hippocampe de la taille d’un seul globule rouge, nous avons été déconcertés par la complexité et la diversité des synapses « , expliquent les auteurs.
La clé de la précision remarquable et de la capacité de mémoire du cerveau serait donc dans l’ajustement constant des synapses, avec une précision toute remarquable. Son efficacité aussi, avec la génération de 20 watts de puissance en continu, seulement, pour un cerveau adulte. Un mécanisme ultra-précis dont la connaissance offre le moyen de concevoir de meilleurs ordinateurs
Source: eLife 2015;4:e10778 November 30, 2015 Nanoconnectomic upper bound on the variability of synaptic plasticity (Visuel@Salk Institute)