Les neurones sont beaucoup plus intelligents que nous le pensons

Nous sommes en pleine révolution scientifique et technologique. Les ordinateurs d'aujourd'hui utilisent l'intelligence artificielle pour apprendre de l'existant et à exécuter des fonctions sophistiquées qui, jusqu'à récemment, étaient considérées comme impossibles. Ces algorithmes intelligents peuvent reconnaître les visages et même conduire des véhicules autonomes. Les réseaux d'apprentissage en profondeur, qui sont à l'origine de bon nombre de ces avancées technologiques, reposent sur les mêmes principes qui forment la structure de notre cerveau : ils sont composés de cellules nerveuses artificielles reliées les unes aux autres par des synapses artificielles ; ces cellules s'envoient des signaux via ces synapses.

Notre compréhension de base de la fonction neuronale remonte aux années 1950. Sur la base de cette compréhension élémentaire, les neurones artificiels actuels qui sont utilisés dans l'apprentissage en profondeur et fonctionnent en additionnant leurs entrées synaptiques de manière linéaire et en générant en réponse l'un des deux états de sortie - "0" (OFF) et "1" (ON). Au cours des dernières décennies, cependant, le domaine des neurosciences a découvert que les neurones individuels sont construits à partir d'un système de ramification complexe qui contient de nombreuses sous-régions fonctionnelles. En effet, la structure ramifiée des neurones et les nombreuses synapses qui le contactent sur sa surface distribuée implique que les neurones individuels pourraient se comporter comme un réseau étendu dans lequel chaque sous-région a sa propre fonction d'entrée-sortie locale, c'est-à-dire non linéaire.

Une nouvelle recherche à l'Université hébraïque de Jérusalem (HU) cherche à comprendre la puissance de calcul d'un neurone de manière systématique. Si l'on mappe l'entrée-sortie d'un neurone pour de nombreuses entrées synaptiques (beaucoup d'exemples), alors on peut être en mesure d'examiner la « profondeur » d'un réseau analogue afin de reproduire les caractéristiques d'E/S du neurone. Étudiant en doctorat David Beniaguev, ainsi que les professeurs Michael London et Idan Segev, du Centre de Recherche sur le Cerveau Edmond et Lily Safra (ELSC) ont relevé ce défi et ont publié leurs résultats dans la prestigieuse revue Neuron.

L'objectif de l'étude est de comprendre comment les cellules nerveuses individuelles, les éléments constitutifs du cerveau, traduisent les entrées synaptiques en leur sortie électrique. Ce faisant, les chercheurs veulent trouver comment créer un nouveau type d'infrastructure artificielle d'apprentissage en profondeur, qui agira davantage comme le cerveau humain et produira des capacités tout aussi impressionnantes que le cerveau. « Le nouveau réseau d'apprentissage en profondeur que nous proposons est construit à partir de neurones artificiels, chacun d'eux ayant déjà 5 à 7 couches de profondeur. Ces unités sont connectées, via des synapses artificielles, aux couches au-dessus et en dessous », a expliqué Segev.

Dans l'état actuel des réseaux neuronaux profonds, chaque neurone artificiel répond aux données d'entrée (synapses) par un « 0 » ou un « 1 », en fonction de la force synaptique qu'il reçoit de la couche précédente. Sur la base de cette force, la synapse envoie (excite) ou retient (inhibe) un signal aux neurones de la couche suivante. Les neurones de la deuxième couche traitent ensuite les données qu'ils ont reçues et transfèrent la sortie aux cellules du niveau suivant, etc. Par exemple, dans un réseau censé répondre aux chats (mais pas aux autres animaux), ce réseau devrait répondre à un chat avec un « 1 » au dernier neurone de sortie (le plus profond), et avec un « 0 » dans le cas contraire. Les réseaux de neurones profonds en l'état actuel ont démontré qu'ils peuvent apprendre cette tâche et l'exécuter extrêmement bien.

Cette approche permet aux ordinateurs des voitures sans conducteur, par exemple, d'apprendre quand ils sont arrivés à un feu de circulation ou à un passage piéton, même si l'ordinateur n'a jamais vu ce passage piéton auparavant. "Malgré les succès remarquables, nous ne comprenons toujours pas complètement à quel point l'apprentissage en profondeur est capable de faire ce qu'il fait et de nombreuses personnes à travers le monde essaient de le comprendre", Segev a partagé.

Actuellement, d'importantes recherches se concentrent sur l’apprentissage artificiel en profondeur avec des capacités plus intelligentes, telles que la capacité de traiter et de corréler différents stimuli et de se rapporter à différents aspects du chat (vue, ouïe, toucher, etc. ) et d'apprendre à traduire ces différents aspects en sens. Ce sont des capacités dans lesquelles le cerveau humain excelle et celles que le deep learning n'a pas encore pu atteindre.

"Notre approche consiste à utiliser des capacités d'apprentissage en profondeur pour créer un modèle informatisé qui reproduit au mieux les propriétés d'E/S des neurones individuels dans le cerveau", a expliqué Beniaguev. Pour ce faire, les chercheurs se sont appuyés sur la modélisation mathématique de neurones uniques, un ensemble d'équations différentielles développé par Segev et Londres. Cela leur permet de simuler avec précision les processus électriques détaillés qui se déroulent dans différentes régions du neurone simulé et de cartographier au mieux la transformation complexe pour le barrage d'entrées synaptiques et le courant électrique qu'ils produisent à travers la structure arborescente (arbre dendritique) de la cellule nerveuse. Les chercheurs ont utilisé ce modèle pour rechercher un réseau de neurones profonds (DNN) qui reproduisait les E/S du neurone simulé. Ils ont découvert que cette tâche est réalisée par un DNN de 5 à 7 couches de profondeur.

L'équipe espère que la construction de réseaux d'apprentissage en profondeur basée étroitement sur de vrais neurones qui, comme ils l'ont montré, sont déjà assez profonds en eux-mêmes, leur permettront d'effectuer des processus d'apprentissage plus complexes et plus efficaces, qui ressemblent davantage au cerveau humain... « Une illustration de cela serait que le réseau artificiel reconnaisse un chat avec moins d'exemples et remplisse des fonctions telles que l'intériorisation du sens du langage. Cependant, ce sont des processus que nous devons encore prouver par nos DNN suggérés avec des recherches continues », a souligné Segev. Un tel système ne signifierait pas seulement changer la représentation des neurones individuels dans le réseau neuronal artificiel respectif, mais aussi combiner dans le réseau artificiel les caractéristiques de différents types de neurones, comme c'est le cas dans le cerveau humain. "L'objectif final serait de créer une réplique informatisée qui imite la fonctionnalité, la capacité et la diversité du cerveau - pour créer, à tous égards, une véritable intelligence artificielle", a ajouté Segev.

Cette étude a également offert la première chance de cartographier et de comparer la puissance de traitement des différents types de neurones. "Par exemple, pour simuler le neurone A, nous devons cartographier sept niveaux différents d'apprentissage en profondeur à partir de neurones spécifiques, tandis que le neurone B peut avoir besoin de neuf couches de ce type", a expliqué Segev. "De cette façon, nous pouvons comparer quantitativement la puissance de traitement de la cellule nerveuse d'une souris avec une cellule comparable dans un cerveau humain, ou entre deux types différents de neurones dans le cerveau humain."

À un niveau encore plus élémentaire, le développement d'un modèle informatique basé sur une approche d'apprentissage automatique qui simule si précisément la fonction cérébrale est susceptible de fournir une nouvelle compréhension du cerveau lui-même. "Notre cerveau a développé des méthodes pour construire des réseaux artificiels qui reproduisent ses propres capacités d'apprentissage et cela nous permet en retour de mieux comprendre le cerveau et nous-mêmes", a conclu Beniaguev.

retrouvez des articles sur ce sujet :

https://www.jpost.com/science/can-artificial-neurons-mimic-the-human-brain-hu-study-678886

 https://www.wired.com/story/how-computationally-complex-is-a-single-neuron/