×
Moralisation
Moralisation Par Meriem OUDGHIRI
Le 05/06/2024

«Moi, PDG en prison» est le titre d’une analyse que nous publions aujourd’hui dans notre édition. L’objectif est de se pencher sur les conséquences pour une... + Lire la suite...

Recevoir notre newsletter

L’IA pourrait-elle avoir des crises d’épilepsie?

Par Damien DEPANNEMAECKERpour | Edition N°:6566 Le 28/07/2023 | Partager

Damien Depannemaecker est Chercheur post-doctorat, Institut de Neuroscience des Systèmes, INSERM, Aix-Marseille Université (AMU)

Depuis quelques années, intelligence artificielle (IA, ou AI en anglais), apprentissage machine (machine learning), «réseaux de neurones artificiels» (artificial neural network) et «apprentissage profond» (deep learning, ou DL) sont de plus en plus présents dans nos quotidiens. Ces termes recouvrent des méthodes, des techniques, des processus qui nous permettent de faire effectuer à des machines des tâches dites complexes comme reconnaître des images, conduire une voiture, ou mener une conversation avec un humain.

Des tâches au cours desquelles il serait facile a priori de comparer intelligence artificielle et «naturelle» – humaine. Or, à force de rapprochement, nous avons tendance à considérer certains de ces outils, les réseaux de neurones artificiels en particulier, comme des modèles de notre propre cerveau – et les capacités du deep learning comme des modèles de ses fonctions… Mais est-ce que, parce qu’une machine est capable de réaliser des tâches similaires à celles effectuées par notre cerveau, elle peut en être un modèle?

Prenons une analogie pour une tâche simple: trier des pièces de monnaie. Il existe des machines purement mécaniques qui en sont parfaitement capables. Nous sommes, nous, humains, tout aussi capables de trier des pièces de monnaie… Va-t-on apprendre quelque chose de nous sur notre capacité à trier des pièces en observant de telles machines? La question se pose à un autre niveau avec l’IA. Les réseaux de neurones artificiels sont, comme leur nom l’indique, inspirés par des connaissances acquises en neurosciences. Et ils partagent quelques caractéristiques avec nos cellules nerveuses. Notre question est donc plutôt: jusqu’où peut aller la comparaison? Quelles sont les limites de ces «modèles»? Sont-ils suffisamment proches pour être utilisable en neurologie ou en santé mentale?

ia-066.jpg

Ce qu’est un neurone artificiel

Le modèle de neurone (ou «nœud» en apprentissage automatique) utilisé dans le deep learning n’a rien de physique: il s’agit d’un ensemble d’étapes mathématiques effectuées dans un ordinateur. Un nœud reçoit des données, externes ou provenant de nœuds précédents, qui sont pondérées (multipliées) par leur «poids synaptique », une valeur quantifiant l’importance accordée à chaque donnée. De façon similaire, dans notre cerveau, un neurone reçoit des données par ses «synapses », ses points de contact avec les neurones voisins. Selon son «poids », chaque synapse aura plus ou moins d’effet sur le neurone en question. Toutes les entrées que ce dernier reçoit sont ainsi pondérées, et il va s’activer, ou non, en fonction du résultat global.

ia-66.jpg

Il y a un mécanisme similaire dans les réseaux de neurones artificiels. La valeur obtenue en sortie d’un nœud peut être utilisée comme valeur d’entrée pour le nœud suivant. Au cours de leur apprentissage, certains neurones vont peu à peu se spécialiser dans certains types d’entrées quand d’autres seront plus sensibles à d’autres. Cette description suffit à reproduire un aspect «fonctionnel» du traitement des informations entrantes par un neurone. Ce modèle de neurone dit «formel» a été décrit pour la première fois en 1943.

Une fois constituées en réseau pour une application particulière, les règles d’apprentissage d’un modèle déterminent l’évolution des poids synaptiques. Plusieurs méthodes permettent de conduire l’apprentissage pour une tâche donnée, comme la rétropropagation de l’erreur (méthode historique datant des années 1980) ou le calcul évolutionnaire (qui repose sur les mêmes principes que l’évolution biologique par mutation/sélection). Ces modèles sont capables «d’apprendre », de résoudre des problèmes ou d’effectuer des tâches dont nous sommes capables, parfois même mieux que nous en termes de rapidité – pour des tâches simples comme complexes (reconnaissance de formes, visages, prédiction de conformation de protéines ou interprétation du langage et de textes avec ChatGPT, etc.).

«Être» ou «faire»: c’est l’un ou l’autre

On distingue donc différents niveaux de description selon les types de modèles considérés… Certains reproduisent une fonction ou une activité ; d’autres sont capables d’expliquer la dynamique des crises, mais ils ne sont généralement pas adaptés pour réaliser des tâches spécifiques comme ceux utilisés dans l’IA. C’est l’un… ou l’autre ! (Pour le moment.)

Les modèles peuvent soit essayer d’être au plus proche du phénomène considéré (par exemple l’apprentissage, la mémoire ou les crises d’épilepsie) sans se préoccuper des mécanismes biophysiques permettant son émergence… Ou, au contraire, ils peuvent être conçus pour essayer de fournir une description de la physiologie la plus détaillée possible à l’échelle considérée (ions, molécules, cellules, etc.). Suivant les objectifs que l’on a (enseigner, expliquer, découvrir de nouveaux aspects, comprendre, prédire ou autre), on choisira ou construira un type de modèle adapté. Pour cela, il est intéressant d’étudier plus profondément ce que nous apporte chaque modèle en termes de connaissance ou d’application. Mais, pour l’heure, il n’existe pas de modèle capable de reproduire l’ensemble des aspects du cerveau… à part le cerveau lui-même.

the-conversation.jpg