An image of the brain with color coded regions

AI ‘Brain Decoder’ peut lire les pensées d’une personne avec juste une analyse cérébrale rapide et presque aucune formation

Par Anissa Chauvin

Les scientifiques ont apporté de nouvelles améliorations à un « décodeur de cerveau » qui utilise intelligence artificielle (AI) pour convertir les pensées en texte.

Leur nouvel algorithme de convertisseur peut rapidement former un décodeur existant sur le cerveau d’une autre personne, a rapporté l’équipe dans une nouvelle étude. Les résultats pourraient un jour soutenir les personnes atteintes d’aphasie, un trouble cérébral qui affecte la capacité d’une personne à communiquer, ont déclaré les scientifiques.

Un décodeur de cerveau utilise l’apprentissage automatique pour traduire les pensées d’une personne en texte, en fonction des réponses de son cerveau aux histoires qu’ils ont écoutées. Cependant, itérations passées du décodeur Les participants ont obligé des histoires dans une machine IRM pendant de nombreuses heures, et ces décodeurs n’ont travaillé que pour les personnes sur lesquelles ils ont été formés.

« Les personnes atteintes d’aphasie ont souvent du mal à comprendre la langue et à produire un langage », a déclaré le co-auteur de l’étude Alexander Huthun neuroscientifique informatique à l’Université du Texas à Austin (UT Austin). « Donc, si c’est le cas, alors nous ne pourrons peut-être pas du tout construire des modèles pour leur cerveau en regardant comment leur cerveau réagit aux histoires qu’ils écoutent. »

Dans la nouvelle recherche, publiée le 6 février dans la revue Biologie actuelleHuth et co-auteur Jerry Tangun étudiant diplômé de l’UT Austin a étudié comment il pourrait surmonter cette limitation. « Dans cette étude, nous demandons, pouvons-nous faire les choses différemment? » Il a dit. « Pouvons-nous essentiellement transférer un décodeur que nous avons construit pour le cerveau d’une personne vers le cerveau d’une autre personne? »

Les chercheurs ont d’abord formé le décodeur cérébral sur quelques participants de référence à long terme – en collectant des données d’IRM fonctionnelles pendant que les participants écoutaient 10 heures d’histoires radio.

En utilisant une technique appelée alignement fonctionnel, l’équipe a élaboré comment la référence et le cerveau des participants à l’objectif ont répondu aux mêmes histoires audio ou cinématographiques. Ils ont utilisé ces informations pour former le décodeur à travailler avec le cerveau des participants à l’objectif, sans avoir besoin de collecter plusieurs heures de données de formation.

« La chose vraiment surprenante et cool était que nous pouvons le faire même en utilisant des données linguistiques », a déclaré Huth à Live Science. « Nous pouvons donc avoir des données que nous collectons juste pendant que quelqu’un regarde des vidéos silencieuses, puis nous pouvons l’utiliser pour construire ce décodeur de langage pour leur cerveau. »

L’utilisation des convertisseurs vidéo pour transférer des décodeurs existants à des personnes atteintes d’aphasie peut les aider à exprimer leurs pensées, ont déclaré les chercheurs. Il révèle également un certain chevauchement entre les façons dont les humains représentent des idées du langage et des récits visuels dans le cerveau.

« Cette étude suggère qu’il y a une représentation sémantique qui ne se soucie pas de quelle modalité cela vient »,  » Yukiyasu kamitaniun neuroscientifique informatique de l’Université de Kyoto qui n’a pas été impliqué dans l’étude, a déclaré à Live Science. En d’autres termes, cela aide à révéler comment le cerveau représente certains concepts de la même manière, même lorsqu’ils sont présentés dans différents formats.,

Les prochaines étapes de l’équipe consistent à tester le convertisseur sur les participants à aphasie et à « créer une interface qui les aiderait à générer un langage qu’ils veulent générer », a déclaré Huth.

Anissa Chauvin