A photo of researchers connecting a person's brain implant to a voice synthesizer computer.

L’implant de cerveau de lecture de l’esprit convertit les pensées en discours presque instantanément: «percée»

Par Anissa Chauvin

Un implant cérébral qui utilise intelligence artificielle (AI) peut presque décoder instantanément les pensées d’une personne et les diffuser à travers un orateur, selon de nouvelles recherches. C’est la première fois que les chercheurs atteignent un streaming cerveau à voix presque synchrone.

La technologie expérimentale de lecture mentale est conçue pour donner une voix synthétique aux personnes atteintes de paralysie sévère qui ne peut pas parler. Il fonctionne en mettant des électrodes sur la surface du cerveau dans le cadre d’un implant appelé un neuroprothèsequi permet aux scientifiques d’identifier et d’interpréter les signaux de la parole.

L’interface cérébrale (BCI) utilise l’IA pour décoder les signaux neuronaux et peut diffuser la parole prévue du cerveau en temps réel, selon un communiqué publié par le Université de Californie (UC), Berkeley. L’équipe a précédemment dévoilé un version antérieure de la technologie en 2023, mais la nouvelle version est plus rapide et moins robotique.

Une neuroprosthèse de cerveau en streaming de cerveau à voi pour restaurer la communication naturaliste – YouTube

Surveiller

« Notre approche de streaming apporte la même capacité de décodage de la parole rapide de dispositifs comme Alexa et Siri aux neuroprostheses », chercheur de l’étude co-étude Gopala anumanchipalliun professeur adjoint de génie électrique et de sciences informatiques à UC Berkeley, dans le communiqué. « En utilisant un type d’algorithme similaire, nous avons constaté que nous pouvions décoder les données neuronales et, pour la première fois, permettre le streaming vocal presque synchronisé. »

Anuchianchipalli et ses collègues ont partagé leurs résultats dans une étude publiée lundi 31 mars dans la revue Neuroscience de la nature.

La première personne à tester cette technologie, identifiée comme Ann, a subi un accident vasculaire cérébral en 2005 qui l’a laissée gravement paralysée et incapable de parler. Depuis, elle a permis aux chercheurs d’implanter 253 électrodes sur son cerveau pour surveiller la partie de notre cerveau qui contrôle la parole – appelée cortex moteur – pour aider à développer des technologies de la parole synthétiques.

« Nous interceptons essentiellement les signaux où la pensée est traduite en articulation et au milieu de ce contrôle moteur », auteur co-dirigé de l’étude Cheol Jun Cho, Un doctorant en génie électrique et en sciences informatiques à UC Berkeley, a déclaré dans le communiqué. « Donc, ce que nous décodons, c’est après une pensée, après avoir décidé quoi dire, après avoir décidé quels mots utiliser et comment déplacer nos muscles vocaux. »

L’IA décode les données échantillonnées par l’implant pour aider à convertir l’activité neuronale en parole synthétique. L’équipe a formé son algorithme d’IA en faisant en sorte qu’Ann tente silencieusement de parler des phrases qui sont apparues sur un écran avant elle, puis en faisant correspondre l’activité neuronale aux mots qu’elle voulait dire.

Le système a échantillonné les signaux cérébraux tous les 80 millisecondes (0,08 seconde) et pourrait détecter les mots et les convertir en discours avec un retard jusqu’à environ 3 secondes, selon l’étude. C’est un peu lent par rapport à la conversation normale, mais plus rapide que la version précédente, qui avait un retard d’environ 8 secondes et ne pouvait traiter que des phrases entières.

Le nouveau système profite de la conversion de fenêtres plus courtes d’activité neuronale que l’ancienne, afin qu’elle puisse en permanence des mots individuels plutôt que d’attendre une phrase finie. Les chercheurs disent que la nouvelle étude est une étape vers la réalisation d’une parole synthétique plus naturelle avec BCIS.

« Ce cadre de preuve de concept est une percée », a déclaré Cho. « Nous sommes optimistes que nous pouvons maintenant faire des avances à tous les niveaux. Du côté de l’ingénierie, par exemple, nous continuerons à pousser l’algorithme pour voir comment nous pouvons générer une parole mieux et plus rapide. »

Anissa Chauvin