En alvorligt lammet kvinde har kunnet tale gennem en avatar ved brug af teknologi, der oversætter hendes hjerneaktivitet til tale og ansigtsudtryk.
Fremskridtet giver håb om, at hjerne-computer-grænseflader (BCI'er) kan være tæt på at forvandle livet for mennesker, der har mistet evnen til at tale på grund af tilstande som slagtilfælde eller ALS.
Indtil nu har patienterne måttet stole på langsom teknologi, der kræver, at man staver ord ved hjælp af øjensporing eller små ansigtsbevægelser, hvilket gør naturlig samtale umulig.
Den nye teknologi bruger små elektroder, der er implanteret på hjernens overflade, til at opfange elektrisk aktivitet i den del af hjernen, der styrer tale og ansigtsbevægelser. Disse signaler oversættes direkte til en digital avatars tale og ansigtsudtryk, herunder smil, rynken eller overraskelse.
"Vores mål er at genskabe en fuld, kropslig måde at kommunikere på, hvilket virkelig er den mest naturlige måde for os at tale med andre. Disse fremskridt bringer os meget tættere på at gøre dette til en reel løsning for patienterne," sagde professor Edward Chang, der ledte arbejdet ved University of California, San Francisco (UCSF), ifølge The Guardian.
Patienten, en 47-årig kvinde ved navn Ann, har været alvorligt lammet siden hun fik et slagtilfælde i hjernestammen for mere end 18 år siden. Hun kan ikke tale eller skrive og kommunikerer normalt ved hjælp af teknologi, der sporer bevægelser.
Dette lader hende langsomt vælge bogstaver med op til 14 ord i minuttet. Hun håber, at den nye teknologi kan gøre det muligt for hende at arbejde som rådgiver i fremtiden.
Holdet implanterede en papirtynd rektangel med 253 elektroder på overfladen af Anns hjerne i et område, der er afgørende for tale. Elektroderne opfangede de impulser, der, hvis ikke for slagtilfældet, ville have styret musklerne i hendes tunge, kæbe, strubehoved og ansigt.
Efter implantationen arbejdede Ann med holdet for at træne systemets AI-algoritme til at genkende hendes unikke impulser for forskellige talelyde ved gentagne gange at gentage forskellige sætninger.
Computeren lærte 39 distinkte lyde, og en ChatGPT-lignende sprogmodel blev brugt til at oversætte signalerne til forståelige sætninger. Dette blev så brugt til at styre en avatar med en stemme personliggjort til at lyde som Anns stemme baseret på optagelser af hende, der talte ved sit bryllup.
Teknologien var ikke perfekt, den ramte ord forkert 28% af tiden i en test med mere end 500 sætninger, men den genererede hjerne-til-tekst med en hastighed på 78 ord i minuttet. Det er mindre end de 110-150 ord, der normalt tales i naturlig samtale.
Forskerne sagde dog, at de seneste fremskridt i nøjagtighed, hastighed og sofistikering tyder på, at teknologien nu er praktisk nyttig for patienter.
Professor Nick Ramsey, en neuroforsker ved University of Utrecht i Holland, der ikke var involveret i forskningen, sagde: "Dette er et stort spring fra tidligere resultater. Vi er ved et vendepunkt."
Et afgørende næste skridt er at skabe en trådløs version af BCI, der kan implementeres under kraniet.
"At give folk mulighed for frit at styre deres egne computere og telefoner med denne teknologi ville have dybtgående effekter på deres uafhængighed og sociale interaktioner," sagde Dr. David Moses, lektor i neurokirurgi ved UCSF og medforfatter af forskningen.