Lyder det som noget fra en science fiction-film? Måske. Men det er en virkelighed.
Streaming – men ikke som du kender det
Et forskerteam fra UC Berkeley og UC San Francisco har udviklet en ny type hjernechip, der for første gang gør det muligt at omdanne tanker til tale i næsten realtid. Og det stopper ikke der.
Stemmen, der høres, er genereret af AI baseret på optagelser af patientens egen stemme, som den lød før hendes lammelse:
"Vi har skabt en ny BCI (Brain-Computer Interface), der gør det muligt for en person med total stemmelammelse at tale flydende," siger Gopala Anumanchipalli, en af hovedforskerne bag forsøget, ifølge Videnskab.dk.
Tidligere forsøg med lignende teknologi har haft lange forsinkelser, nogle gange op til otte sekunder, og har krævet, at patienten stadig havde nogen taleevne.
Den nye teknologi reagerer på under ét sekund og registrerer hjernens signaler, før de når det sted, hvor skaden har 'klippet forbindelsen'.
AI læser hjernen
Forskerne bad kvinden om at forsøge at udtale sætninger, der blev vist på en skærm. Selvom hun ikke fysisk kunne tale, kunne implantatet opfange hjernens signaler og sende dem videre til AI, som derefter dannede ordene, og endda med kvindens egen stemme:
"Det nye er, at samtalen nu er blevet mere flydende og dynamisk. Derudover har de genskabt patientens egen stemme," siger lektor Mads Jochumsen fra Aalborg Universitet, der forsker i hjernesignaler.
Der vil dog gå noget tid, før teknologien bliver en del af hverdagen på hospitaler. Ifølge Mads Jochumsen kan det tage op til ti år, før den bliver godkendt og klar til brug i sundhedsvæsenet.
Men forskerne bag projektet er optimistiske: "Videnskaben er nu klar," siger Gopala Anumanchipalli.