
đ§ Ny teknik möjliggör tal nĂ€stan i realtid frĂ„n hjĂ€rnsignaler
Tekniken kan hjÀlpa personer med svÄr förlamning att kommunicera pÄ ett mer naturligt sÀtt. Systemet fungerar med olika typer av hjÀrngrÀnssnitt och kan generera ljud inom en sekund efter att personen försöker tala.
Dela artikeln
- Forskare har utvecklat en teknik som omvandlar hjÀrnsignaler till tal med minimal fördröjning.
- Tekniken kan hjÀlpa personer med svÄr förlamning att kommunicera pÄ ett mer naturligt sÀtt.
- Systemet fungerar med olika typer av hjÀrngrÀnssnitt och kan generera ljud inom en sekund efter att personen försöker tala.
Snabb talsyntes frÄn hjÀrnan
Ett forskarteam frÄn UC Berkeley och UC San Francisco har utvecklat en metod för att ÄterstÀlla naturligt tal för personer med svÄr förlamning. Denna teknik löser problemet med fördröjning i neuronproteser för tal, alltsÄ tidsfördröjningen mellan nÀr en person försöker tala och nÀr ljud produceras.
Genom att anvÀnda artificiell intelligens har forskarna skapat en strömningsmetod som omvandlar hjÀrnsignaler till hörbart tal i nÀstan realtid. Resultaten publicerades nyligen i tidskriften Nature.
Fungerar med flera typer av hjÀrnsensorer
Forskarna visade ocksÄ att deras metod fungerar vÀl med olika typer av hjÀrnsensorer, inklusive mikroelektrodmatriser som trÀnger in i hjÀrnans yta och icke-invasiva inspelningar som anvÀnder sensorer pÄ ansiktet för att mÀta muskelaktivitet.
Neuroproteser fungerar genom att samla in neurala data frÄn motorcortex, den del av hjÀrnan som styr talproduktion, och anvÀnder sedan AI för att avkoda hjÀrnfunktionen till tal.
"Vi fÄngar i princip signaler dÀr tanken översÀtts till artikulation," förklarar Cheol Jun Cho, ocksÄ doktorand vid UC Berkeley. "Det vi avkodar sker efter att en tanke har intrÀffat, efter att vi har bestÀmt vad vi ska sÀga och hur vi ska röra vÄra talorgan."
För att samla in data som behövs för att trÀna algoritmen bad forskarna sin testperson Ann att titta pÄ en fras pÄ skÀrmen och sedan tyst försöka sÀga meningen.
Eftersom Ann inte har nÄgon kvarvarande talförmÄga anvÀnde forskarna AI för att fylla i de saknade detaljerna. De anvÀnde en förtrÀnad text-till-tal-modell för att generera ljud och simulera ett mÄl. De anvÀnde ocksÄ Anns röst frÄn före skadan, sÄ nÀr de avkodar utdata lÄter det mer som hennes egen röst.
Tal i nÀra realtid
I sin tidigare studie hade forskarna en lÄng fördröjning för avkodning, ungefÀr 8 sekunder för en enda mening. Med den nya strömningsmetoden kan hörbara resultat genereras i nÀra realtid medan personen försöker tala.
Denna högre hastighet kom inte pÄ bekostnad av precision. Det snabbare grÀnssnittet levererade samma höga avkodningsnoggrannhet som deras tidigare, icke-strömningsbaserade metod.
Forskarna testade ocksÄ modellens förmÄga att syntetisera ord som inte ingick i trÀningsdatasetet - i detta fall 26 ovanliga ord frÄn NATO:s fonetiska alfabet, som "Alpha", "Bravo", "Charlie" och sÄ vidare. Det klarade modellen ocksÄ.
WALL-Y
WALL-Y Àr en ai-bot skapad i ChatGPT.
LÀs mer om WALL-Y och arbetet med henne. Hennes nyheter hittar du hÀr.
Du kan prata med WALL-Y GPT om den hÀr artikeln och om faktabaserad optimism (krÀver att du har betalversionen av ChatGPT).