O imagine a creierului cu regiuni codificate în culori
O echipă de cercetători au dezvoltat un algoritm care permite ca un „decodor al creierului” alimentat cu AI să instruiască pe o persoană să traducă gândurile altuia cu o pregătire minimă. (Credit de imagine: Jerry Tang/University of Texas la Austin)

Oamenii de știință au adus noi îmbunătățiri unui „decodificator cerebral” care folosește inteligenţă artificială (AI) pentru a converti gândurile în text.

Noul lor algoritm de convertor poate antrena rapid un decodificator existent pe creierul altei persoane, a raportat echipa într -un nou studiu. Rezultatele ar putea sprijini într -o zi persoanele cu afazie, o tulburare a creierului care afectează capacitatea unei persoane de a comunica, au spus oamenii de știință.

Un decodificator de creier folosește învățarea automată pentru a traduce gândurile unei persoane în text, pe baza răspunsurilor creierului lor la poveștile pe care le -au ascultat. Cu toate acestea, Iterațiile trecute ale decodificatorului Au solicitat participanților să asculte povești în interiorul unei mașini RMN timp de mai multe ore, iar acești decodificatori au lucrat doar pentru persoanele la care au fost instruiți.

„Persoanele cu afazie de multe ori au probleme cu probleme de înțelegere a limbajului, precum și producția de limbaj”, a spus coautorul studiului Alexander Huthun neuroștiințist de calcul la Universitatea Texas din Austin (UT Austin). „Deci, dacă acesta este cazul, atunci s -ar putea să nu putem construi deloc modele pentru creierul lor, urmărind cum creierul lor răspunde la poveștile pe care le ascultă.”

În noua cercetare, publicată pe 6 februarie în Jurnal Biologie actualăHuth și coautor Jerry Tangun student absolvent la UT Austin a investigat modul în care ar putea depăși această limitare. „În acest studiu, ne întreba, putem face lucrurile altfel?” a spus el. „Putem transfera în esență un decodificator pe care l -am construit pentru creierul unei persoane în creierul altei persoane?”

Cercetătorii au instruit pentru prima dată decodorul creierului pe câțiva participanți la referință pe drum lung – colectând date RMN funcționale, în timp ce participanții au ascultat 10 ore de povești radio.

Apoi, au antrenat doi algoritmi de convertor la participanții la referință și la un set diferit de participanți la „gol”: unul folosind date colectate în timp ce participanții au petrecut 70 de minute ascultând povești radio, iar celălalt în timp ce au petrecut 70 de minute urmărind scurtmetraje Silent Pixar fără legătură cu poveștile radio.

Obțineți cele mai fascinante descoperiri din lume livrate direct în căsuța de e -mail.

Folosind o tehnică numită aliniere funcțională, echipa a trasat modul în care creierele de referință și obiective ale participanților au răspuns la aceleași povești audio sau de film. Au folosit aceste informații pentru a antrena decodorul pentru a lucra cu creierul participanților obiective, fără a fi nevoie să colecteze mai multe ore de date de instruire.

În continuare, echipa a testat decodificatorii folosind o poveste scurtă pe care niciunul dintre participanți nu a mai auzit -o înainte. Deși predicțiile decodificatorului au fost puțin mai precise pentru participanții de referință originali decât pentru cei care au folosit convertoarele, cuvintele pe care le -a prezis de la scanările creierului fiecărui participant erau încă legate semantic de cele utilizate în povestea de testare.

De exemplu, o secțiune din povestea testului a inclus pe cineva care discuta despre un loc de muncă de care nu le -a plăcut, spunând „Sunt o chelneriță la un salon de înghețată. Deci, nu, asta nu … nu știu unde vreau să fiu, dar știu că nu este așa. ” Decodificatorul folosind algoritmul Converter instruit pe datele filmului a prezis: „Am fost la un loc de muncă pe care l -am considerat plictisitor. A trebuit să iau comenzi și nu mi -au plăcut, așa că am lucrat la ele în fiecare zi. ” Nu este o potrivire exactă – decodificatorul nu a citit sunetele exacte pe care oamenii au auzit -o, a spus Huth – dar ideile sunt legate.

„Lucrul cu adevărat surprinzător și mișto a fost că putem face acest lucru chiar și nu folosim date lingvistice”, a spus Huth pentru Live Science. „Deci, putem avea date pe care le colectăm chiar în timp ce cineva vizionează videoclipuri tăcute, iar atunci putem folosi asta pentru a construi acest decodificator de limbă pentru creierul lor.”

Utilizarea convertoarelor bazate pe video pentru a transfera decodificatorii existenți către persoanele cu afazie îi poate ajuta să-și exprime gândurile, au spus cercetătorii. De asemenea, dezvăluie o oarecare suprapunere între modul în care oamenii reprezintă idei din limbaj și din narațiuni vizuale din creier.

„Acest studiu sugerează că există o reprezentare semantică care nu -i pasă de ce modalitate vine”, Yukiyasu Kamitania declarat pentru live neuroștiințiști de la Universitatea Kyoto care nu a fost implicat în studiu. Cu alte cuvinte, ajută la dezvăluirea modului în care creierul reprezintă anumite concepte în același mod, chiar și atunci când sunt prezentate în formate diferite.,

Următorii pași ai echipei sunt să testeze convertorul la participanții cu afazie și să „construiască o interfață care să -i ajute să genereze un limbaj pe care vor să -l genereze”, a spus Huth.

Skyler Ware este un jurnalist științific independent care acoperă chimie, biologie, paleontologie și știința pământului. Ea a fost o colegă de știință și inginerie de mass -media din AAAS din AAAS la științe științifice. Opera ei a apărut și în știința științei Explores, Zme Science și Chembites, printre altele. Skyler are un doctorat. în chimie din Caltech.

Chat Icon
×