diverse

AI „halucina” constant, dar există o soluție

ai-„halucina”-constant,-dar-exista-o-solutie
O ilustrare a unui creier strălucitor suprapus cu liniile geometrice care plutesc pe o mână întinsă
Jos cu date interminabile. (Credit de imagine: Alexander Supertramp prin Shutterstock)

Principala problemă cu experimentul Big Tech cu inteligenţă artificială (AI) nu este faptul că ar putea prelua umanitatea. Este vorba despre modelele de limbaj mare (LLMS), cum ar fi Chatgpt -ul Open AI, GEMINI GOOGLE și META LLAMA continuă să înțeleagă lucrurile, iar problema este intractabilă.

Cunoscut sub numele de halucinații, cel mai proeminent exemplu a fost poate cazul profesorului de drept american Jonathan Turley, care a fost Acuzat fals de hărțuire sexuală de către chatgpt în 2023.

Soluția lui Openai pare să fi fost practic să „dispară” Turley prin programarea Chatgpt pentru a spune că nu poate răspunde la întrebările despre el, ceea ce nu este în mod clar o soluție corectă sau satisfăcătoare. Încercarea de a rezolva halucinațiile după eveniment și caz după caz ​​nu este în mod clar calea de urmat.

Același lucru se poate spune despre LLMS amplificarea stereotipurilor sau dând Răspunsuri centrate în vest. Există, de asemenea, o lipsă totală de responsabilitate în fața acestei dezinformări răspândite, deoarece este dificil să se stabilească cum LLM a ajuns în această concluzie în primul rând.

Am văzut o dezbatere acerbă despre aceste probleme după lansarea GPT-4 din 2023, cea mai recentă paradigmă majoră în dezvoltarea Openai LLM. Probabil că dezbaterea s -a răcit de atunci, deși fără justificare.

UE a trecut AI act În timp record în 2024, de exemplu, în încercarea de a fi lider mondial în supravegherea acestui domeniu. Dar actul se bazează foarte mult pe companiile AI pentru a se reglementa fără a se adresa cu adevărat problemele în cauză. Nu a împiedicat companiile tehnologice să lanseze LLMS la nivel mondial la sute de milioane de utilizatori și să își colecteze datele fără o examinare adecvată.

Înrudite: „Foolhardy în cel mai bun caz, și înșelător și periculos în cel mai rău caz”: Nu credeți hype -ul – iată de ce inteligența generală artificială nu este ceea ce miliardarul vă spun că este

Între timp, cel mai recent teste Indicați că Chiar și cele mai sofisticate LLM rămân nesigure. În ciuda acestui fapt, cele mai importante companii AI Încă rezistați la asumarea responsabilității pentru erori.

Din păcate, tendințele LLMS de a dezinforma și de a reproduce prejudecățile nu pot fi rezolvate cu îmbunătățiri treptate în timp. Și odată cu apariția AI agentîn cazul în care utilizatorii vor putea în curând să atribuie proiecte unui LLM, cum ar fi, să zicem, rezervarea vacanței lor sau optimizarea plății tuturor facturilor în fiecare lună, potențialul de probleme este setat să se înmulțească.

Câmpul emergent al AI neurozimbolic ar putea rezolva aceste probleme, reducând în același timp cantitățile enorme de date necesare pentru SLL -urile de instruire. Deci, ce este AI neurozimbolic și cum funcționează?

Problema LLM

LLM -urile funcționează folosind o tehnică numită învățare profundă, unde li se oferă cantități mari de date text și folosesc statistici avansate pentru a deduce modele care determină care ar trebui să fie următorul cuvânt sau frază în orice răspuns dat. Fiecare model – împreună cu toate tiparele pe care le -a învățat – este stocat în tablouri de computere puternice în centrele de date mari cunoscute sub numele de rețele neuronale.

LLM-urile pot părea a fi rațiune folosind un proces numit lanț de gândire, unde generează răspunsuri în mai multe etape care imită modul în care oamenii ar putea ajunge logic la o concluzie, pe baza tiparelor văzute în datele de instruire.

Fără îndoială, LLM -urile sunt o realizare excelentă în domeniul ingineriei. Sunt impresionante la rezumarea textului și traducerea și pot îmbunătăți productivitatea acelor sârguincioși și cu cunoștințe suficient pentru a -și detecta greșelile. Cu toate acestea, au un potențial mare de a induce în eroare, deoarece concluziile lor se bazează întotdeauna pe probabilități – nu înțelegere.

O soluție populară se numește „uman-în-buclă”: asigurându-vă că oamenii care folosesc AIS mai iau deciziile finale. Cu toate acestea, repartizarea vină a oamenilor nu rezolvă problema. Încă vor fi înșelați de dezinformare.

LLM -urile au acum nevoie de atât de multe date de instruire pentru a avansa, încât acum trebuie să le alimentam date sintetice, adică date create de LLMS. Aceste date pot copia și amplifica erorile existente din propriile date sursă, astfel încât noile modele moștenesc punctele slabe ale celor vechi. Drept urmare, costul programării AIS este mai precis după pregătirea lor-cunoscută sub numele de „aliniere a modelului post-hoc”- este înrăutățit.

De asemenea, devine din ce în ce mai dificil pentru programatori să vadă ce nu merge bine, deoarece numărul de pași din procesul de gândire al modelului devine din ce în ce mai mare, ceea ce face din ce în ce mai greu de corectat pentru erori.

AI neurosimbolică combină învățarea predictivă a rețelelor neuronale cu predarea AI o serie de reguli formale pe care oamenii învață să le poată delibera mai fiabil. Acestea includ reguli logice, cum ar fi „dacă a atunci b”, cum ar fi „dacă plouă, atunci totul afară este în mod normal umed”; reguli matematice, cum ar fi “dacă a = b și b = c atunci a = c”; și semnificațiile convenite ale lucrurilor precum cuvinte, diagrame și simboluri. Unele dintre acestea vor fi introduse direct în sistemul AI, în timp ce îi va deduce pe alții în sine, analizând datele sale de instruire și realizând „extracția cunoștințelor”.

Acest lucru ar trebui să creeze o AI care nu va halucina niciodată și va învăța mai repede și mai inteligent, organizându -și cunoștințele în părți clare și reutilizabile. De exemplu, dacă AI are o regulă cu privire la lucrurile umede afară atunci când plouă, nu este nevoie ca acesta să păstreze fiecare exemplu de lucruri care ar putea fi umede afară – regula poate fi aplicată la niciun obiect nou, chiar și unul pe care nu l -a mai văzut niciodată.

În timpul dezvoltării modelului, AI neurozimbolică integrează, de asemenea, învățarea și raționamentul formal folosind un proces cunoscut sub numele de „ciclul neurozimbolic”. Aceasta implică un AI parțial instruit de reguli de extragere a datelor sale de instruire, apoi insuflând aceste cunoștințe consolidate înapoi în rețea înainte de instruirea ulterioară cu date.

Acest lucru este mai eficient din punct de vedere energetic, deoarece AI nu trebuie să stocheze la fel de multe date, în timp ce AI este mai responsabilă, deoarece este mai ușor pentru un utilizator să controleze modul în care ajunge la concluzii particulare și să se îmbunătățească în timp. De asemenea, este mai echitabil, deoarece poate fi făcut pentru a urma reguli preexistente, cum ar fi: „Pentru orice decizie luată de AI, rezultatul nu trebuie să depindă de rasa sau sexul unei persoane”.

Al treilea val

Primul val din AI în anii 1980, cunoscută sub numele de AI simbolic, se bazează de fapt pe regulile formale ale calculatoarelor de predare pe care le -ar putea aplica apoi la noi informații. Învățarea profundă a urmat ca al doilea val în anii 2010, iar mulți consideră AI neurozimbolic ca a treia.

Este cel mai ușor să aplici principii neurozimbolice AI în zonele de nișă, deoarece regulile pot fi clar definite. Deci nu este de mirare că am văzut că a apărut prima dată în Google Alphafoldcare prezice structurile proteice pentru a ajuta la descoperirea medicamentelor; şi Alfageometriecare rezolvă probleme complexe de geometrie.

Pentru AIS mai larg, pe larg, ChinaDeepseek folosește un Tehnica de învățare numită „distilare” care este un pas în aceeași direcție. Dar pentru a face AI neurozimbolic pe deplin fezabil pentru modelele generale, mai trebuie să existe mai multe cercetări pentru a -și perfecționa capacitatea de a discerne regulile generale și a efectua extracția cunoștințelor.

Nu este clar în ce măsură producătorii LLM lucrează deja la acest lucru. Cu siguranță sună de parcă se îndreaptă în direcția de a încerca să -și învețe modelele să se gândească mai inteligent, dar par, de asemenea, căsătoriți la nevoia de a se extinde cu cantități din ce în ce mai mari de date.

Realitatea este că, dacă AI va continua să avanseze, vom avea nevoie de sisteme care să se adapteze la noutate de la doar câteva exemple, care să le verifice înțelegerea, care pot multitask și reutilizează cunoștințele pentru a îmbunătăți eficiența datelor și care poate raționa în mod fiabil în moduri sofisticate.

În acest fel, tehnologia digitală bine proiectată ar putea oferi chiar o alternativă la reglementare, deoarece verificările și soldurile ar fi încorporate în arhitectură și poate standardizate în întreaga industrie. Există un drum lung de parcurs, dar cel puțin există o cale înainte.

Acest articol editat este republicat din Conversația sub licență Creative Commons. Citiți Articol original.

Obțineți cele mai fascinante descoperiri din lume livrate direct în căsuța de e -mail.

Artur D’Avila Garcez este profesor de informatică la City St George’s, University of London și un cercetător de frunte în AI neurozimbolic. El a co-fondat seria NESY Conference, a scris peste 250 de publicații și a ajutat la dezvoltarea unuia dintre primele sisteme neurozimbolice pentru învățare și raționament. Garcez este, de asemenea, redactor-șef al AI neurozimbolică Jurnal și deține burse cu British Computer Society și Academia de învățământ superior din Marea Britanie.

To top
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.