Știm că inteligența artificială (AI) nu poate gândi la fel ca o persoană, dar noile cercetări au relevat modul în care această diferență ar putea afecta luarea deciziilor AI, ceea ce duce la ramificări din lumea reală pentru care oamenii ar putea fi nepregătiți.
Studiul, publicat în 2025 februarie în jurnal Tranzacții privind cercetarea de învățare automatăa examinat cât de bine pot forma modelele de limbaj mare (LLM).
Ei au descoperit că atât în analogiile simple cu coarde de litere, cât și în problemele matricei digitale-unde sarcina era să completeze o matrice identificând cifra lipsă-oamenii au avut performanțe bine, dar performanța AI a scăzut brusc.
În timp ce testarea robustetei oamenilor și a modelelor AI pe probleme de analogie bazate pe povești, studiul a constatat că modelele erau sensibile la efecte de comandă de răspuns-diferențe în răspunsuri datorate ordinii tratamentelor într-un experiment-și poate au fost, de asemenea, mai multe șanse de parafrază.
În total, studiul a concluzionat că modelele AI nu au abilități de învățare „zero”, în care un elev observă eșantioane din clase care nu erau prezente în timpul antrenamentului și face predicții despre clasa pe care o aparțin în conformitate cu întrebarea.
Înrudite: Pedepsirea AI nu o oprește să mintă și să înșele – doar o face să se ascundă mai bine, arată studiul
Coautor al studiului Martha Lewisprofesor asistent de AI neurozimbolic la Universitatea din Amsterdam, a dat un exemplu despre modul în care AI nu poate efectua raționamente analogice, precum și oameni în probleme cu șir de litere.
„Analogiile cu șiruri de litere au forma ‘Dacă ABCD merge la ABCE, la ce merge IJKL?” Majoritatea oamenilor vor răspunde la „ijkm” și [AI] Tinde să ofere și acest răspuns, „Lewis a spus Live Science.” Dar o altă problemă ar putea fi „dacă ABBCD merge la ABCD, la ce merge IJKKL? Oamenii vor avea tendința de a răspunde „ijkl” – modelul este de a elimina elementul repetat. Dar GPT-4 tinde să aibă probleme [like these] greşit.”
De ce contează că AI nu poate gândi ca oamenii
Lewis a spus că, deși putem rezuma de la modele specifice la reguli mai generale, LLM -urile nu au această capacitate. „Sunt buni la identificarea și potrivirea modelelor, dar nu la generalizarea acestor modele”.
Majoritatea aplicațiilor AI se bazează într -o oarecare măsură pe volum – cu cât sunt disponibile mai multe date de instruire, cu atât sunt identificate mai multe modele. Dar Lewis a subliniat potrivirea modelului și abstracția nu sunt același lucru. „Este mai puțin despre ceea ce este în date și mai mult despre modul în care sunt utilizate datele”, a adăugat ea.
Pentru a da un sentiment de implicații, AI este din ce în ce mai utilizat în sfera juridică pentru cercetare, analiza jurisprudenței și recomandările de condamnare. Dar, cu o capacitate mai mică de a face analogii, poate să nu recunoască modul în care precedentele legale se aplică cazurilor ușor diferite atunci când apar.
Având în vedere că această lipsă de robustete ar putea afecta rezultatele din lumea reală, studiul a subliniat că acest lucru a servit ca dovadă că trebuie să evaluăm cu atenție sistemele AI nu doar pentru precizie, ci și pentru robustete în capacitățile lor cognitive.
Comentarii recente