Ilustrație a unui robot de jucărie rupt.

Mărește (credit: Benj Edwards / Getty Images)

Marți, ChatGPT utilizatorii au început să raporteze rezultate neașteptate de la asistentul AI al OpenAI, inundând sub-ul Reddit r/ChatGPT cu rapoarte ale asistentului AI „având un accident vascular cerebral,” „a înnebuni,” „incoerent,” și „pierzând-o.” OpenAI are a recunoscut problema și lucrează la o remediere, dar experiența servește ca un exemplu important al modului în care unii oameni percep defecțiunea modele mari de limbajcare sunt concepute să imite producția umană.

ChatGPT nu este în viață și nu are mintea de pierdut, dar tragerea de metafore umane (numite „antropomorfizare”) pare să fie cea mai ușoară modalitate pentru majoritatea oamenilor de a descrie rezultatele neașteptate pe care le-au văzut din modelul AI. Sunt forțați să folosească acești termeni pentru că OpenAI nu împărtășește exact cum funcționează ChatGPT sub capotă; modelele de limbaj mari care stau la baza funcționează ca a cutie neagră.

„Mi-a dat exact același sentiment – ​​ca și cum aș vedea pe cineva pierzându-și încet mințile fie din cauza psihozei, fie din cauza demenței.” a scris un utilizator Reddit numit z3ldafitzgerald ca răspuns la o postare despre defecțiunea ChatGPT. „Este prima dată când ceva legat de inteligența artificială mi-a dat înfricoșări.”

Citiți cele 7 paragrafe rămase | Comentarii

×