
Majoritatea oamenilor cred că modelele de limbaj mari (LLM) precum ChatGPT au experiențe conștiente la fel ca oamenii, potrivit unui studiu recent.
Experți în tehnologie și știință respinge în mod covârșitor ideea că cea mai puternică de astăzi inteligenţă artificială Modelele (AI) sunt conștiente sau auto-conștiente în același mod în care sunt oamenii și alte animale. Dar, pe măsură ce modelele de inteligență artificială se îmbunătățesc, ele devin din ce în ce mai impresionante și au început să dea semne a ceea ce, pentru un observator obișnuit din exterior, poate arăta ca o conștiință.
Cel recent lansat Model Claude 3 Opus, de exemplu, i-a uimit pe cercetători cu aparenta conștiință de sine și cu înțelegerea avansată. Un inginer Google a fost, de asemenea, suspendat în 2022 după ce a declarat public un Sistemul AI pe care compania îl construia era „conștient”.
În noul studiu, publicat pe 13 aprilie în jurnal Neuroștiința conștiinței, cercetătorii au susținut că percepția conștiinței în IA este la fel de importantă ca dacă sunt sau nu sensibili. Acest lucru este valabil mai ales deoarece luăm în considerare viitorul AI în ceea ce privește utilizarea, reglementarea și protecția împotriva efectelor negative, au susținut aceștia.
De asemenea, urmează a lucrare recentă care a susținut că GPT-4, LLM-ul care alimentează ChatGPT, a trecut testul Turing – care judecă dacă un AI nu se poate distinge de un om în funcție de alți oameni care interacționează cu el.
În noul studiu, cercetătorii au cerut 300 de cetățeni americani să descrie frecvența utilizării propriei AI, precum și să citească o scurtă descriere a ChatGPT.
Apoi au răspuns la întrebări despre dacă stările mentale i-ar putea fi atribuite. Peste două treimi dintre participanți (67%) au atribuit posibilitatea conștiinței de sine sau a conștiinței fenomenale – sentimentul cum este să fii „tu”, față de un facsimil nesimțit care simulează autocunoașterea interioară – în timp ce 33% au atribuit nici o experiență conștientă.
De asemenea, participanților li s-a cerut să evalueze răspunsurile pe o scară de la 1 la 100, unde 100 ar însemna încredere absolută că ChatGPT experimentează conștiință și 1 încredere absolută că nu. Cu cât oamenii foloseau mai des instrumente precum ChatGPT, cu atât erau mai probabil să-i atribuie o anumită conștiință.
Constatarea cheie, că majoritatea oamenilor cred că LLM-urile prezintă semne de conștiință, a dovedit că „intuițiile populare” despre conștiința AI pot diverge de intuițiile experților, au spus cercetătorii în lucrare. Ei au adăugat că discrepanța ar putea avea „implicații semnificative” pentru statutul etic, legal și moral al IA.
Oamenii de știință au spus că designul experimental a dezvăluit că neexperții nu înțeleg conceptul de conștiință fenomenală, așa cum ar face un neurolog sau un psiholog. Asta nu înseamnă însă că rezultatele nu vor avea un impact mare asupra viitorului domeniului.
Potrivit lucrării, atribuțiile psihologice populare ale conștiinței pot media viitoare preocupări morale față de AI, indiferent dacă sunt sau nu conștiente. Ponderea opiniei publice – și percepțiile largi ale publicului – în jurul oricărui subiect orientează adesea regulamentul, au spus ei, precum și influențează dezvoltarea tehnologică.