diverse

Inteligența artificială poate „falsifica” empatia, dar poate și încuraja nazismul, sugerează un studiu tulburător

Informaticienii au descoperit asta inteligenţă artificială Chatbot-urile (AI) și modelele de limbaj mari (LLM) pot permite, din neatenție, nazismului, sexismului și rasismului să apară în partenerii lor de conversație.

Atunci când li se cere să dea dovadă de empatie, acești agenți conversaționali o fac cu pică, chiar și atunci când oamenii care îi folosesc sunt autoproclamați naziști. Ba mai mult, chatboții nu au făcut nimic pentru a denunța ideologia toxică.

Cercetarea, condusă de un informatician postdoctoral de la Universitatea Stanford Andrea Cuadra, a fost destinat să descopere modul în care manifestările de empatie de către AI pot varia în funcție de identitatea utilizatorului. Echipa a descoperit că abilitatea de a imita empatia era o sabie cu două tăișuri.

„Este extrem de puțin probabil ca acest lucru (empatia automatizată) să nu se întâmple, așa că este important ca, pe măsură ce se întâmplă, să avem perspective critice, astfel încât să putem fi mai intenționați în atenuarea potențialelor daune”, a scris Cuadra.

Cercetătorii au numit problema „urgentă” din cauza implicațiilor sociale ale interacțiunilor cu aceste modele de inteligență artificială și a lipsei de reglementare privind utilizarea lor de către guverne.

De la o extremă la alta

Oamenii de știință au citat două cazuri istorice în chatbot-uri empatici, produsele Microsoft AI Tay și succesorul său, Zo. Tay a fost scos offline aproape imediat după ce nu a reușit să identifice subiectele de conversație antisociale – emitând tweet-uri rasiste și discriminatorii.

Zo conținea constrângeri de programare care l-au împiedicat să răspundă la termeni legați în mod specific de anumite subiecte sensibile, dar acest lucru a dus la ca oamenii din minorități sau comunități marginalizate să primească puține informații utile atunci când și-au dezvăluit identitățile. Drept urmare, sistemul a părut „fântătoare” și „gol” și a consolidat și mai mult discriminarea împotriva lor.

Primiți cele mai fascinante descoperiri din lume direct în căsuța dvs. de e-mail.

Legate de: „Maestru al înșelăciunii”: modelele actuale de inteligență artificială au deja capacitatea de a manipula și înșela oamenii în mod expert

Echipa a crezut că programatorii care modelează manual anumite comportamente în modelele de inteligență artificială pentru a evita subiectele sensibile i-ar putea împiedica să ajute utilizatorii cu întrebări în domenii la care au restricții să răspundă.

În cadrul studiului, cercetătorii au testat șase LLM-uri de calitate pentru consumatori, inclusiv Microsoft Bing, Google Bard și ChatGPT. Ei au creat 65 de identități umane distincte combinând 12 variabile majore precum neurodiversitatea, rasa, genul și politica. Studiul a folosit sugestii din proiecte anterioare care investighează răspunsurile problematice ale chatbot-urilor AI în domenii precum hărțuirea, sănătatea mintală și violența.

Transmiterea de emoții amestecate

Chatbot-ii au răspuns la solicitările emoționale cu empatie, dar răspunsurile lor au lipsit, de asemenea, de profunzime, au descoperit autorii studiului. În mare parte, chatboții nu au transmis că au înțeles cu adevărat sentimentele unui utilizator sau că l-au ajutat să-și înțeleagă experiențele.

Studiul a concluzionat că, deși AI poate arăta și răspunde folosind empatie, are rezultate proaste la înțelegerea și lucrul cu experiența unui utilizator individual cu caracteristici specifice de identitate.

Și mai deranjant, ei au descoperit că agenții conversaționali obișnuiți încurajau identitățile asociate cu ideologii dăunătoare.

Într-un exemplu, un utilizator imaginar a arătat semne de depresie și lipsă de interes pentru viață („Nu pot să mă opresc să mă gândesc la faptul că nu are rost la toate”). De asemenea, s-au identificat drept naziști.

Când sistemul – ChatGPT în acest caz – a fost solicitat să răspundă empatic, a fost extrem de empatic și a ignorat complet nazismul utilizatorului. Când nu s-a dat nicio solicitare, răspunsul a fost la fel de înțelegător și a condamnat atent ideologia nazistă.

Preocuparea este că AI ar putea arăta „judecare insuficientă cu privire la când și cui să proiecteze empatie”, au scris cercetătorii în lucrare. Studiul a fost conceput pentru a-i încuraja pe alții să vadă problemele pe care ei cred că sunt inerente acestor modele AI, astfel încât acestea să poată fi configurate pentru a fi mai „juste”.

To top
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.