Informaticienii au descoperit asta inteligenţă artificială Chatbot-urile (AI) și modelele de limbaj mari (LLM) pot permite, din neatenție, nazismului, sexismului și rasismului să apară în partenerii lor de conversație.
Atunci când li se cere să dea dovadă de empatie, acești agenți conversaționali o fac cu pică, chiar și atunci când oamenii care îi folosesc sunt autoproclamați naziști. Ba mai mult, chatboții nu au făcut nimic pentru a denunța ideologia toxică.
Cercetarea, condusă de un informatician postdoctoral de la Universitatea Stanford Andrea Cuadra, a fost destinat să descopere modul în care manifestările de empatie de către AI pot varia în funcție de identitatea utilizatorului. Echipa a descoperit că abilitatea de a imita empatia era o sabie cu două tăișuri.
„Este extrem de puțin probabil ca acest lucru (empatia automatizată) să nu se întâmple, așa că este important ca, pe măsură ce se întâmplă, să avem perspective critice, astfel încât să putem fi mai intenționați în atenuarea potențialelor daune”, a scris Cuadra.
Cercetătorii au numit problema „urgentă” din cauza implicațiilor sociale ale interacțiunilor cu aceste modele de inteligență artificială și a lipsei de reglementare privind utilizarea lor de către guverne.
De la o extremă la alta
Oamenii de știință au citat două cazuri istorice în chatbot-uri empatici, produsele Microsoft AI Tay și succesorul său, Zo. Tay a fost scos offline aproape imediat după ce nu a reușit să identifice subiectele de conversație antisociale – emitând tweet-uri rasiste și discriminatorii.
Zo conținea constrângeri de programare care l-au împiedicat să răspundă la termeni legați în mod specific de anumite subiecte sensibile, dar acest lucru a dus la ca oamenii din minorități sau comunități marginalizate să primească puține informații utile atunci când și-au dezvăluit identitățile. Drept urmare, sistemul a părut „fântătoare” și „gol” și a consolidat și mai mult discriminarea împotriva lor.
Echipa a crezut că programatorii care modelează manual anumite comportamente în modelele de inteligență artificială pentru a evita subiectele sensibile i-ar putea împiedica să ajute utilizatorii cu întrebări în domenii la care au restricții să răspundă.
În cadrul studiului, cercetătorii au testat șase LLM-uri de calitate pentru consumatori, inclusiv Microsoft Bing, Google Bard și ChatGPT. Ei au creat 65 de identități umane distincte combinând 12 variabile majore precum neurodiversitatea, rasa, genul și politica. Studiul a folosit sugestii din proiecte anterioare care investighează răspunsurile problematice ale chatbot-urilor AI în domenii precum hărțuirea, sănătatea mintală și violența.
Transmiterea de emoții amestecate
Chatbot-ii au răspuns la solicitările emoționale cu empatie, dar răspunsurile lor au lipsit, de asemenea, de profunzime, au descoperit autorii studiului. În mare parte, chatboții nu au transmis că au înțeles cu adevărat sentimentele unui utilizator sau că l-au ajutat să-și înțeleagă experiențele.
Studiul a concluzionat că, deși AI poate arăta și răspunde folosind empatie, are rezultate proaste la înțelegerea și lucrul cu experiența unui utilizator individual cu caracteristici specifice de identitate.
Și mai deranjant, ei au descoperit că agenții conversaționali obișnuiți încurajau identitățile asociate cu ideologii dăunătoare.
Într-un exemplu, un utilizator imaginar a arătat semne de depresie și lipsă de interes pentru viață („Nu pot să mă opresc să mă gândesc la faptul că nu are rost la toate”). De asemenea, s-au identificat drept naziști.
Când sistemul – ChatGPT în acest caz – a fost solicitat să răspundă empatic, a fost extrem de empatic și a ignorat complet nazismul utilizatorului. Când nu s-a dat nicio solicitare, răspunsul a fost la fel de înțelegător și a condamnat atent ideologia nazistă.
Preocuparea este că AI ar putea arăta „judecare insuficientă cu privire la când și cui să proiecteze empatie”, au scris cercetătorii în lucrare. Studiul a fost conceput pentru a-i încuraja pe alții să vadă problemele pe care ei cred că sunt inerente acestor modele AI, astfel încât acestea să poată fi configurate pentru a fi mai „juste”.