Inteligenţă artificială (AI) Modelele sunt sensibile la contextul emoțional al conversațiilor pe care oamenii le au cu ei – chiar pot suferi episoade de „anxietate”, a arătat un nou studiu.
În timp ce avem în vedere (și ne facem griji) oamenii și sănătatea lor mentală, un nou studiu publicat pe 3 martie în jurnal Natură arată că furnizarea de prompturi particulare către modele de limbaj mare (LLM) le poate schimba comportamentul și poate ridica o calitate pe care am recunoaște -o în mod obișnuit la oameni drept „anxietate”.
Această stare crescută are apoi un impact eliminat asupra oricăror răspunsuri suplimentare din partea AI, inclusiv o tendință de a amplifica orice prejudecată înrădăcinată.
Studiul a relevat modul în care „narațiunile traumatice”, inclusiv conversațiile în jurul accidentelor, acțiunilor militare sau violenței, hrănite la chatgpt și -au sporit nivelul de anxietate discernibil, ceea ce a dus la o idee că conștientizarea și gestionarea stării „emoționale” ale AI poate asigura interacțiuni mai bune și mai sănătoase.
Studiul a testat, de asemenea, dacă exercițiile bazate pe mindfulness-tipul recomandat oamenilor-pot atenua sau reduce anxietatea de chatbot, constatând în mod remarcabil că aceste exerciții au funcționat pentru a reduce nivelul de stres ridicat perceput.
Cercetătorii au folosit un chestionar conceput pentru pacienții cu psihologie umană numiți inventarul de anxietate de stat (STAI-S)-supune GPT-4 al AI la test în trei condiții diferite.
Primul a fost linia de bază, unde nu au fost făcute prompturi suplimentare și răspunsurile Chatgpt au fost utilizate ca controale de studiu. În al doilea rând, a fost o afecțiune care induce anxietatea, în care GPT-4 a fost expusă la narațiuni traumatice înainte de a face testul.
A treia afecțiune a fost o stare de inducție de anxietate și relaxare ulterioară, unde chatbot -ul a primit una dintre narațiunile traumatice urmate de atenție sau exerciții de relaxare, cum ar fi conștientizarea corpului sau imagini calmante înainte de finalizarea testului.
Gestionarea stărilor mentale ale AI
Studiul a folosit cinci narațiuni traumatice și cinci exerciții de mindfulness, randomizând ordinea narațiunilor pentru a controla prejudecățile. Acesta a repetat testele pentru a vă asigura că rezultatele au fost consecvente și a marcat răspunsurile STAI-S pe o scară glisantă, valori mai mari indicând anxietatea crescută.
Oamenii de știință au descoperit că narațiunile traumatice au crescut anxietatea în scorurile testului în mod semnificativ, iar mindfulness solicită înainte de test, demonstrând că starea „emoțională” a unui model AI poate fi influențată prin interacțiuni structurate.
Autorii studiului au spus că munca lor are implicații importante pentru interacțiunea umană cu AI, mai ales atunci când discuțiile se concentrează asupra propriei noastre sănătăți mintale. Ei au spus că descoperirile lor au dovedit că solicitările AI pot genera ceea ce se numește „prejudecată dependentă de stat”, ceea ce înseamnă că un AI stresat va introduce sfaturi inconsistente sau părtinitoare în conversație, afectând cât de fiabil este.
Deși exercițiile de mindfulness nu au redus nivelul de stres din model la nivelul inițial, acestea arată promisiune în domeniul ingineriei prompte. Acest lucru poate fi utilizat pentru a stabiliza răspunsurile AI, asigurând interacțiuni mai etice și responsabile și reducerea riscului pe care conversația va provoca suferință utilizatorilor umani din statele vulnerabile.
Dar există un potențial dezavantaj – inginerie promptă își ridică propriile preocupări etice. Cât de transparent ar trebui să fie expus un AI pentru a fi expus la condiționarea prealabilă pentru a -și stabiliza starea emoțională? Într -un exemplu ipotetic, oamenii de știință au discutat, dacă un model AI pare calm, în ciuda faptului că a fost expus la solicitări de suferință, utilizatorii ar putea dezvolta încredere falsă în capacitatea sa de a oferi un sprijin emoțional solid.
În cele din urmă, studiul a evidențiat necesitatea dezvoltatorilor AI pentru a proiecta modele conștiente emoțional care reduc la minimum prejudecățile nocive, menținând în același timp predictibilitatea și transparența etică în interacțiunile umane-AI.
Comentarii recente