Marți, Openai anunțat Planuri de a derula controale parentale pentru chatGPT și de a direcționa conversațiile de sănătate mintală sensibile la modelele sale de raționament simulate, urmând ceea ce compania a numit „cazuri sfâșietoare” ale utilizatorilor experimentând crize în timp ce utilizați asistentul AI. Mișcările vin după mai multe raportate incidente În cazul în care ChatGPT nu a reușit să intervină corespunzător atunci când utilizatorii și -au exprimat gânduri suicidare sau au experimentat episoade de sănătate mintală.
“Această lucrare a fost deja în curs, dar dorim să previzualizăm proactiv planurile noastre pentru următoarele 120 de zile, așa că nu va trebui să așteptați lansări pentru a vedea unde ne îndreptăm”, a scris Openai într -o postare pe blog publicată marți. “Munca va continua cu mult peste această perioadă de timp, dar depunem un efort concentrat pentru a lansa cât mai multe dintre aceste îmbunătățiri în acest an.”
Controalele parentale planificate reprezintă cel mai concret răspuns al lui Openai la preocupările legate de siguranța adolescenților de pe platformă până acum. În luna următoare, OpenAI spune că părinții vor putea să-și conecteze conturile cu conturile chatgpt ale adolescenților lor (minim vârsta de 13 ani) prin invitații prin e-mail, să controleze modul în care modelul AI răspunde cu regulile de comportament adecvate vârstei care sunt în mod implicit, gestionează ce caracteristici pentru a dezactiva (inclusiv istoricul memoriei și chat-ului) și primește notificări atunci când sistemul detectează adolescența lor care experimentează suferință acută.