Un bărbat rostogolind un bolovan pe un deal.

Mărește (credit: Getty Images)

Luni, OpenAI a anunţat formarea unui nou „Comitet de Siguranță și Securitate” care să supravegheze gestionarea riscurilor pentru proiectele și operațiunile sale. Anunțul vine în momentul în care compania spune că a „început recent” pregătirea următorului său model de frontieră, despre care se așteaptă să aducă compania mai aproape de obiectivul său de a atinge inteligența generală artificială (AGI), deși unii critici spun că AGI este mai departe decât am putea noi. gândi. De asemenea, vine ca o reacție la a îngrozitoare două săptămâni în presa pentru companie.

În prezent, nu se știe dacă noul model de frontieră menționat mai sus este destinat să fie GPT-5 sau un pas dincolo de acesta. În industria AI, „modelul de frontieră” este un termen pentru un nou sistem AI conceput să depășească limitele capacităților actuale. Iar „AGI” se referă la un sistem AI ipotetic cu abilități la nivel uman de a efectua sarcini noi, generale, dincolo de datele sale de antrenament (spre deosebire de AI îngust, care este antrenat pentru sarcini specifice).

Între timp, noul Comitet de Siguranță și Securitate, condus de directorii OpenAI Bret Taylor (președinte), Adam D’Angelo, Nicole Seligman și Sam Altman (CEO), va fi responsabil pentru a face recomandări despre siguranța AI către întregul consiliu de administrație al companiei. . În acest caz, „siguranța” înseamnă parțial obișnuitul „nu vom lăsa AI să devină necinstiți și preia controlul lumii”, dar include și un set mai larg de „procese și garanții” pe care compania le-a precizat într-un Actualizare de siguranță din 21 mai legate de cercetarea alinierii, protejarea copiilor, susținerea integrității alegerilor, evaluarea impactului societal și implementarea măsurilor de securitate.

Citiți 5 paragrafe rămase | Comentarii

Chat Icon
×