În urmă cu câteva luni, Anthropic și-a angajat în liniște primul său cercetător dedicat „bunăstarea AI”, Kyle Fish, pentru a explora dacă viitoarele modele AI ar putea merita considerație și protecție morală, relatează buletinul informativ AI. Transformator. În timp ce sensibilitatea în modelele AI este un subiect extrem de controversat și controversat, angajarea ar putea semnala o schimbare către companiile AI care examinează întrebări etice despre conștiința și drepturile sistemelor AI.
Fish s-a alăturat echipei de știință de aliniere a Anthropic în septembrie pentru a dezvolta linii directoare despre modul în care Anthropic și alte companii ar trebui să abordeze problema. Vestea urmează a raport major co-autor de Fish înainte de a-și obține rolul antropic. Intitulat „Taking AI Welfare Serious”, lucrarea avertizează că modelele AI ar putea dezvolta în curând conștiința sau agenția – trăsături pe care unii le-ar putea lua în considerare cerințe morale. Dar autorii nu spun că conștiința AI este o dezvoltare viitoare garantată.
„Pentru a fi clar, argumentul nostru din acest raport nu este că sistemele AI sunt cu siguranță – sau vor fi – conștiente, puternic agentice sau semnificative din punct de vedere moral”, se arată în lucrare. „În schimb, argumentul nostru este că există o incertitudine substanțială cu privire la aceste posibilități și, prin urmare, trebuie să ne îmbunătățim înțelegerea bunăstării AI și capacitatea noastră de a lua decizii înțelepte cu privire la această problemă. bunăstare, dăunând în mod eronat sistemelor AI care contează moral și/sau îngrijind din greșeală sistemele AI care nu contează.”
Comentarii recente