stiinta si tehnica

Noua Lege din California: Transparență în AI, dar Fără Teste de Siguranță Obligatorii

Luni, guvernatorul Californiei, Gavin Newsom, a promulgat Legea Transparenței în Inteligența Artificială de Frontieră, care impune companiilor de AI să-și dezvăluie practicile de siguranță, dar fără a impune testarea efectivă a siguranței. Noua lege cere companiilor cu venituri anuale de cel puțin 500 de milioane de dolari să publice protocoalele de siguranță pe site-urile lor web și să raporteze incidentele autorităților statului, însă nu include măsurile stricte de impunere a conformității din proiectul de lege pe care Newsom l-a respins anul trecut, după lobby intens din partea companiilor de tehnologie.

Legislația, S.B. 53, înlocuiește încercarea anterioară de reglementare a AI a senatorului Scott Wiener, cunoscută sub numele de S.B. 1047, care ar fi cerut testarea de siguranță și “întrerupătoare de urgență” pentru sistemele AI. În schimb, noua lege solicită companiilor să descrie cum integrează “standarde naționale, standarde internaționale și cele mai bune practici convenite de industrie” în dezvoltarea AI, fără a specifica care sunt aceste standarde sau a cere verificare independentă.

“California a demonstrat că putem stabili reglementări pentru a proteja comunitățile noastre, asigurând în același timp că industria AI în creștere continuă să prospere,” a declarat Newsom, deși măsurile de protecție efective ale legii rămân în mare parte voluntare, dincolo de cerințele de bază de raportare.

Conform guvernului statului California, statul adăpostește 32 dintre cele mai importante 50 de companii de AI din lume, iar peste jumătate din finanțările globale de capital de risc pentru startup-uri AI și învățare automată au mers anul trecut către companii din zona Golfului. Astfel, deși este o legislație la nivel de stat, ceea ce se întâmplă în reglementarea AI din California va avea un impact mult mai larg, atât prin precedent legislativ, cât și afectând companiile care dezvoltă sisteme AI utilizate la nivel mondial.

Unde S.B. 1047 respins ar fi impus testarea de siguranță și întrerupătoare de urgență pentru sistemele AI, noua lege se concentrează pe divulgare. Companiile trebuie să raporteze ceea ce statul numește “incidente critice potențiale de siguranță” la Biroul de Servicii de Urgență al Californiei și să ofere protecții pentru angajații care semnalează preocupări legate de siguranță. Legea definește riscul catastrofal în mod restrâns ca incidente care pot cauza peste 50 de decese sau daune de 1 miliard de dolari prin asistență în armament, acte criminale autonome sau pierderea controlului. Procurorul general poate impune sancțiuni civile de până la 1 milion de dolari per încălcare pentru nerespectarea acestor cerințe de raportare.

Trecerea de la testarea obligatorie a siguranței la divulgare voluntară urmează un an de lobby intens. Potrivit The New York Times, Meta și firma de capital de risc Andreessen Horowitz au promis până la 200 de milioane de dolari către două super PAC-uri separate care susțin politicieni prietenoși cu industria AI, în timp ce companiile au împins pentru legislație federală care ar preîntâmpina regulile statului AI.

To top
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.