Clădirea capitalei statului California din Sacramento.

Mărește / Clădirea Capitoliului de Stat din California din Sacramento. (credit: Getty Images)

Legea „Safe and Secure Innovation for Frontier Artificial Intelligence Models Act” din California (alias SB-1047) a dus la o rafală de titluri și dezbate privind „siguranța” generală a modelelor mari de inteligență artificială. Dar criticii sunt îngrijorați de faptul că accentul exagerat al proiectului de lege asupra amenințărilor existențiale de către viitoarele modele AI ar putea limita sever cercetarea și dezvoltarea pentru utilizări mai prozaice și neamenințătoare ale AI în prezent.

SB-1047introdus de senatorul de stat Scott Wienera trecut de Senatul California în Mai cu un vot de 32-1 și pare bine poziționat pentru un vot final în Adunarea de Stat din august. Textul proiectului de lege impune companiilor care se află în spatele unor modele AI suficient de mari (stabilite în prezent la 100 de milioane de dolari în costuri de instruire și puterea de calcul brută implicată de aceste costuri astăzi) să pună în aplicare proceduri și sisteme de testare pentru a preveni și a răspunde la „incidente de siguranță”.

Proiectul de lege stabilește o definiție legalistă a acelor incidente de siguranță care, la rândul său, se concentrează pe definirea unui set de „daune critice” pe care un sistem AI le-ar putea permite. Aceasta include vătămări care duc la „victime în masă sau daune de cel puțin 500 de milioane de dolari”, cum ar fi „crearea sau utilizarea armelor chimice, biologice, radiologice sau nucleare” (bună ziua, Skynet?) sau „instrucțiuni precise pentru efectuarea unui atac cibernetic… asupra infrastructurii critice”. Proiectul de lege face, de asemenea, aluzie la „alte vătămări grave aduse siguranței și securității publice, care sunt de o gravitate comparabilă” cu cele expuse în mod explicit.

Citiți 16 paragrafe rămase | Comentarii

×