O fotografie pixelată a lui Donald Trump.

Mărește (credit: Getty Images | Benj Edwards)

Luni, producătorul ChatGPT OpenAI și-a detaliat planurile pentru a preveni utilizarea greșită a tehnologiilor sale de inteligență artificială în timpul viitoarelor alegeri din 2024, promițând transparență în conținutul generat de inteligență artificială și îmbunătățind accesul la informații fiabile de vot. Dezvoltatorul AI spune că lucrează la o abordare care implică aplicarea politicilor, colaborarea cu partenerii și dezvoltarea de noi instrumente menite să clasifice mediile generate de AI.

„În timp ce ne pregătim pentru alegerile din 2024 în cele mai mari democrații din lume, abordarea noastră este să ne continuăm activitatea de siguranță a platformei prin creșterea informațiilor exacte despre vot, aplicarea politicilor măsurate și îmbunătățirea transparenței”, scrie OpenAI în postarea sa pe blog. „Protejarea integrității alegerilor necesită colaborare din fiecare colț al procesului democratic și dorim să ne asigurăm că tehnologia noastră nu este utilizată într-un mod care ar putea submina acest proces”.

Inițiativele propuse de OpenAI includ prevenirea abuzului prin mijloace precum deepfakes sau roboți care imit candidați, perfecționează politicile de utilizare și lansează un sistem de raportare pentru public pentru a semnala potențialele abuzuri. De exemplu, instrumentul de generare de imagini al OpenAI, DIN-E 3, include filtre încorporate care resping solicitările de a crea imagini cu oameni reali, inclusiv cu politicieni. „De ani de zile, am repetat instrumente pentru a îmbunătăți acuratețea faptelor, a reduce părtinirea și a refuza anumite solicitări”, a declarat compania.

Citiți 5 paragrafe rămase | Comentarii

×