
Odată cu eliberarea lui inteligenţă artificială Produse de generare video (AI) precum Sora și Luma, suntem în pragul unui flux de conținut video generat de AI, iar factorii de decizie politică, persoane publice și ingineri software sunt deja avertizare despre un potop de deepfakes. Acum se pare că AI în sine ar putea fi cea mai bună apărare a noastră împotriva falsificării AI, după ce un algoritm a identificat marcatori indicatori ai videoclipurilor AI cu o acuratețe de peste 98%.
Ironia faptului că inteligența artificială ne protejează împotriva conținutului generat de inteligență artificială este greu de ratat, dar, așa cum a spus liderul proiectului Matthew Stamm, profesor asociat de inginerie la Universitatea Drexel, într-un afirmație: „Este mai mult decât puțin deranjant asta [AI-generated video] ar putea fi lansat înainte de a exista un sistem bun pentru detectarea falsurilor create de actori răi”.
„Până acum, programele de detectare criminalistică au fost eficiente împotriva videoclipurilor editate, pur și simplu tratându-le ca pe o serie de imagini și aplicând același proces de detectare”, a adăugat Stamm. „Dar cu videoclipurile generate de AI, nu există dovezi de manipulare a imaginii de la cadru la cadru, așa că pentru ca un program de detectare să fie eficient, va trebui să fie capabil să identifice noi urme lăsate în urmă de modul în care programele AI generative își construiesc videoclipurile. .”
Descoperirea, subliniată într-un studiu publicat pe 24 aprilie la server de pre-print arXiv, este un algoritm care reprezintă o nouă etapă importantă în detectarea imaginilor false și a conținutului video. Acest lucru se datorează faptului că multe dintre sistemele existente pe care le caută „pesmeturile digitale” în mediile obișnuite editate digital nu sunt prezente în mediile generate în întregime de AI.
Legate de: De 32 de ori inteligența artificială a greșit catastrofal
Noul instrument pe care proiectul de cercetare îl lansează pe deepfake, numit „MISLnet”, a evoluat din ani de date derivate din detectarea imaginilor și videoclipurilor false cu instrumente care identifică modificările aduse videoclipurilor sau imaginilor digitale. Acestea pot include adăugarea sau mișcarea pixelilor între cadre, manipularea vitezei clipului sau eliminarea cadrelor.
Astfel de instrumente funcționează deoarece procesarea algoritmică a unei camere digitale creează relații între valorile culorii pixelilor. Acele relații dintre valori sunt foarte diferite în imaginile generate de utilizatori sau editate cu aplicații precum Photoshop.
Dar, deoarece videoclipurile generate de inteligență artificială nu sunt produse de o cameră care captează o scenă sau o imagine reală, ele nu conțin acele disparități revelatoare între valorile pixelilor.
Instrumentele echipei Drexel, inclusiv MISLnet, învață folosind o metodă numită rețea neuronală constrânsă, care poate face diferența între valorile normale și neobișnuite la nivel de sub-pixeli ale imaginilor sau clipurilor video, mai degrabă decât să caute indicatorii comuni ai manipulării imaginii, precum cei menționat mai sus.
MISL a depășit alte șapte sisteme false de detectare video AI, identificând corect videoclipurile generate de AI în 98,3% din timp, depășind alte opt sisteme care au obținut un scor de cel puțin 93%.
„Am văzut deja videoclipuri generate de AI fiind folosite pentru a crea dezinformare”, a spus Stamm în declarație. „Pe măsură ce aceste programe devin mai omniprezente și mai ușor de utilizat, ne putem aștepta în mod rezonabil să fim inundați de videoclipuri sintetice.”