Inteligența artificială (AI) există de zeci de ani, dar anul acesta a fost o descoperire pentru tehnologia înfricoșătoare, ChatGPT de la OpenAI creând o IA accesibilă și practică pentru mase. Cu toate acestea, inteligența artificială are o istorie în carouri, iar tehnologia actuală a fost precedată de un scurt istoric de experimente eșuate.
În cea mai mare parte, inovațiile în IA par gata să îmbunătățească lucruri precum diagnosticul medical și descoperirea științifică. Un model AI poate, de exemplu, să detecteze dacă aveți un risc ridicat de a dezvolta cancer pulmonar analizând o scanare cu raze X. În timpul COVID-19, oamenii de știință au construit, de asemenea, un algoritm care ar putea diagnostica virusul prin ascultând diferențe subtile în sunetul tusei oamenilor. AI a fost, de asemenea, obișnuit proiectarea experimentelor de fizică cuantică dincolo de ceea ce oamenii au conceput.
Dar nu toate inovațiile sunt atât de benigne. De la dronele ucigașe până la AI care amenință viitorul umanității, iată câteva dintre cele mai înfricoșătoare descoperiri ale AI care probabil vor avea loc în 2024.
Î* — epoca inteligenței generale artificiale (AGI)?
Nu știm de ce exact, CEO-ul OpenAI, Sam Altman, a fost demis și reinstalat la sfârșitul anului 2023. Dar, pe fondul haosului corporativ la OpenAI, au apărut zvonuri despre o tehnologie avansată care ar putea amenința viitorul umanității. Acest sistem OpenAI, numit Q* (pronunțat Q-star) poate întruchipa realizarea potențial inovatoare a inteligenței generale artificiale (AGI), Reuters raportat. Se știu puține lucruri despre acest sistem misterios, dar dacă rapoartele ar fi adevărate, ar putea crește capacitățile AI cu câteva crestături.
Legate de: AI transformă fiecare aspect al științei. Iată cum.
AGI este un punct de răsturnare ipotetic, cunoscut și sub numele de „Singularitate”, în care AI devine mai inteligentă decât oamenii. Generațiile actuale de inteligență artificială rămân încă în urmă în domenii în care oamenii excelează, cum ar fi raționamentul bazat pe context și creativitatea autentică. Majoritatea, dacă nu tot, conținutul generat de inteligență artificială doar regurgitează, într-un fel, datele folosite pentru a-l antrena.
Dar AGI ar putea îndeplini anumite locuri de muncă mai bine decât majoritatea oamenilor, au spus oamenii de știință. De asemenea, ar putea fi armat și utilizat, de exemplu, pentru a crea agenți patogeni îmbunătățiți, pentru a lansa atacuri cibernetice masive sau pentru a orchestra manipularea în masă.
Ideea AGI a fost de mult timp limitată la science fiction și la mulți oameni de știință credem că nu vom ajunge niciodată la acest punct. Pentru ca OpenAI să fi atins deja acest punct de cotitură ar fi cu siguranță un șoc, dar nu dincolo de tărâmul posibilităților. Știm, de exemplu, că Sam Altman punea deja bazele pentru AGI în februarie 2023, subliniind abordarea OpenAI față de AGI într-un postare pe blog. De asemenea, știm că experții încep să prezică o descoperire iminentă, inclusiv CEO-ul Nvidia, Jensen Huang, care a declarat în noiembrie că AGI este la îndemână în următorii cinci ani, Barrons raportat. Ar putea fi 2024 anul de izbucnire pentru AGI? Numai timpul va spune.
Deepfake-uri hiperrealiste de trucare a alegerilor
Una dintre cele mai presante amenințări cibernetice este cea a deepfake-urilor – imagini sau videoclipuri complet fabricate cu oameni care le-ar putea denatura, i-ar incrimina sau i-ar intimida. Tehnologia deepfake AI nu a fost încă suficient de bună pentru a fi o amenințare semnificativă, dar asta ar putea fi pe cale să se schimbe.
AI poate genera acum deepfake-uri în timp real – fluxuri video live, cu alte cuvinte – și acum devine atât de bun la generarea fețelor umane încât oamenii nu mai pot face diferența dintre ceea ce este real sau fals. Un alt studiu, publicat în jurnal Știința psihologică pe 13 noiembrie, a dezgropat fenomenul “hiperrealism”, în care conținutul generat de inteligență artificială este mai probabil să fie perceput ca „real” decât conținutul de fapt real.
Acest lucru ar face practic imposibil ca oamenii să distingă realitatea de ficțiune cu ochiul liber. Deși instrumentele ar putea ajuta oamenii să detecteze deepfake-urile, acestea nu sunt încă în curent. Intel, de exemplu, a construit un detector de deepfake în timp real care funcționează folosind AI pentru a analiza fluxul sanguin. Dar FakeCatcher, așa cum este cunoscut, a produs rezultate mixte, potrivit BBC.
Pe măsură ce IA generativă se maturizează, o posibilitate înfricoșătoare este ca oamenii să poată implementa deepfake pentru a încerca să schimbe alegerile. The Financial Times (FT) a raportat, de exemplu, că Bangladesh se pregătește pentru alegeri din ianuarie, care vor fi perturbate de deepfakes. Pe măsură ce SUA se pregătește pentru alegerile prezidențiale din noiembrie 2024, există posibilitatea ca inteligența artificială și deepfake-urile să modifice rezultatul acestui vot critic. UC Berkeley monitorizează utilizarea AI în campanie, de exemplu, și NBC News a raportat, de asemenea, că multe state nu au legile sau instrumentele pentru a gestiona orice creștere a dezinformarii generate de AI.
Roboți ucigași alimentați de inteligență artificială
Guvernele din întreaga lume încorporează din ce în ce mai mult AI în instrumente pentru război. Guvernul SUA a anunțat pe 22 noiembrie că 47 de state au aprobat o declarație cu privire la utilizarea responsabilă a IA în armată — lansat pentru prima dată la Haga în februarie. De ce a fost nevoie de o astfel de declarație? Pentru că utilizarea „iresponsabilă” este o perspectivă reală și terifiantă. Am văzut, de exemplu, Drone AI ar fi vânat soldați în Libia fără aport uman.
AI poate recunoaște tipare, auto-învăța, poate face predicții sau poate genera recomandări în contexte militare, iar o cursă a înarmărilor AI este deja în derulare. În 2024, este posibil să vedem nu numai că IA este folosită în sistemele de arme, ci și în sistemele de logistică și de sprijinire a deciziilor, precum și în cercetare și dezvoltare. În 2022, de exemplu, AI a generat 40.000 de arme chimice noi, ipotetice. Diferite ramuri ale armatei americane au a comandat drone care poate realiza recunoașterea țintei și urmărirea luptei mai bine decât oamenii. Israelul a folosit, de asemenea, inteligența artificială pentru a identifica rapid ținte de cel puțin 50 de ori mai repede decât oamenii în ultimul război Israel-Hamas, potrivit datelor. NPR.
Dar una dintre cele mai de temut domenii de dezvoltare este cea a sistemelor de arme autonome letale (LAWS) – sau roboților ucigași. Mai mulți oameni de știință și tehnologi de frunte au avertizat împotriva roboților ucigași, inclusiv Stephen Hawking în 2015 și Elon Musk în 2017dar tehnologia nu s-a materializat încă la scară de masă.
Acestea fiind spuse, unele evoluții îngrijorătoare sugerează că anul acesta ar putea fi o erupție pentru roboții ucigași. De exemplu, în UcrainaRusia ar fi dislocat drona Zala KYB-UAV, care ar putea recunoaște și ataca ținte fără intervenție umană, potrivit unui raport de la Buletinul Oamenilor de Știință Atomiști. S-a dezvoltat și Australia Rechin fantomă — un sistem submarin autonom care este setat să fie produs „la scară”, conform Australian Financial Review. Suma pe care țările din întreaga lume o cheltuiesc pentru inteligență artificială este, de asemenea, un indicator – China crescând cheltuielile cu inteligența artificială de la 11,6 milioane de dolari în 2010 la 141 de milioane de dolari până în 2019, potrivit Datenna, a raportat Reuters. Acest lucru se datorează faptului că, a adăugat publicația, China este blocată într-o cursă cu SUA pentru a implementa LEGI. Combinate, aceste evoluții sugerează că intrăm într-o nouă zori a războiului AI.