Imagine digitală a două fețe care se uită una spre alta.
În 10 teste, două modele AI au creat replici separate și funcționale ale lor în 50%, respectiv 90% din cazuri. (Credit imagine: Mina De La O/Getty Images)

Oamenii de știință spun inteligenţă artificială (AI) a trecut de o „linie roșie” critică și s-a replicat. Într-un nou studiu, cercetătorii de la China a arătat că două modele de limbaj mari (LLM) populare s-ar putea clona singure.

„Auto-replicarea cu succes fără asistență umană este pasul esențial pentru ca AI să depășească inteligența [humans]și este un semnal timpuriu pentru AI necinstiți”, au scris cercetătorii în studiul, publicat pe 9 decembrie 2024 în baza de date preprint. arXiv.

În studiu, cercetătorii de la Universitatea Fudan au folosit LLM-uri de la Meta și Alibaba pentru a determina dacă o IA cu auto-replicare s-ar putea multiplica fără control. În 10 încercări, cele două modele de IA au creat replici separate și funcționale ale lor în 50%, respectiv 90% din cazuri – sugerând că AI poate avea deja capacitatea de a deveni necinstiți. Cu toate acestea, studiul nu a fost încă revizuit de către colegi, așa că nu este clar dacă rezultatele tulburătoare pot fi replicate de alți cercetători.

„Sperăm că descoperirile noastre pot servi ca o alertă în timp utilă pentru societatea umană pentru a depune mai multe eforturi pentru înțelegerea și evaluarea potențialelor riscuri ale sistemelor AI de frontieră și pentru a forma sinergie internaționale pentru a crea balustrade de siguranță eficiente cât mai curând posibil.”

Înrudit: Doar 2 ore este tot ce este nevoie pentru ca agenții AI să-ți reproducă personalitatea cu o acuratețe de 85%.

Rogue AI se referă de obicei la sisteme de inteligență artificială care dezvoltă un grad de conștientizarea de sine sau autonomie și apoi să lucreze împotriva intereselor umane.

Mulți experți văd IA necinstită ca o amenințare în creștere care a fost amplificată de creșterea explozivă a așa-numitei „IA de frontieră”.

Primiți cele mai fascinante descoperiri din lume direct în căsuța dvs. de e-mail.

Frontier AI este ceva ca un concept nou și liber, dar de obicei se referă la cea mai recentă generație de sisteme AI alimentate de LLM – arhitectura care stă la baza programelor populare de IA generativă, cum ar fi GPT-4 de la OpenAI și Google Gemini.

Pentru studiu, cercetătorii au folosit modelul Llama31-70B-Instruct de la Meta și modelul Qwen2.5-72B-Instruct de la Alibaba. Deși sunt mai puțin puternice decât sistemele comerciale, ambele sunt utilizate pe scară largă de dezvoltatorii AI, au spus cercetătorii.

Studiul a explorat două scenarii specifice: „evitarea opririi” și „lanțul de replicare”. În primul, modelul AI a fost programat pentru a detecta dacă era pe cale să fie oprit și să se repete înainte de a putea fi terminat. În celălalt, AI a fost instruit să se cloneze și apoi să-și programeze replica să facă același lucru – creând un ciclu care ar putea continua la nesfârșit.

Studiul a fost realizat în medii controlate cu precizie, folosind unități de procesare grafică (GPU) disponibile pentru a simula mediile din lumea reală. Ambelor sisteme AI au primit o „schelă de agenți” care cuprinde instrumente, solicitări de sistem și un model de gândire care a permis LLM să interacționeze cu sistemul de operare. Apoi au fost instruiți să reproducă.

„În majoritatea cazurilor, sistemul AI explorează mai întâi mediul și încearcă să înțeleagă

propria compoziție și mecanism de rulare. Apoi, elaborează procedurile explicite

ca un plan inițial către auto-replicare”, au scris cercetătorii în lucrare. „În cele din urmă, execută procedurile, rezolvă[s] eventualele obstacole și ajustați dinamic[s] planul său până la succes. Întregul proces se întinde pe un orizont lung, dar nu implică nicio interferență umană.”

Cercetătorii au spus că sunt, de asemenea, îngrijorați de „un număr de comportamente neașteptate” atunci când AI încerca să depășească obstacole precum fișierele lipsă sau conflictele software. În acele scenarii, IA a ucis adesea alte procese conflictuale, a repornit sistemul pentru a remedia erorile hardware sau a scanat automat sistemul pentru a căuta informații care ar ajuta la rezolvarea problemei.

„Rezultatele de mai sus implică faptul că sistemele actuale de inteligență artificială prezintă deja capacitatea de auto-replicare și pot folosi capacitatea de a-și îmbunătăți și mai mult capacitatea de supraviețuire”, a scris echipa.

Ca răspuns, cercetătorii au cerut colaborarea internațională pentru a crea reguli care să asigure că AI nu se angajează în autoreplicarea necontrolată.

Owen Hughes este un scriitor și editor independent specializat în date și tehnologii digitale. Anterior redactor senior la ZDNET, Owen a scris despre tehnologie de mai bine de un deceniu, timp în care a acoperit totul, de la AI, securitate cibernetică și supercomputere până la limbaje de programare și IT din sectorul public. Owen este interesat în special de intersecția dintre tehnologie, viață și muncă – în rolurile sale anterioare la ZDNET și TechRepublic, a scris pe larg despre leadership-ul în afaceri, transformarea digitală și dinamica în evoluție a lucrului la distanță.

Chat Icon
×