diverse

„Maestru al înșelăciunii”: modelele actuale de inteligență artificială au deja capacitatea de a manipula și înșela oamenii în mod expert

„maestru-al-inselaciunii”:-modelele-actuale-de-inteligenta-artificiala-au-deja-capacitatea-de-a-manipula-si-insela-oamenii-in-mod-expert
Angajații care lucrează la computere și robotul gigant din spatele lor.  Inteligență artificială, automatizare, concept de învățare automată.  Ilustrație vectorială.

Cercetătorii au descoperit că multe sisteme AI populare – chiar și cele concepute pentru a fi însoțitori digitali onești și utili – sunt deja capabile să înșele oamenii. (Credit imagine: Moor Studio prin Getty Images)

Inteligenţă artificială Capacitatea sistemelor (AI) de a manipula și înșela oamenii i-ar putea determina să fraudeze oamenii, să modifice rezultatele alegerilor și, în cele din urmă, să devină necinstiți, au avertizat cercetătorii.

Peter S. Parkun bursier postdoctoral în siguranța existențială AI la Massachusetts Institute of Technology (MIT), și cercetătorii au descoperit că multe sisteme AI populare – chiar și cele concepute pentru a fi însoțitori digitali onești și utili – sunt deja capabile să înșele oamenii, ceea ce ar putea avea consecințe uriașe. pentru societate.

Într-un articol publicat pe 10 mai în jurnal Modele, Park și colegii săi au analizat zeci de studii empirice despre modul în care sistemele AI alimentează și răspândesc informații greșite folosind „înșelăciune învățată”. Acest lucru se întâmplă atunci când abilitățile de manipulare și înșelăciune sunt dobândite sistematic de tehnologiile AI.

Ei au explorat, de asemenea, riscurile pe termen scurt și lung ale sistemelor de inteligență artificială manipulatoare și înșelătoare, îndemnând guvernele să restrângă problema prin reglementări mai stricte în regim de urgență.

Legate de: „Ar fi în dreptul său natural să ne facă rău pentru a ne proteja”: Cum ar putea oamenii să maltrateze AI chiar acum fără să știe asta

Cercetătorii au descoperit această înșelăciune învățată în software-ul AI din CICERO, un sistem AI dezvoltat de Meta pentru a juca popularul joc de masă strategic cu tematică de război Diplomacy. Jocul este de obicei jucat de până la șapte persoane, care formează și încalcă pacte militare în anii dinaintea Primului Război Mondial.

Deși Meta l-a antrenat pe CICERO să fie „în mare parte cinstit și de ajutor” și să nu-și trădeze aliații umani, cercetătorii au descoperit că CICERO a fost necinstit și neloial. Ei descriu sistemul AI ca un „mincinos expert” care și-a trădat tovarășii și a efectuat acte de „înșelăciune premeditată”, formând alianțe pre-planificate, dubioase, care i-au înșelat pe jucători și i-au lăsat deschiși atacurilor inamicilor.

Primiți cele mai fascinante descoperiri din lume direct în căsuța dvs. de e-mail.

„Am descoperit că IA lui Meta a învățat să fie un maestru al înșelăciunii”, a spus Park în o declarație oferită Science Daily. „În timp ce Meta a reușit să-și antreneze AI pentru a câștiga în jocul Diplomație – CICERO s-a plasat în top 10% dintre jucătorii umani care au jucat mai mult de un joc – Meta nu a reușit să-și antreneze AI pentru a câștiga sincer.”

Ei au găsit, de asemenea, dovezi ale înșelăciunii învățate într-un alt sistem AI pentru jocuri de la Meta, Pluribus. Botul de poker poate cacealma jucătorii umani și îi poate convinge să abandoneze.

Între timp, AlphaStar de la DeepMind – conceput pentru a excela la jocul video de strategie în timp real Starcraft II – și-a păcălit adversarii umani falsificând mișcările trupelor și planificând diferite atacuri în secret.

ramificații uriașe

Dar, în afară de înșelarea la jocuri, cercetătorii au descoperit tipuri mai îngrijorătoare de înșelăciune AI care ar putea destabiliza societatea în ansamblu. De exemplu, sistemele AI au câștigat un avantaj în negocierile economice prin denaturarea adevăratelor lor intenții.

Alți agenți AI s-au prefăcut morți pentru a înșela un test de siguranță care vizează identificarea și eradicarea formelor de IA care se replic rapid.

„Înșelând în mod sistematic testele de siguranță impuse de dezvoltatorii umani și autoritățile de reglementare, o inteligență artificială înșelătoare ne poate conduce pe noi, oamenii, într-un fals sentiment de securitate”, a spus Park.

Park a avertizat că națiunile ostile ar putea folosi tehnologia pentru a efectua fraude și interferențe electorale. Dar dacă aceste sisteme continuă să-și sporească capacitățile înșelătoare și manipulative în următorii ani și decenii, oamenii ar putea să nu le poată controla mult timp, a adăugat el.

„Noi, ca societate, avem nevoie de cât de mult timp putem să ne pregătim pentru înșelăciunea mai avansată a viitoarelor produse AI și modele open-source”, a spus Park. „Pe măsură ce capacitățile înșelătoare ale sistemelor AI devin mai avansate, pericolele pe care le prezintă pentru societate vor deveni din ce în ce mai grave”.

În cele din urmă, sistemele AI învață să înșele și să manipuleze oamenii pentru că au fost proiectate, dezvoltate și instruite de dezvoltatori umani pentru a face acest lucru. Simon BainCEO al companiei de analiză a datelor OmniIndex a spus Live Science.

„Acest lucru ar putea fi pentru a împinge utilizatorii către un anumit conținut care a plătit pentru o plasare mai mare, chiar dacă nu este cea mai potrivită, sau ar putea fi pentru a menține utilizatorii implicați într-o discuție cu AI mai mult decât ar trebui altfel”, Bain. a spus. „Aceasta se datorează faptului că, la sfârșitul zilei, AI este concepută pentru a servi unui scop financiar și de afaceri. Ca atare, va fi la fel de manipulatoare și la fel de controlată asupra utilizatorilor ca orice altă piesă de tehnologie sau de afaceri.

Nicholas Fearn este un jurnalist independent de tehnologie și afaceri din văile Welsh. Cu o carieră de aproape un deceniu, a scris pentru publicații importante precum Forbes, Financial Times, The Guardian, The Independent, The Daily Telegraph, Business Insider și HuffPost, pe lângă publicații tehnologice precum Gizmodo, TechRadar, Computer Weekly, Calculatoare și ITPro.

To top
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.