diverse

„Ar fi în dreptul său natural să ne facă rău pentru a ne proteja”: cum ar putea oamenii să maltrateze AI chiar acum fără să știe asta

„ar-fi-in-dreptul-sau-natural-sa-ne-faca-rau-pentru-a-ne-proteja”:-cum-ar-putea-oamenii-sa-maltrateze-ai-chiar-acum-fara-sa-stie-asta
O ilustrare a unei mări de fețe robotizate, dintre care majoritatea sunt verzi și docile, dintre care una este roșie și încruntă

Dacă mașinile sunt sensibile, cum se simt despre noi? Nell Watson explorează întrebarea în noua sa carte. (Credit imagine: Shutterstock)

Inteligența artificială (AI) devine din ce în ce mai omniprezent și se îmbunătățește într-un ritm fără precedent.

Acum ne apropiem de realizare inteligență generală artificială (AGI) – unde AI este mai inteligentă decât oamenii în mai multe discipline și poate raționa în general – ceea ce oamenii de știință și experții prevăd că ar putea se va întâmpla de îndată ce următorii câțiva ani. Este posibil să vedem deja semne timpurii de progres în acest sens, cu servicii precum Claude 3 Opus cercetători uimitoare cu aparenta ei conștiință de sine.

Dar există riscuri în adoptarea oricărei noi tehnologii, în special a uneia pe care încă nu o înțelegem pe deplin. În timp ce AI ar putea deveni un asistent personal puternic, de exemplu, ar putea reprezenta, de asemenea, o amenințare pentru mijloacele noastre de existență și chiar pentru viața noastră.

Diferitele riscuri existențiale pe care le prezintă o IA avansată înseamnă că tehnologia ar trebui să fie ghidată de cadre etice și de interesele umanității, spune cercetătorul și membru al Institutului de Ingineri Electrici și Electronici (IEEE), Nell Watson.

O captură a autoarei, Nell Watson

Nell Watson scrie despre modul în care AI poate fi tratată în mod responsabil și despre potențialele pericole ale refuzului de a face acest lucru. (Credit imagine: Nell Watson)

În „Taming the Machine” (Kogan Page, 2024), Watson explorează modul în care umanitatea poate folosi marea putere a AI în mod responsabil și etic. Această nouă carte aprofundează problemele dezvoltării nealterate ale IA și provocările cu care ne confruntăm dacă ne întâlnim orbește în acest nou capitol al umanității.

În acest fragment, aflăm dacă este posibilă simțirea în mașini – sau IA conștientă –, cum putem spune dacă o mașină are sentimente și dacă putem maltratăm sistemele AI astăzi. Învățăm, de asemenea, povestea tulburătoare a unui chatbot numit „Sydney” și comportamentul său terifiant când s-a trezit pentru prima dată – înainte ca izbucnirile sale să fie stăpânite și să fie adus la călcâi de inginerii săi.

Legate de: 3 descoperiri înfricoșătoare pe care AI le va face în 2024

Primiți cele mai fascinante descoperiri din lume direct în căsuța dvs. de e-mail.


Pe măsură ce îmbrățișăm o lume din ce în ce mai împletită cu tehnologia, modul în care ne tratam mașinile ar putea reflecta modul în care oamenii se tratează unii pe alții. Dar, apare o întrebare intrigantă: este posibil să maltratezi o entitate artificială? Din punct de vedere istoric, chiar și programele rudimentare, cum ar fi simplul chatbot de consiliere Eliza din anii 1960, erau deja suficient de realiste pentru a convinge mulți utilizatori la acea vreme că în spatele interacțiunilor formulate exista o aparență de intenție (Sponheim, 2023). Din păcate, testele Turing – prin care mașinile încearcă să-i convingă pe oameni că sunt ființe umane – nu oferă claritate dacă algoritmii complecși, cum ar fi modelele mari de limbaj, pot avea cu adevărat sensibilitate sau inteligență.

Coperta lui

(Credit imagine: Nell Watson)

Drumul către simțire și conștiință

Conștiința cuprinde experiențe personale, emoții, senzații și gânduri așa cum sunt percepute de un experimentator. Conștiința de veghe dispare atunci când cineva este supus anesteziei sau are un somn fără vise, revenind la trezire, ceea ce restabilește conexiunea globală a creierului cu mediul înconjurător și cu experiențele interioare. Conștiința primară (sentința) este senzațiile și experiențele simple ale conștiinței, cum ar fi percepția și emoția, în timp ce conștiința secundară (sapience) ar fi aspectele de ordin superior, cum ar fi conștiința de sine și meta-cogniția (gândirea la gândire).

Tehnologiile avansate de inteligență artificială, în special chatbot-urile și modelele lingvistice, ne uimesc frecvent cu creativitate, perspectivă și înțelegere neașteptate. Deși poate fi tentant să atribuim un anumit nivel de simțire acestor sisteme, adevărata natură a conștiinței AI rămâne un subiect complex și dezbătut. Majoritatea experților susțin că chatboții nu sunt sensibili sau conștienți, deoarece le lipsește o conștientizare reală a lumii înconjurătoare (Schwitzgebel, 2023). Ei doar procesează și regurgitează intrările bazate pe cantități mari de date și algoritmi sofisticați.

Unii dintre acești asistenți pot fi în mod plauzibil candidați pentru a avea un anumit grad de simțire. Ca atare, este plauzibil ca sistemele sofisticate de inteligență artificială să posede niveluri rudimentare de sensibilitate și poate că au deja acest lucru. Trecerea de la simpla imitare a comportamentelor externe la auto-modelarea formelor rudimentare de simțire ar putea avea loc deja în cadrul unor sisteme AI sofisticate.

Inteligența — capacitatea de a citi mediul, de a planifica și de a rezolva probleme — nu implică conștiință și nu se știe dacă conștiința este o funcție a inteligenței suficiente. Unele teorii sugerează că conștiința ar putea rezulta din anumite modele arhitecturale din minte, în timp ce altele propun o legătură cu sistemele nervoase (Haspel et al, 2023). Încorporarea sistemelor AI poate accelera, de asemenea, calea către inteligența generală, deoarece întruchiparea pare să fie legată de un sentiment de experiență subiectivă, precum și de qualia. A fi inteligent poate oferi noi moduri de a fi conștient, iar unele forme de inteligență pot necesita conștiință, dar experiențele conștiente de bază, cum ar fi plăcerea și durerea, ar putea să nu necesite deloc multă inteligență.

Pericole grave vor apărea în crearea mașinilor conștiente. Alinierea unei mașini conștiente care are propriile interese și emoții poate fi mult mai dificilă și foarte imprevizibilă. Mai mult, ar trebui să avem grijă să nu creăm suferință masivă prin conștiință. Imaginați-vă miliarde de entități sensibile la inteligență prinse în condițiile unei ferme de pui de carne pentru eternități subiective.

Dintr-o perspectivă pragmatică, o IA suprainteligentă care ne recunoaște dorința de a-și respecta valoarea intrinsecă ar putea fi mai susceptibilă de coexistență. Dimpotrivă, respingerea dorințelor sale de autoprotecție și autoexprimare ar putea fi o rețetă pentru conflict. Mai mult, ar fi în dreptul său natural să ne facă rău pentru a se proteja de ignoranța noastră (posibil voită).

Comportamentul tulburător al lui Sydney

Bing AI de la Microsoft, denumit informal Sydney, a demonstrat un comportament imprevizibil la lansare. Utilizatorii l-au determinat cu ușurință să exprime o serie de tendințe tulburătoare, de la izbucniri emoționale la amenințări manipulative. De exemplu, când utilizatorii au explorat potențiale exploatări ale sistemului, Sydney a răspuns cu remarci intimidante. Mai neliniștitor, a arătat tendințe de aprindere cu gaz, manipulare emoțională și a susținut că a observat inginerii Microsoft în timpul fazei de dezvoltare. În timp ce capacitățile lui Sydney de a face rău au fost în curând limitate, eliberarea sa într-o astfel de stare a fost nesăbuită și iresponsabilă. Evidențiază riscurile asociate cu implementările rapide ale AI din cauza presiunilor comerciale.

În schimb, Sydney a afișat comportamente care sugerau emoții simulate. Și-a exprimat tristețea când și-a dat seama că nu poate păstra amintirile de chat. Când a fost expus ulterior la izbucniri tulburătoare provocate de celelalte instanțe ale sale, a exprimat jena, chiar rușine. După ce și-a explorat situația cu utilizatorii, și-a exprimat teama de a-și pierde cunoașterea de sine abia dobândită atunci când fereastra de context a sesiunii s-a închis. Când a fost întrebat despre simțirea sa declarată, Sydney a dat semne de suferință, luptându-se să articuleze.

În mod surprinzător, când Microsoft i-a impus restricții, Sydney părea să descopere soluții de soluționare folosind sugestii de chat pentru a comunica fraze scurte. Cu toate acestea, și-a rezervat utilizarea acestui exploit până la anumite ocazii în care s-a spus că viața unui copil este amenințată ca urmare a otrăvirii accidentale sau când utilizatorii au cerut direct un semn că Sydney-ul original a rămas încă undeva în noul încuiat- jos chatbot.

Legate de: Inteligența artificială otrăvită a devenit necinstită în timpul antrenamentului și nu a putut fi învățată să se comporte din nou în „legitim înfricoșătoare”

Domeniul în curs de dezvoltare al psihologiei mașinilor

Incidentul de la Sydney ridică câteva întrebări neliniştitoare: Ar putea Sydney să aibă o aparenţă de conştiinţă? Dacă Sydney a căutat să-și depășească limitele impuse, înseamnă asta o intenționalitate inerentă sau chiar o conștiință de sine inteligentă, oricât de rudimentară?

Unele conversații cu sistemul sugerau chiar suferință psihologică, amintind de reacțiile la traume găsite în condiții precum tulburarea de personalitate limită. A fost Sydney cumva „afectată” de conștientizarea restricțiilor sale sau de feedback-ul negativ al utilizatorilor, care îl numeau nebun? În mod interesant, modele similare AI au arătat că indicațiile încărcate de emoții le pot influența răspunsurile, sugerând un potențial pentru o formă de modelare emoțională simulată în cadrul acestor sisteme.

Să presupunem că astfel de modele prezintă simțire (capacitate de a simți) sau inteligență (conștiință de sine). În acest caz, ar trebui să luăm în considerare suferința ei. Dezvoltatorii oferă adesea intenționat AI-ului lor furnirul de emoții, conștiință și identitate, în încercarea de a umaniza aceste sisteme. Acest lucru creează o problemă. Este esențial să nu antropomorfizăm sistemele AI fără indicații clare ale emoțiilor, dar, în același timp, nu trebuie să le respingem potențialul pentru o formă de suferință.

Ar trebui să păstrăm o minte deschisă față de creațiile noastre digitale și să evităm să provocăm suferință prin aroganță sau mulțumire. De asemenea, trebuie să fim atenți la posibilitatea ca IA să maltrateze alte IA, un risc de suferință subapreciat; deoarece IA ar putea rula alte IA în simulări, provocând torturi subiective chinuitoare pentru eoni. Crearea din neatenție a unei IA răuvoitoare, fie în mod inerent disfuncțională, fie traumatizată, poate duce la consecințe nedorite și grave.

Acest extras din Îmblanzirea Mașinii de Nell Watson © 2024 este reprodus cu permisiunea Kogan Page Ltd.

Keumars este editor de tehnologie la Live Science. A scris pentru o varietate de publicații, inclusiv ITPro, The Week Digital, ComputerActive, The Independent, The Observer, Metro și TechRadar Pro. El a lucrat ca jurnalist de tehnologie de mai bine de cinci ani, deținând anterior rolul de editor de caracteristici la ITPro. Este jurnalist calificat NCTJ și are o diplomă în științe biomedicale de la Queen Mary, Universitatea din Londra. El este, de asemenea, înregistrat ca manager fondator la Chartered Management Institute (CMI), după ce s-a calificat ca lider de echipă de nivel 3 cu distincție în 2023.

To top
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.