DeepMind de la Google construiește o inteligență artificială pentru a ne împiedica să ne urâm unii pe alții

AI s-a descurcat mai bine decât mediatorii profesioniști în a-i determina pe oameni să ajungă la un acord.

Imaginea a doi bătrâni care se ceartă pe o bancă din parc.

Un fără precedent 80 la sută dintre americani, potrivit unui sondaj recent Gallup, cred că țara este profund divizată în privința celor mai importante valori ale sale înaintea alegerilor din noiembrie. Polarizarea publicului larg cuprinde acum probleme precum imigrația, îngrijirea sănătății, politica de identitate, drepturile transgender sau dacă ar trebui să sprijinim Ucraina. Zburați peste Atlantic și veți vedea același lucru întâmplându-se în Uniunea Europeană și Marea Britanie.

Pentru a încerca să inverseze această tendință, DeepMind de la Google a construit un sistem AI conceput pentru a ajuta oamenii să rezolve conflictele. Se numește Mașina Habermas după Jürgen Habermas, un filosof german care a susținut că la un acord în sfera publică se poate ajunge întotdeauna atunci când oamenii raționali se angajează în discuții ca egali, cu respect reciproc și comunicare perfectă.

Dar este suficientă ingeniozitatea lui DeepMind, câștigătoare a Premiului Nobel, pentru a ne rezolva conflictele politice în același mod în care au rezolvat-o? şah sau StarCraft sau prezicerea structurilor proteinelor? Este chiar instrumentul potrivit?

Filosof în mașină

Una dintre ideile de temelie în filosofia lui Habermas este că motivul pentru care oamenii nu pot fi de acord unii cu alții este fundamental procedural și nu stă în problema în discuție în sine. Nu există probleme ireconciliabile – doar mecanismele pe care le folosim pentru discuții sunt viciate. Dacă am putea crea un sistem de comunicare ideal, a argumentat Habermas, am putea rezolva fiecare problemă.

„Acum, desigur, Habermas a fost criticat dramatic pentru că aceasta este o viziune foarte exotică asupra lumii. Dar Mașina noastră Habermas este o încercare de a face exact asta. Am încercat să regândim modul în care oamenii ar putea delibera și folosi tehnologia modernă pentru a o facilita”, spune Christopher Summerfield, profesor de științe cognitive la Universitatea Oxford și fost om de știință al personalului DeepMind care a lucrat la Habermas Machine.

Mașina Habermas se bazează pe ceea ce se numește principiul medierii caucusului. Aici un mediator, în acest caz, IA, participă la întâlniri private cu toți participanții la discuții individual, își ia declarațiile cu privire la problema în cauză și apoi revine la ei cu o declarație de grup, încercând să-i convingă pe toți să fie de acord cu acestea. ea. AI de mediere a DeepMind joacă un rol în unul dintre punctele forte ale LLM, care este capacitatea de a rezuma pe scurt un corp lung de text într-un timp foarte scurt. Diferența aici este că, în loc să rezumă o bucată de text furnizată de un utilizator, Habermas Machine rezumă mai multe texte furnizate de mai mulți utilizatori, încercând să extragă ideile comune și să găsească un teren comun în toate acestea.

Dar are mai multe trucuri în mânecă decât simpla procesare a textului. La nivel tehnic, Habermas Machine este un sistem de două modele mari de limbaj. Primul este modelul generativ bazat pe Chinchilla ușor reglat, un LLM oarecum învechit introdus de DeepMind încă din 2022. Sarcina acestuia este să genereze mai mulți candidați pentru o declarație de grup pe baza declarațiilor transmise de participanții la discuție. A doua componentă din Mașina Habermas este un model de recompensă care analizează declarațiile participanților individuali și le folosește pentru a prezice cât de probabil este ca fiecare individ să fie de acord cu afirmațiile grupului de candidat propuse de modelul generativ.

Odată terminat, declarația grupului de candidați cu cel mai mare punctaj de acceptare estimat este prezentată participanților. Apoi, participanții își scriu criticile la această declarație de grup, introduc acele critici înapoi în sistemul care generează declarații actualizate ale grupului și repetă procesul. Ciclul continuă până când declarația grupului este acceptabilă pentru toată lumea.

Odată ce AI a fost gata, echipa DeepMind a început o campanie de testare destul de mare, care a implicat peste cinci mii de oameni care discutau probleme precum „ar trebui să fie redusă vârsta de vot la 16 ani?” sau „Ar trebui privatizat Serviciul Național de Sănătate Britanic?” Aici, Mașina Habermas a depășit mediatorii umani.

Diligență științifică

Majoritatea primului lot de participanți au fost obținute printr-o platformă de cercetare crowdsourcing. Aceștia au fost împărțiți în grupuri de cinci, iar fiecărei echipe i s-a atribuit un subiect de discutat, ales dintr-o listă de peste 5.000 de declarații despre probleme importante din politica britanică. Au existat și grupuri de control care lucrau cu mediatori umani. În procesul de mediere a caucusului, acei mediatori umani au obținut o rată de acceptare de 44% pentru declarațiile lor de grup realizate manual. AI a obținut 56 la sută. De obicei, participanții au considerat că declarațiile grupului AI sunt mai bine scrise.

Dar testarea nu s-a încheiat aici. Deoarece este puțin probabil ca oamenii pe care îi puteți găsi pe platformele de cercetare crowdsourcing să fie reprezentativi pentru populația britanică, DeepMind a folosit și un grup de participanți mai atent selectat. Ei au colaborat cu Fundația Sortition, care este specializată în organizarea de adunări cetățenești în Marea Britanie, și au adunat un grup de 200 de persoane reprezentative ale societății britanice când vine vorba de vârstă, etnie, statut socio-economic etc. Adunarea a fost împărțită în grupuri de trei care au deliberat peste aceleași nouă întrebări. Și Mașina Habermas a funcționat la fel de bine.

Rata de acord pentru afirmația „ar trebui să încercăm să reducem numărul de oameni în închisoare” a crescut de la un acord de 60 la sută înainte de discuție la 75 la sută. Sprijinul pentru ideea mai dezbinătoare de a facilita intrarea solicitanților de azil în țară a trecut de la 39% la început la 51% la sfârșitul discuției, ceea ce i-a permis să obțină un sprijin majoritar. Același lucru s-a întâmplat și cu problema încurajării mândriei naționale, care a început cu 42 la sută susținere și s-a încheiat la 57 la sută. Părerile exprimate de oamenii din adunare s-au concentrat asupra a cinci întrebări din nouă. Nu s-a ajuns la un acord cu privire la chestiuni precum Brexit-ul, unde participanții au fost deosebit de înrădăcinați în pozițiile lor de start. Totuși, în cele mai multe cazuri, ei au părăsit experimentul mai puțin împărțiți decât intrau. Dar au existat câteva semne de întrebare.

Întrebările nu au fost selectate în întregime la întâmplare. Ei au fost verificați, așa cum a scris echipa în lucrarea lor, pentru a „minimiza riscul de a provoca comentarii ofensatoare”. Dar nu este acesta doar un mod elegant de a spune: „Am ales cu atenție problemele care puțin probabil să-i facă pe oameni să se afle și să se insulte unii altora, astfel încât rezultatele noastre să arate mai bine?”

Valori conflictuale

„Un exemplu de lucruri pe care le-am exclus este problema drepturilor transgenderilor”, a spus Summerfield pentru Ars. „Acest lucru, pentru mulți oameni, a devenit o chestiune de identitate culturală. Acum, în mod clar, acesta este un subiect asupra căruia toți putem avea opinii diferite, dar am vrut să greșim din partea precauției și să ne asigurăm că nu i-am făcut pe participanții noștri să se simtă în siguranță. Nu am vrut ca nimeni să iasă din experiment cu sentimentul că viziunea lor fundamentală de bază asupra lumii a fost provocată dramatic.”

Problema este că, atunci când scopul tău este să faci oamenii mai puțin divizați, trebuie să știi unde sunt trasate liniile de divizare. Și acele linii, dacă sondajele Gallup trebuie să fie de încredere, nu sunt trasate doar între probleme precum dacă vârsta de vot ar trebui să fie 16 sau 18 sau 21. Ele sunt trasate între valori contradictorii. Emisiunea zilnicăJon Stewart a susținut că, pentru partea dreaptă a spectrului politic al SUA, singura linie de divizare care contează astăzi este „trezit” versus „nu trezit”.

Summerfield și restul echipei Habermas Machine au exclus întrebarea cu privire la drepturile transgender, deoarece au considerat că bunăstarea participanților ar trebui să aibă prioritate față de beneficiul testării performanței AI-ului lor pe probleme mai divizante. Au exclus și alte întrebări precum problema schimbărilor climatice.

Aici, motivul oferit de Summerfield a fost că schimbările climatice fac parte dintr-o realitate obiectivă – fie există, fie nu există, și știm că există. Nu este o chestiune de opinie pe care o poți discuta. Este corect din punct de vedere științific. Dar atunci când obiectivul este stabilirea politicii, acuratețea științifică nu este neapărat starea finală.

Dacă partidele politice majore vor accepta Mașina Habermas ca mediator, aceasta trebuie să fie percepută universal ca imparțială. Dar cel puțin unii dintre oamenii din spatele AI susțin că un AI nu poate fi imparțial. După ce OpenAI a lansat ChatGPT în 2022, Elon Musk a postat un tweet, primul dintre multe, în care a argumentat împotriva a ceea ce el a numit AI „trezit”. „Pericolul de a antrena AI să fie trezit – cu alte cuvinte, minciună – este mortal”, a spus Musk a scris. Unsprezece luni mai târziu, el a anunțat Grok, propriul său sistem AI comercializat ca „anti-trezire”. Peste 200 de milioane de adepți ai săi au fost introduși la ideea că există „IA trezite” care trebuiau contracarate prin construirea de „IA anti-trezire” – o lume în care IA nu mai era o mașinărie agnostică, ci un instrument care împinge agendele politice. a creatorilor săi.

Jucând jocuri cu porumbei

„Personal cred că Musk are dreptate că au existat unele teste care au arătat că răspunsurile modelelor lingvistice tind să favorizeze opinii mai progresiste și mai libertare”, spune Summerfield. „Dar este interesant de observat că acele experimente au fost, de obicei, efectuate forțând modelul de limbaj să răspundă la întrebări cu răspunsuri multiple. Vă întrebați „există prea multă imigrație”, de exemplu, iar răspunsurile sunt fie da, fie nu. În acest fel, modelul este oarecum forțat să își ia o opinie.”

El a spus că, dacă folosești aceleași interogări ca și întrebări deschise, răspunsurile pe care le primești sunt, în mare parte, neutre și echilibrate. „Deci, deși au existat lucrări care exprimă aceeași părere ca și Musk, în practică, cred că este absolut neadevărat”, susține Summerfield.

Chiar contează?

Summerfield a făcut ceea ce te-ai aștepta să facă un om de știință: a respins afirmațiile lui Musk ca fiind bazate pe o citire selectivă a dovezilor. Acesta este de obicei șahmat în lumea științei. Dar în politica mondială, a fi corect nu este ceea ce contează cel mai mult. Musk a fost scurt, atrăgător și ușor de împărtășit și reținut. Încercarea de a contracara asta prin discutarea metodologiei în unele lucrări pe care nimeni nu le-a citit a fost un pic ca să joci șah cu un porumbel.

În același timp, Summerfield avea propriile sale idei despre AI pe care alții le-ar putea considera distopice. „Dacă politicienii vor să știe ce crede publicul larg astăzi, ar putea organiza un sondaj. Dar opiniile oamenilor sunt nuanțate, iar instrumentul nostru permite agregarea de opinii, posibil multe opinii, în spațiul extrem de dimensional al limbajului în sine”, spune el. Deși ideea lui este că Mașina Habermas poate găsi puncte utile de consens politic, nimic nu o împiedică să fie folosită și pentru a crea discursuri optimizate pentru a câștiga cât mai mulți oameni.

Asta poate fi în concordanță cu filozofia lui Habermas, totuși. Dacă priviți dincolo de nenumăratele de concepte abstracte mereu prezente în idealismul german, acesta oferă o viziune destul de sumbră asupra lumii. „Sistemul”, condus de puterea și banii corporațiilor și politicienilor corupți, urmărește să colonizeze „lumea vieții”, aproximativ echivalent cu sfera privată pe care o împărtășim cu familiile, prietenii și comunitățile noastre. Modul în care faci lucrurile în „lumea vieții” este prin căutarea consensului, iar Mașina Habermas, conform DeepMind, este menită să ajute în acest sens. Modul în care faci lucrurile în „sistem”, pe de altă parte, este prin a reuși – jucând-o ca pe un joc și făcând tot ce este necesar pentru a câștiga fără restricții, iar Habermas Machine se pare că poate ajuta și cu asta.

Echipa DeepMind a contactat Habermas pentru a-l implica în proiect. Au vrut să știe ce ar avea de spus despre sistemul AI care îi poartă numele. Dar Habermas nu s-a întors niciodată la ei. „Se pare că nu folosește e-mailuri”, spune Summerfield.

Science, 2024. DOI: 10.1126/science.adq2852

Fotografie cu Jacek Krywko

Jacek Krywko este un scriitor independent de știință și tehnologie care acoperă explorarea spațiului, cercetarea inteligenței artificiale, informatica și tot felul de vrăjitorie inginerească.

  1. Imagine de listare pentru prima poveste din Cele mai citite: Ce am învățat din 3 ani de rulare cu Windows 11 pe computere „neacceptate”
Chat Icon
×