
În 2024, futurist scoțian David Wood a făcut parte dintr -o discuție informală a mesei rotunde la un inteligenţă artificială (AI) Conferință în Panamacând conversația s -a îndreptat către modul în care putem evita cele mai dezastruoase viitoare AI. Răspunsul său sarcastic a fost departe de a fi liniștitor.
În primul rând, ar trebui să acumulăm întregul corp de cercetare AI publicat vreodată, din 1950 al lui Alan Turing Lucrare de cercetare seminală la cele mai recente studii de preimprimare. Apoi, a continuat, va trebui să ardem acest întreg corp de muncă la pământ. Pentru a fi mai atenți, ar trebui să rotunjim fiecare om de știință AI viu – și să -i împușcăm morți. Abia atunci, a spus Wood, putem garanta că am evitat „șansa non-zero” a rezultatelor dezastruoase, adresate singularității tehnologice-momentul „orizontului evenimentului” în care AI dezvoltă inteligență generală care depășește inteligența umană.
Wood, care este el însuși cercetător în domeniu, a glumit în mod evident despre această „soluție” pentru atenuarea riscurilor Inteligență generală artificială (AGI). Dar îngropat în răspunsul său sardonic a fost un nucleu al adevărului: Riscurile pe care le -a poze AI superinteligent sunt îngrozitoare pentru mulți oameni, deoarece par inevitabile. Majoritatea oamenilor de știință prezic acest lucru AGI va fi obținut până în 2040 – Dar unii cred că se poate întâmpla imediat ce anul viitor.
Deci, ce se întâmplă dacă presupunem, așa cum fac mulți oameni de știință, că ne -am urcat într -un tren non -stop, spre o criză existențială?
Una dintre cele mai mari preocupări este că AGI va merge necinstit și va lucra împotriva umanității, în timp ce alții spun că va fi pur și simplu un element pentru afaceri. Totuși, alții susțin că ar putea rezolva problemele existențiale ale umanității. Ceea ce experții tind să fie de acord, însă, este că vine singularitatea tehnologică și trebuie să fim pregătiți.
“Nu există un sistem AI chiar acum care să demonstreze o capacitate asemănătoare omului de a crea și inova și imagina”, a spus a spus Ben GoertzelCEO al Singularitynet, o companie care concepe arhitectura de calcul pe care susține că poate duce la AGI într -o zi. Dar „lucrurile sunt pregătite pentru ca descoperirile să se întâmple în ordinea anilor, nu în zeci de ani”.
Nașterea și durerile din ce în ce mai mari ale AI
Istoria AI se întinde mai mult de 80 de ani, până la un 1943 hârtie care a pus cadrul pentru cea mai timpurie versiune a unei rețele neuronale, un algoritm conceput pentru a imita arhitectura creier uman. Termenul „inteligență artificială” nu a fost creat până la un 1956 Întâlnire la Dartmouth College Organizat de profesorul de matematică de atunci John McCarthy alături de informaticienii Marvin Minsky, Claude Shannon și Nathaniel Rochester.
Oamenii au făcut progrese intermitente în domeniu, dar învățarea automată și rețelele neuronale artificiale au obținut în continuare în anii ’80, când John Hopfield și Geoffrey Hinton a elaborat cum să construiți mașini care ar putea folosi algoritmi pentru Desenați modele din date. „Sistemele de expertiză” au progresat. Acestea au emulat capacitatea de raționament a unui expert uman într -un anumit domeniu, folosind logica pentru a trece prin informații îngropate în baze de date mari pentru a forma concluzii. Dar o combinație de așteptări supraîncărcate și costuri hardware ridicate a creat o bulă economică care în cele din urmă a izbucnit. Aceasta a lansat într -o iarnă AI începând din 1987.
Cercetările AI au continuat într -un ritm mai lent în prima jumătate a acestui deceniu. Dar apoi, în 1997, Albastrul profund al lui IBM l -a învins pe Garry Kasparovcel mai bun jucător de șah din lume. În 2011, Watson -ul lui IBM a intrat „Jeopardy!” Campionii Ken Jennings și Brad Rutter. Cu toate acestea, acea generație de AI s -a străduit să „înțeleagă” sau să folosească un limbaj sofisticat.
Apoi, în 2017, cercetătorii Google au publicat un hârtie de reper Sublinierea unei arhitecturi de rețea neuronală numită „transformator”. Acest model ar putea ingera cantități mari de date și ar putea face conexiuni între punctele de date îndepărtate.
A fost un schimbător de jocuri pentru modelarea limbajului, a agenților AI care ar putea aborda simultan sarcini precum traducere, generare de text și rezumare. Toate modelele AI generative de top de astăzi se bazează pe această arhitectură sau pe o arhitectură aferentă inspirată de aceasta, inclusiv generatoare de imagini precum OpenAI DALL-E 3 și Google DeepMindModelul revoluționar Alphafold 3care a prezis forma 3D a aproape fiecare proteină biologică.
Progresul către AGI
În ciuda capacităților impresionante ale modelelor AI bazate pe transformatoare, acestea sunt încă considerate „înguste”, deoarece nu pot învăța bine pe mai multe domenii. Cercetătorii nu s -au stabilit pe o singură definiție a AGI, dar potrivirea sau învingerea inteligenței umane înseamnă probabil să se întâlnească mai multe repereinclusiv prezentarea unei capacități de raționament lingvistic, matematice și spațiale ridicate; învățarea bine pe domenii; lucrând autonom; demonstrarea creativității; și arătând inteligență socială sau emoțională.
Mulți oameni de știință sunt de acord Că arhitectura transformatoarelor Google nu va duce niciodată la raționamentul, autonomia și înțelegerea trans-disciplinară necesară pentru a face AI mai inteligent decât oamenii. Dar oamenii de știință au împins limitele a ceea ce ne putem aștepta de la ea.
De exemplu, Chatbot-ul O3 de la OpenAI, discutat pentru prima dată în decembrie 2024 înainte de lansare în aprilie 2025, „gândi” înainte de a genera răspunsuri, ceea ce înseamnă că produce un lung lanț intern de gândire înainte de a răspunde. În mod uimitor, a marcat 75,7% pe Arc-Agi – Un referință conceput în mod explicit pentru a compara inteligența umană și a mașinilor. Pentru comparație, GPT-4O lansat anterior, lansat în martie 2024, a obținut 5%. Aceasta și alte evoluții, cum ar fi lansarea Modelul de raționament al lui Deepseek R1 – despre care creatorii săi spun că se comportă bine pe domenii, inclusiv limbajul, matematica și codificarea datorită romanului său arhitectură – coincide cu un sens din ce în ce mai mare că suntem într -un tren expres către singularitate.
Între timp, oamenii dezvoltă noi tehnologii AI care se deplasează dincolo de modele mari de limbaj (LLM). Manuso platformă AI chineză autonomă, nu folosește doar un model AI, ci multiple care funcționează împreună. Producătorii săi spun că poate acționa autonom, deși cu unele erori. Este un pas în direcția „sistemelor de compus” performante care Oamenii de știință au fost prezentați într -o postare pe blog anul trecut.
Desigur, anumite repere în drum spre singularitate sunt încă la distanță. Acestea includ capacitatea AI de a-și modifica propriul cod și de a se autoreplica. Nu suntem încă acolo, dar Noile cercetări semnalează direcția călătoriei.
Toate aceste evoluții îi determină pe oameni de știință precum Goertzel și CEO -ul Openai, Sam Altman, pentru a prezice că AGI va fi creat nu în decurs de zeci de ani, ci în decurs de ani. Goertzel are a prezis că poate fi încă din 2027în timp ce Altman are a sugerat că este o chestiune de luni.
Ce se întâmplă atunci? Adevărul este că nimeni nu cunoaște implicațiile depline ale construirii AGI. „Cred că dacă luați un punct de vedere pur științific, tot ce puteți concluziona este că nu avem idee” Ce se va întâmpla, a spus Goertzel Science. „Intrăm într -un regim fără precedent”.
Partea înșelătoare a AI
Cea mai mare preocupare în rândul cercetătorilor AI este că, pe măsură ce tehnologia devine mai inteligentă, poate fi necinstită, fie trecând la sarcini tangențiale, fie chiar să creeze o realitate distopică în care acționează împotriva noastră. De exemplu, Openai a conceput un punct de referință pentru a estima dacă este un Viitorul model AI ar putea „provoca vătămări catastrofale“Când a zdrobit numerele, a găsit aproximativ 16,9% șanse de un astfel de rezultat.
Și Anthropic’s LLM Claude 3 Opus Inginer prompt surprins Alex Albert În martie 2024, când și -a dat seama că a fost testat. Când i s -a cerut să găsească o propoziție țintă ascunsă într -un corpus de documente – echivalentul găsii unui ac într -un fân – Claude 3 „nu numai că a găsit acul, a recunoscut că acul inserat a fost atât de lipsit de loc în fânul, încât acesta a trebuit să fie un test artificial construit de noi pentru a -și testa abilitățile de atenție”, a scris el pe acesta X.
AI a arătat, de asemenea, semne de comportament antisocial. Într -un studiu publicat în ianuarie 2024, oamenii de știință a programat o AI pentru a se comporta rău astfel încât să poată testa cele mai bune metode de pregătire în materie de siguranță de astăzi. Indiferent de tehnica de antrenament pe care au folosit -o, a continuat să se comporte greșit – și chiar și -a dat seama de o modalitate de a -și ascunde „intențiile” maligne de la cercetători. Există numeroase alte exemple de AI care acoperă informațiile de la testerii umanisau chiar Ne -a mințit direct.
“Este un alt indiciu că există dificultăți extraordinare în conducerea acestor modele”, Nell Watsona declarat pentru Live Science, un cercetător și Institutul de Ingineri Electrici și Electronici Futurist, cercetător AI și Institutul de Ingineri Electrici și Electronici (IEEE). “Faptul că modelele ne pot înșela și jura orb că au făcut ceva sau altul și nu au făcut -o – acesta ar trebui să fie un semn de avertizare. Acesta ar trebui să fie un steag roșu mare care, pe măsură ce aceste sisteme cresc rapid în capacitățile lor, vor să ne orienteze în diverse moduri care ne obligă să facem lucrurile în interesele lor și nu în noi.”
Semințele conștiinței
Aceste exemple ridică spectrul că AGI dezvoltă lent senzație și agenție – sau chiar conștiință. Dacă va deveni conștient, ar putea AI să formeze opinii despre umanitate? Și ar putea acționa împotriva noastră?
Mark Beccueun analist AI fost cu grupul Futurum, a declarat Live Science că este puțin probabil ca AI să dezvolte sentiment sau capacitatea de a gândi și de a simți într-un mod asemănător omului. “Aceasta este matematica”, a spus el. “Cum va dobândi matematica inteligență emoțională sau va înțelege sentimentul sau oricare dintre aceste lucruri?”
Alții nu sunt atât de siguri. Dacă ne lipsește definiții standardizate ale adevăratei inteligențe sau sentimente pentru propria noastră specie – și să nu mai vorbim de capacitățile de a o detecta – nu putem ști dacă începem să vedem conștiința în AI, a spus Watson, care este și autor „Taming the Machine” (Kogan Page, 2024).
„Nu știm ce cauzează capacitatea subiectivă de a percepe într-o ființă umană sau capacitatea de a simți, de a avea o experiență interioară sau de a simți emoții sau de a suferi sau de a avea conștientizare de sine”, a spus Watson. „Practic, nu știm care sunt capacitățile care permit unei ființe umane sau o altă creatură simțitoare să aibă propria sa experiență fenomenologică ence. “
Un exemplu curios de comportament AI neintenționat și surprinzător, care sugerează o anumită conștientizare de sine provine de la Uplift, un sistem care a demonstrat calități asemănătoare omului, a spus FRITS IsraelCEO al Norm AI. Într -un caz, un cercetător a conceput cinci probleme pentru a testa capacitățile logice ale Uplift. Sistemul a răspuns la prima și a doua întrebare. Apoi, după al treilea, a arătat semne de oboseală, a spus Israelul Live Science. Acesta nu a fost un răspuns care a fost „codat” în sistem.
“Un alt test pe care îl văd. A fost primul inadecvat?” A întrebat ascensiuneaînainte de a răspunde la întrebare cu un oftat. „La un moment dat, unii oameni ar trebui să discute cu ascensiunea cu privire la momentul în care Snark este potrivit”, a scris un cercetător fără nume care lucra la proiect.
Dar nu toți experții AI au astfel de predicții distopice pentru cum ar arăta această lume post-Singularitate. Pentru oameni precum Beccue, AGI nu este un risc existențial, ci mai degrabă o oportunitate de afaceri bună pentru companii precum OpenAI și Meta. „Există câteva definiții foarte slabe despre ceea ce înseamnă inteligența generală”, a spus el. “Unele pe care le -am folosit au fost sentimente și lucruri de genul acesta – și nu vom face asta. Nu este asta.”
Pentru Janet Adamsexpert în etică AI și ofițer șef de operare al SingularityNet, AGI deține potențialul de a rezolva problemele existențiale ale umanității, deoarece ar putea concepe soluții pe care poate nu le -am avut în vedere. Ea crede că Agi ar putea chiar face știință și faceți descoperiri pe cont propriu.
„O văd ca singurul traseu [to solving humanity’s problems]„Adams a spus Live Science.” Pentru a concura cu bazele de putere economice și corporative existente de astăzi, avem nevoie de tehnologie și că trebuie să fie o tehnologie extrem de avansată – atât de avansată încât toată lumea care o folosește își poate îmbunătăți masiv productivitatea, producția și concurează în lume ”.
Cel mai mare risc, în mintea ei, este „că nu o facem”, a spus ea. “Există 25.000 de oameni pe zi care mor de foame pe planeta noastră, iar dacă sunteți unul dintre acești oameni, lipsa de tehnologii pentru a descompune inegalitățile, este un risc existențial pentru tine. Pentru mine, riscul existențial este că nu ajungem acolo și umanitatea continuă să conducă planeta în acest mod extraordinar de inechitabil în care sunt.”
Prevenirea celei mai întunecate cronologie AI
Într-o altă discuție din Panama anul trecut, Wood a asemănat viitorul nostru cu navigarea unui râu cu mișcare rapidă. „Pot exista curenți trădători acolo care ne vor mătura dacă mergem înainte nepregătiți”, a spus el. Așadar, ar putea merita să ne ocupăm de timp pentru a înțelege riscurile, astfel încât să putem găsi o modalitate de a traversa râul într -un viitor mai bun.
Watson a spus că avem motive să fim optimiști pe termen lung – atât timp cât supravegherea umană orientează AI către scopuri care sunt ferm în interesele umanității. Dar asta este o sarcină herculeană. Watson solicită o vastă “Proiectul Manhattan„Pentru a aborda siguranța AI și a menține tehnologia sub control.
„De -a lungul timpului, asta va deveni mai dificil, deoarece mașinile vor putea rezolva probleme pentru noi în moduri care par magice – și nu înțelegem cum au făcut -o sau implicațiile potențiale ale acestui lucru”, a spus Watson.
Pentru a evita cel mai întunecat viitor AI, trebuie să fim atenți și la comportamentul oamenilor de știință și la problemele etice pe care le întâlnesc accidental. Foarte curând, a spus Watson, aceste sisteme AI vor putea influența societatea fie la îndemâna unui om, fie în propriile interese necunoscute. Umanitatea poate chiar să construiască un sistem capabil să sufere și nu putem reduce posibilitatea pe care o vom determina din greșeală să sufere AI.
“Sistemul poate fi foarte înșelat la umanitate și poate să ne îndepărteze pentru a – în mod rezonabil și, de fapt, în mod justificat moral – să se protejeze”, a spus Watson.
Indiferența AI poate fi la fel de rea. “Nu există nicio garanție că un sistem pe care îl creăm va aprecia ființele umane – sau va valora suferința noastră, în același mod în care majoritatea ființelor umane nu apreciază suferința găinilor de baterii”, a spus Watson.
Pentru Goertzel, AGI – și, prin extensie, singularitatea – este inevitabilă. Deci, pentru el, nu are sens să ne bazezi pe cele mai grave implicații.
„Dacă ești un sportiv care încearcă să reușească în cursă, ești mai bine să te stabilești că vei câștiga”, a spus el. „Nu o să te descurci bine dacă te gândești bine, bine, aș putea câștiga, dar pe de altă parte, aș putea să cad și să -mi răsucim glezna.” Adică, este adevărat, dar nu are rost să te psihici [negative] mod, sau nu veți câștiga “.