diverse

Ce este inteligența artificială (AI)?

ce-este-inteligenta-artificiala-(ai)?
Conceptul AI.  randare 3D.

(Credit imagine: BlackJack3D prin Getty Images)

Inteligența artificială (AI) se referă la orice tehnologie care prezintă unele fațete ale inteligenței umane și a fost un domeniu proeminent în informatică de zeci de ani. Sarcinile de inteligență artificială pot include orice, de la alegerea obiectelor dintr-o scenă vizuală până la a ști cum să încadrezi o propoziție sau chiar a prezice mișcările prețului acțiunilor.

Oamenii de știință au încercat să construiască AI încă din zorii erei computerului. The abordare de conducere pentru cea mai mare parte a secolului trecut a implicat crearea unor baze de date mari de fapte și reguli și apoi obținerea de programe de calculator bazate pe logică care să se bazeze pe acestea pentru a lua decizii. Dar acest secol a cunoscut o schimbare, cu noi abordări care fac computerele să învețe propriile fapte și reguli prin analiza datelor. Acest lucru a dus la progrese majore în domeniu.

În ultimul deceniu, mașinile au arătat capacități aparent „supraomene” în orice, de la depistarea cancerului de sân în imagini medicalepentru a juca jocuri de societate diabolic de complicate Chess and Go – și chiar prezicerea structurii proteinelor.

De când chatbot-ul ChatGPT cu model de limbă mare (LLM) a apărut la sfârșitul anului 2022, a existat și o consens tot mai mare că am putea fi pe punctul de a replica o inteligență mai generală similară cu cea observată la oameni – cunoscută sub numele de inteligență generală artificială (AGI). „Nu poate fi subliniat prea mult cât de esențială a fost această schimbare pentru domeniu”, a declarat Sara Hooker, șefa Cohere For AI, un laborator de cercetare non-profit creat de compania AI Cohere.

Cum funcționează AI?

În timp ce oamenii de știință pot adopta mai multe abordări pentru a construi sisteme AI, învățarea automată este cea mai utilizată astăzi. Aceasta implică obținerea unui computer analiza datelor pentru a identifica modele care pot fi apoi folosite pentru a face predicții.

Procesul de învățare este guvernat de un algoritm — o secvență de instrucțiuni scrise de oameni care îi spune computerului cum să analizeze datele — iar rezultatul acestui proces este un model statistic care codifică toate modelele descoperite. Acesta poate fi apoi alimentat cu date noi pentru a genera predicții.

Există multe tipuri de algoritmi de învățare automată, dar rețele neuronale sunt printre cele mai utilizate astăzi. Acestea sunt colecții de algoritmi de învățare automată modelați vag pe creier umanși învață ajustând puterea conexiunilor dintre rețeaua de „neuroni artificiali” în timp ce își caută datele de antrenament. Aceasta este arhitectura pe care o folosesc multe dintre cele mai populare servicii AI de astăzi, cum ar fi generatoarele de text și imagini.

Cele mai multe cercetări de ultimă oră implică astăzi invatare profunda, care se referă la utilizarea rețelelor neuronale foarte mari cu multe straturi de neuroni artificiali. Ideea există încă din anii 1980, dar datele masive și cerințele de calcul au limitat aplicațiile. Apoi, în 2012, cercetătorii au descoperit că cipurile de computer specializate cunoscute sub numele de unități de procesare grafică (GPU) accelerează învățarea profundă. Învățarea profundă a fost de atunci standardul de aur în cercetare.

„Rețelele neuronale profunde sunt un fel de învățare automată pe steroizi”, a spus Hooker. „Ambele sunt cele mai costisitoare modele din punct de vedere computațional, dar și de obicei mari, puternice și expresive”

Cu toate acestea, nu toate rețelele neuronale sunt la fel. Configurații diferite, sau „arhitecturile”, așa cum sunt cunoscute, sunt potrivite pentru diferite sarcini. Rețelele neuronale convoluționale au modele de conectivitate inspirate de cortexul vizual al animalului și excelează la sarcini vizuale. Rețelele neuronale recurente, care prezintă o formă de memorie internă, sunt specializate în procesarea datelor secvențiale.

Algoritmii pot fi, de asemenea antrenat diferit in functie de aplicatie. Cea mai comună abordare se numește „învățare supravegheată” și presupune ca oamenii să atribuie etichete fiecărei date pentru a ghida procesul de învățare a tiparelor. De exemplu, ați adăuga eticheta „pisica” la imaginile cu pisici.

În „învățare nesupravegheată”, datele de antrenament sunt neetichetate și mașina trebuie să rezolve lucrurile de la sine. Acest lucru necesită mult mai multe date și poate fi greu de pus în funcțiune, dar deoarece procesul de învățare nu este limitat de preconcepții umane, poate duce la modele mai bogate și mai puternice. Multe dintre descoperirile recente în LLM au folosit această abordare.

Ultima abordare majoră de formare este „învățarea prin întărire”, care permite unui AI să învețe prin încercare și eroare. Acesta este cel mai frecvent folosit pentru a antrena sisteme sau roboți AI care se joacă – inclusiv roboți umanoizi precum Figura 01sau acestea roboți miniaturali care joacă fotbal — și implică încercarea în mod repetat a unei sarcini și actualizarea unui set de reguli interne ca răspuns la feedback-ul pozitiv sau negativ. Această abordare a alimentat Google Mintea adâncămodelul revoluționar AlphaGo al lui.

Ce este IA generativă?

În ciuda faptului că învățarea profundă a obținut un șir de succese majore în ultimul deceniu, puțini au prins imaginația publicului în același mod ca capabilitățile conversaționale uimitoare ale ChatGPT. Acesta este unul dintre numeroasele sisteme AI generative care utilizează învățarea profundă și rețelele neuronale pentru a genera o ieșire bazată pe intrarea unui utilizator – inclusiv text, imagini, audio și chiar video.

Generatoarele de text precum ChatGPT funcționează folosind un subset de AI cunoscut sub numele de „prelucrarea limbajului natural” (NLP). Geneza acestei descoperiri poate fi urmărită la o nouă arhitectură de învățare profundă introdusă de oamenii de știință Google. în 2017 numit „transformatorul”.

Algoritmii transformatori sunt specializați în efectuarea învățării nesupravegheate pe colecții masive de date secvențiale – în special, bucăți mari de text scris. Sunt buni în a face acest lucru, deoarece pot urmări relațiile dintre punctele de date îndepărtate mult mai bine decât abordările anterioare, ceea ce le permite să înțeleagă mai bine contextul la care se uită.

„Ceea ce spun în continuare depinde de ceea ce am spus înainte – limba noastră este conectată în timp”, a spus Hooker. „Aceasta a fost una dintre descoperirile esențiale, această capacitate de a vedea cu adevărat cuvintele ca un întreg.”

LLM-urile învață mascând următorul cuvânt dintr-o propoziție înainte de a încerca să ghicească ce se bazează pe ce a apărut înainte. Datele de antrenament conțin deja răspunsul, astfel încât abordarea nu necesită nicio etichetare umană, făcând posibilă pur și simplu să răzuiești mulțime de date de pe internet și să le introduci în algoritm. De asemenea, Transformers pot efectua mai multe instanțe ale acestui joc de antrenament în paralel, ceea ce le permite să trimită datele mult mai rapid.

Prin antrenamentul pe astfel de cantități mari de date, transformatoarele pot produce modele extrem de sofisticate ale limbajului uman – de unde și numele de „model de limbaj mare”. De asemenea, pot analiza și genera text complex, de formă lungă, foarte asemănător cu textul pe care îl poate genera un om. Transformatoarele nu au revoluționat doar limbajul. Aceeași arhitectură poate fi, de asemenea, instruită pe date de text și imagine în paralel, rezultând modele precum Stable Diffusion și DALL-E, care produc imagini de înaltă definiție dintr-o descriere scrisă simplă.

Transformers au jucat, de asemenea, un rol central în Google Deepmind AlphaFold 2 model, care poate genera structuri proteice din secvențe de aminoacizi. Această capacitate de a produce date originale, mai degrabă decât simpla analiză a datelor existente, este motivul pentru care aceste modele sunt cunoscute ca „AI generativă”.

Narrow AI vs artificial general intelligence (AGI): Care este diferența?

Oamenii au devenit încântați de LLM datorită amplorii sarcinilor pe care le pot îndeplini. Majoritatea sistemelor de învățare automată sunt instruite pentru a rezolva o anumită problemă, cum ar fi detectarea fețelor într-un flux video sau traducerea dintr-o limbă în alta. Aceste modele sunt cunoscute sub denumirea de „AI îngustă”, deoarece pot aborda doar sarcina specifică pentru care au fost instruiți.

Majoritatea sistemelor de învățare automată sunt antrenate să rezolve o anumită problemă, cum ar fi detectarea fețelor într-un flux video sau traducerea dintr-o limbă în alta, la un nivel supraomenesc, prin faptul că sunt mult mai rapide și au performanțe mai bune decât ar putea un om. Dar LLM-urile precum ChatGPT reprezintă o schimbare de pas în capabilitățile AI, deoarece un singur model poate îndeplini o gamă largă de sarcini. Ei pot răspunde la întrebări despre diverse subiecte, pot rezuma documente, pot traduce între limbi și pot scrie cod.

Această capacitate de a generaliza ceea ce au învățat pentru a rezolva multe probleme diferite are i-a determinat pe unii să speculeze LLM-urile ar putea fi un pas către AGI, inclusiv oamenii de știință DeepMind într-o lucrare publicată anul trecut. AGI se referă la a IA viitor ipotetic capabil să stăpânească orice sarcină cognitivă pe care o poate face un om, să raționeze abstract despre probleme și să se adapteze la situații noi fără pregătire specifică.

Pasionații de inteligență artificială prevăd că odată ce AGI este atins, progresul tehnologic se va accelera rapid – un punct de inflexiune cunoscut sub numele de „singularitatea”, după care descoperirile vor fi realizate exponențial. Există, de asemenea riscuri existențiale perceputevariind de la perturbarea masivă a economiei și a pieței muncii până la potențialul AI de a descoperi noi agenți patogeni sau arme.

Dar există încă dezbateri dacă LLM-urile vor fi un precursor al unui AGI sau pur și simplu o arhitectură într-un rețea mai largă sau ecosistem de arhitecturi AI care este necesar pentru AGI. Unii spun că LLM-urile sunt la kilometri distanță de reproducere raționamentul uman și capacitățile cognitive. Potrivit detractorilor, aceste modele au pur și simplu memorat cantități mari de informații, pe care le recombină în moduri care dau impresia falsă de înțelegere mai profundă; înseamnă că sunt limitate de datele de antrenament și nu sunt fundamental diferite de alte instrumente AI înguste.

Cu toate acestea, este sigur că LLM reprezintă o schimbare seismică în modul în care oamenii de știință abordează dezvoltarea AI, a spus Hooker. În loc să antreneze modele pentru sarcini specifice, cercetarea de ultimă oră ia acum aceste modele pre-instruite, capabile în general și le adaptează la cazuri de utilizare specifice. Acest lucru a făcut ca ei să fie denumiti „modele de fundație”.

„Oamenii trec de la modele foarte specializate care fac un singur lucru la un model de fundație, care face totul”, a adăugat Hooker. „Sunt modelele pe care totul este construit”.

Cum se folosește AI în lumea reală?

Tehnologii precum învățarea automată sunt peste tot. Algoritmii de recomandare bazați pe inteligență artificială decid ce vizionați pe Netflix sau YouTube, în timp ce modelele de traducere fac posibilă convertirea instantanee a unei pagini web dintr-o limbă străină în propria dvs. Banca dvs. folosește probabil și modele AI pentru a detecta orice activitate neobișnuită din contul dvs. care ar putea sugera fraudă, iar camerele de supraveghere și mașinile cu conducere autonomă folosesc modele de vizualizare computerizată pentru a identifica persoane și obiecte din fluxurile video.

Dar instrumentele și serviciile generative de inteligență artificială încep să se strecoare în lumea reală dincolo de chatbot-uri noi precum ChatGPT. Majoritatea dezvoltatorilor majori de AI au acum un chatbot care poate răspunde la întrebările utilizatorilor pe diverse subiecte, poate analiza și rezuma documente și poate traduce între limbi. Aceste modele sunt, de asemenea, integrate în motoarele de căutare, cum ar fi zodia Gemeni în Căutarea Google – iar companiile construiesc, de asemenea, asistenți digitali bazați pe inteligență artificială, care îi ajută pe programatori să scrie cod, cum ar fi Github Copilot. Ele pot fi chiar un instrument de creștere a productivității pentru persoanele care folosesc procesoare de text sau clienți de e-mail.

Instrumentele AI în stil chatbot sunt cel mai des întâlnit serviciu AI generativ, dar în ciuda performanței lor impresionante, LLM-urile sunt încă departe de a fi perfecte. Ei fac presupuneri statistice despre ce cuvinte ar trebui să urmeze un anumit prompt. Deși adesea produc rezultate care indică înțelegere, ele pot, de asemenea, genera cu încredere răspunsuri plauzibile, dar greșite – cunoscute sub numele de „halucinații.”

În timp ce IA generativă devine din ce în ce mai comună, este departe de a fi clar unde sau cum se vor dovedi aceste instrumente cele mai utile. Și având în vedere cât de nouă este tehnologia Da, există motive să fii precaut cu privire la cât de repede este lansat, a spus Hooker. „Este foarte neobișnuit ca ceva să fie la granița posibilităților tehnice, dar în același timp, desfășurat pe scară largă”, a adăugat ea. „Aceasta aduce propriile sale riscuri și provocări”.

Primiți cele mai fascinante descoperiri din lume direct în căsuța dvs. de e-mail.

Edd Gent este un scriitor științific independent britanic care locuiește acum în India. Principalele sale interese sunt marginile mai ciudate ale informaticii, ingineriei, bioștiințelor și politicii științifice. Edd are o diplomă de licență în politică și relații internaționale și este reporter senior calificat NCTJ. În timpul liber îi place să facă alpinism și să-și exploreze casa proaspăt adoptată.

To top
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.