Inteligenţă artificială (AI) a ocupat centrul științei de bază. Cei cinci câștigători ai Premiilor Nobel 2024 în Chimie şi Fizică a împărtășit un fir comun: AI.

Într-adevăr, mulți oameni de știință – inclusiv comitetele Nobel – celebrează AI ca o forță de transformare a științei.

Ca unul dintre laureați Să spunem, potențialul AI de a accelera descoperirea științifică o face „una dintre cele mai transformatoare tehnologii din istoria umanității”. Dar ce va însemna cu adevărat această transformare pentru știință?

AI promite că îi va ajuta pe oamenii de știință să facă mai mult, mai rapid, cu mai puțini bani. Dar aduce și o serie de preocupări noi – și dacă oamenii de știință se grăbesc cu adoptarea AI, riscă să transforme știința în ceva care scapă de înțelegerea și încrederea publicului și nu reușește să răspundă nevoilor societății.

Iluziile înțelegerii

Experții au deja identificate cel puțin trei iluzii care pot capta cercetătorii folosind AI.

Prima este „iluzia profunzimii explicative”. Doar pentru că un model AI excelează la prezicerea unui fenomen – precum AlphaFold, care a câștigat Premiul Nobel în Chimie pentru predicțiile sale privind structurile proteinelor – asta nu înseamnă că poate explica cu exactitate. Cercetare în neuroștiință a arătat deja că modelele AI concepute pentru predicție optimizată pot duce la concluzii înșelătoare despre mecanismele neurobiologice care stau la baza.

A doua este „iluzia lărgimii exploratorii”. Oamenii de știință ar putea crede că investighează toate ipotezele testabile în cercetările lor exploratorii, când, de fapt, se uită doar la un set limitat de ipoteze care pot fi testate folosind AI.

Primiți cele mai fascinante descoperiri din lume direct în căsuța dvs. de e-mail.

În sfârșit, „iluzia obiectivității”. Oamenii de știință ar putea crede că modelele AI sunt lipsite de părtiniri sau că pot explica toate părtinirile umane posibile. În realitate, totuși, toate modelele AI reflectă inevitabil părtinirile prezente în datele lor de antrenament și intențiile dezvoltatorilor lor.

Înrudit: „Ar putea deschide calea pentru noi forme de expresie artistică”: IA generativă nu este o amenințare pentru artiști – este o oportunitate de a redefini arta însăși

Știință mai ieftină și mai rapidă

Unul dintre principalele motive pentru atractivitatea tot mai mare a IA în știință este potențialul său de a produce mai multe rezultate, mai rapid și la un cost mult mai mic.

Un exemplu extrem al acestei împingeri este „Savant AI„, dezvoltat recent de Sakana AI Labs. Viziunea companiei este de a dezvolta un „sistem complet bazat pe inteligență artificială pentru descoperirea științifică automată”, în care fiecare idee poate fi transformată într-o lucrare de cercetare completă pentru doar 15 USD – deși criticii au spus că sistemul a produs „pată științifică nesfârșită„.

Ne dorim cu adevărat un viitor în care lucrările de cercetare să poată fi produse cu doar câteva clicuri, pur și simplu pentru a „accelera” producția de știință? Acest lucru riscă să inunde ecosistemul științific cu lucrări fără sens și valoareîncordând și mai mult un sistem de evaluare inter pares deja suprasolicitat.

Ne-am putea găsi într-o lume în care știința, așa cum o știam cândva, este îngropată sub zgomotul conținutului generat de AI.

O lipsă de context

Creșterea IA în știință vine într-un moment în care publicul are încredere în știință și oameni de știință este încă destul de mare dar nu o putem lua de la sine înțeles. Încrederea este complexă și fragilă.

După cum am învățat în timpul COVID pandemicsună la „ai incredere in stiinta„Poate rămâne scurt, deoarece dovezile științifice și modelele computaționale sunt adesea contestate, incomplete sau deschise diferitelor interpretări.

Cu toate acestea, lumea se confruntă cu o serie de probleme, cum ar fi schimbările climatice, pierderea biodiversității și inegalitatea socială, care necesită politici publice elaborate cu judecata experților. Această judecată trebuie să fie, de asemenea, sensibilă la situații specifice, adunând contribuții din diverse discipline și experiențe trăite care trebuie interpretate prin prisma culturii și valorilor locale.

Ca un Raportul Consiliului Internațional de Știință publicat anul trecut a argumentat, știința trebuie să recunoască nuanța și contextul pentru a reconstrui încrederea publicului. Lăsarea inteligenței artificiale să modeleze viitorul științei poate submina progresul obținut cu greu în acest domeniu.

Dacă permitem AI să preia conducerea în cercetarea științifică, riscăm să creăm a monocultură a cunoașterii care prioritizează tipurile de întrebări, metode, perspective și experți cel mai potrivit pentru IA.

Acest lucru ne poate îndepărta de abordare transdisciplinară esențială pentru IA responsabilă, precum și pentru raționamentul public nuanțat și dialogul necesar pentru a aborda provocările noastre sociale și de mediu.

Când a început secolul XXI, unii au susținut că oamenii de știință au avut o contract social reînnoit în care oamenii de știință își concentrează talentele asupra celor mai stringente probleme ale timpului nostru în schimbul finanțării publice. Scopul este de a ajuta societatea să se îndrepte către o biosferă mai durabilă – una care este ecologică, viabilă din punct de vedere economic și justă din punct de vedere social.

Creșterea IA oferă oamenilor de știință o oportunitate nu doar de a-și îndeplini responsabilitățile, ci și de a revitaliza contractul în sine. Cu toate acestea, comunitățile științifice vor trebui să se adreseze unora întrebări importante despre utilizarea AI primul.

De exemplu, utilizarea AI în știință este un fel de „externalizare” care ar putea compromite integritatea muncii finanțate din fonduri publice? Cum ar trebui tratat acest lucru?

Ce zici de amprenta de mediu în creștere a IA? Și cum pot cercetătorii să rămână aliniați cu așteptările societății în timp ce integrează AI în pipeline de cercetare?

Ideea de a transforma știința cu AI fără a stabili mai întâi acest contract social riscă să pună căruța înaintea calului.

Lăsând AI să ne modeleze prioritățile de cercetare fără contribuții din partea diverselor voci și discipline poate duce la o nepotrivire cu ceea ce are nevoie societatea de fapt și poate duce la resurse alocate prost.

Știința ar trebui să beneficieze societatea în ansamblu. Oamenii de știință trebuie să se angajeze în conversații reale despre viitorul AI în cadrul comunității lor de practică și cu părțile interesate din cercetare. Aceste discuții ar trebui să abordeze dimensiunile acestui contract social reînnoit, reflectând obiectivele și valorile comune.

Este timpul să exploreze în mod activ diversele viitoruri pe care AI pentru știință le permite sau le blochează – și să stabilim standardele și liniile directoare necesare pentru a-și valorifica potențialul în mod responsabil.

Acest articol editat este republicat din Conversația sub o licență Creative Commons. Citiți articol original.

Chat Icon
×