
Cu cât încercăm mai exact să facem modele AI, cu atât amprenta lor de carbon – cu unele prompturi producând de până la 50 de ori mai multe emisii de dioxid de carbon decât altele, a dezvăluit un nou studiu.
Modelele de raționament, cum ar fi Claude’s Anthropic, OpenAI O3 și Deepseek’s R1, sunt modele de limbaj mare specializate (LLM) care dedică mai mult timp și putere de calcul pentru a produce răspunsuri mai precise decât predecesorii lor.
Cu toate acestea, în afară de unele rezultate impresionante, s -a dovedit că aceste modele se confruntă sever limitări în capacitatea lor de a crăpa probleme complexe. Acum, o echipă de cercetători a evidențiat o altă constrângere a performanței modelelor – amprenta lor exorbitantă de carbon. Și -au publicat concluziile pe 19 iunie în jurnal Frontiere în comunicare.
„Impactul asupra mediului al interogării LLM -urilor instruite este puternic determinat de abordarea lor de raționament, cu procese de raționament explicite crescând în mod semnificativ consumul de energie și emisiile de carbon”, studiul Primului autor Maximilian Daunercercetător la Hochschule München University of Applied Sciences din Germania, spus într -o declarație. „Am constatat că modelele activate de raționament au produs de până la 50 de ori mai multe emisii de CO₂ decât modele de răspuns concis.”
Pentru a răspunde la solicitările date, LLMS sparg limbajul în jetoane – bucăți de cuvinte care sunt transformate într -un șir de numere înainte de a fi alimentate în rețele neuronale. Aceste rețele neuronale sunt reglate folosind date de instruire care calculează probabilitățile anumitor modele. Apoi folosesc aceste probabilități pentru a genera răspunsuri.
Modelele de raționament încearcă în continuare să stimuleze precizia folosind un proces cunoscut sub numele de „lanț de gândire”. Aceasta este o tehnică care funcționează prin descompunerea unei probleme complexe în pași intermediari mai mici, mai digerabili, care urmează un flux logic, imitând modul în care oamenii ar putea ajunge la concluzia la aceeași problemă.
Înrudite: AI „halucina” constant, dar există o soluție
Cu toate acestea, aceste modele au cerințe energetice semnificativ mai mari decât LLM -urile convenționale, care prezintă un potențial blocaj economic pentru companii și utilizatori care doresc să le implementeze. Cu toate acestea, în ciuda unora Cercetări asupra impactului asupra mediului În creșterea adoptării AI, mai general, comparațiile dintre amprentele de carbon ale diferitelor modele rămân relativ rare.
Costul raționamentului
Pentru a examina emisiile de CO₂ produse de diferite modele, oamenii de știință din spatele noului studiu au pus 14 LLMS 1.000 de întrebări pe diferite subiecte. Diferitele modele au avut între 7 și 72 de miliarde de parametri.
Calculele au fost efectuate folosind un cadru Perun (care analizează performanța LLM și energia pe care o necesită) pe un GPU NVIDIA A100. Echipa a transformat apoi consumul de energie în CO₂, presupunând că fiecare kilowatt-oră de energie produce 480 grame de CO₂.
Rezultatele lor arată că, în medie, modelele de raționament au generat 543,5 jetoane pe întrebare, comparativ cu doar 37,7 jetoane pentru modele mai concise. Aceste jetoane suplimentare – în valoare de mai multe calcule – au însemnat că modelele de raționament mai precise au produs mai mult CO₂.
Cel mai precis model a fost modelul Cogito de 72 de miliarde de parametri, care a răspuns corect la 84,9% din întrebările de referință. Cogito a lansat de trei ori emisiile CO₂ de modele de dimensiuni similare făcute pentru a genera răspunsuri mai concis.
„În prezent, vedem o compensare clară de susținere de susteinabilitate inerentă tehnologiilor LLM”, a spus Dauner. „Niciunul dintre modelele care au menținut emisiile sub 500 de grame de CO₂ echivalent [total greenhouse gases released] a obținut o precizie mai mare de 80% la răspunsul la cele 1.000 de întrebări. „
Dar problemele depășesc exactitatea. Întrebările care au avut nevoie de timpuri de raționament mai lungi, cum ar fi în algebră sau filozofie, au determinat emisiile să se ridice de șase ori mai mari decât interogările simple.
Calculele cercetătorilor arată, de asemenea, că emisiile depindeau de modelele alese. Pentru a răspunde la 60.000 de întrebări, modelul R1 de 70 de miliarde Deepseek ar produce CO₂ emis de un zbor dus-întors între New York și Londra. Cu toate acestea, modelul QWEN 2.5 al Alibaba Cloud Cloud Cloud ar putea să răspundă la acestea cu rate de precizie similare pentru o treime din emisii.
Rezultatele studiului nu sunt definitive; Emisiile pot varia în funcție de hardware -ul utilizat și de rețelele energetice utilizate pentru a -și furniza puterea, au subliniat cercetătorii. Dar ar trebui să -i determine pe utilizatorii AI să se gândească înainte de a implementa tehnologia, au remarcat cercetătorii ..
„Dacă utilizatorii cunosc costurile exacte ale rezultatelor lor generate de AI, cum ar fi transformarea întâmplătoare într-o figură de acțiune, ar putea fi mai selectivi și mai atenți la momentul în care și cum folosesc aceste tehnologii”, a spus Dauner.
Comentarii recente