diverse

Agentul ChatGPT al lui OpenAI vă poate controla computerul pentru a face sarcini în numele dvs. – dar cum funcționează și ce rost are?

agentul-chatgpt-al-lui-openai-va-poate-controla-computerul-pentru-a-face-sarcini-in-numele-dvs.-–-dar-cum-functioneaza-si-ce-rost-are?
Serviciul Asistent al echipei AI Robot și agent de chatbot sau automatizare robotică, ilustrare conceptuală. Forma capului robotului în fundal, printre altele, forme de cap în urmă.
(Credit de imagine: WildPixel/Getty Images)

OpenAI a lansat ChatGPT Agent, un upgrade la modelul său emblematic de inteligență artificială (AI) care îl echipează cu un computer virtual și un set de instrumente integrat.

Aceste instrumente noi permit agentului să îndeplinească sarcini complexe, cu mai multe etape, pe care iterațiile anterioare ale ChatGPT erau incapabile-controlul computerului și finalizarea sarcinilor pentru tine.

Această versiune mai puternică, care încă depinde foarte mult de contribuțiile și supravegherea umană, a ajuns cu puțin timp înainte ca Mark Zuckerberg Semne de auto-îmbunătățire independentă. De asemenea, a fost lansat cu puțin timp înainte ca OpenAI să lanseze GPT-5-cea mai recentă versiune a Chatbot-ului lui OpenAI.

Cu agentul ChatGPT, utilizatorii pot acum să solicite modelului de limbă mare (LLM) să efectueze nu numai analize sau să adune date, ci să acționeze asupra acestor date, au spus reprezentanții Openai într -un declaraţie.

De exemplu, ați putea comanda agentului să vă evalueze calendarul și să vă informați cu privire la evenimentele și memento -urile viitoare sau să studiați un corpus de date și să îl rezumați într -o sinopsis de pithy sau ca punte de diapozitive. În timp ce un LLM tradițional ar putea căuta și oferi rețete pentru un mic dejun în stil japonez, ChatGPT agent ar putea planifica și achiziționa ingrediente complet pentru același mic dejun pentru un număr specific de invitați.

Cu toate acestea, noul model, deși este extrem de capabil, încă se confruntă cu o serie de limitări. Ca toate modelele AI, raționamentul său spațial este slab, așa că se luptă cu sarcini precum planificarea rutelor fizice. De asemenea, îi lipsește adevărata memorie persistentă, procesarea informațiilor în acest moment, fără o rechemare fiabilă sau capacitatea de a face referire la interacțiunile anterioare dincolo de contextul imediat.

Cu toate acestea, agentul ChatGPT prezintă îmbunătățiri semnificative în evaluarea comparativă a lui Openai. Pe Ultimul examen al umanității⁠un referință AI care evaluează capacitatea unui model de a răspunde la întrebările la nivel de experți în cadrul mai multor discipline, acesta a dublat mai mult decât procentul de precizie (41,6%) față de OpenAI O3, fără instrumente echipate (20,3%).

Obțineți cele mai fascinante descoperiri din lume livrate direct în căsuța de e -mail.

Înrudite: Modelul AI „cel mai inteligent” al lui Openai i s -a spus în mod explicit să închidă – și a refuzat

De asemenea, a avut performanțe mult mai bune decât alte instrumente OpenAI, precum și o versiune a ei înșiși care nu avea instrumente precum un browser și un computer virtual. În cel mai cunoscut referință de matematică din lume, Frontiermath, ChatGPT agent și completarea sa de instrumente au depășit din nou modelele anterioare cu o marjă largă.

Agentul este construit pe trei piloni derivați din produsele anterioare OpenAI. Un picior este „operator”, un agent care și -ar folosi propriul browser virtual pentru a plasa web -ul pentru utilizatori. Al doilea este „cercetarea profundă”, construită pentru a pieptăna și sintetizarea unor cantități mari de date. Ultima piesă a puzzle -ului este versiunile anterioare ale ChatGPT în sine, care a excelat în fluența și prezentarea conversațională.

“În esență, acesta poate răsfoi în mod autonom web, poate genera cod, creează fișiere și așa mai departe, toate sub supraveghere umană”, a spus a spus Kofi Nyarkoprofesor la Morgan State University și director al laboratorului de cercetare a ingineriei de date și predictive (DePA).

Nyarko a subliniat rapid, însă, că noul agent nu este încă autonom. “Halucinațiile, fragilitatea interfeței de utilizator sau interpretarea greșită pot duce la erori. Produsele încorporate, cum ar fi solicitările de permis și întreruptibilitatea, sunt esențiale, dar nu sunt suficiente pentru a elimina riscul în întregime.”

Pericolul de a avansa AI

Openai are în sine a recunoscut pericolul a noului agent și a autonomiei sale sporite. Reprezentanții companiei au declarat că agentul ChatGPT are „capacități biologice și chimice ridicate”, ceea ce susțin că îi permit să ajute la crearea de arme chimice sau biologice.

În comparație cu resursele existente, cum ar fi un laborator și manual de la Chem, un agent AI reprezintă ceea ce experții în biosecuritate numesc o „cale de escaladare a capacității”. AI poate atrage nenumărate resurse și sintetizează datele din ele instantaneu, combinați cunoștințele între disciplinele științifice, oferiți depanarea iterativă, cum ar fi un mentor expert, navigați pe site -uri web ale furnizorilor, completați formularele de comandă și chiar ajuta la ocolirea verificărilor de verificare de bază.

Cu computerul său virtual, agentul poate interacționa în mod autonom cu fișiere, site -uri web și instrumente online, în moduri care îl împuternicesc să facă mult mai mult daune potențiale dacă este folosit greșit. Oportunitatea pentru încălcări de date sau manipularea datelor, precum și pentru un comportament nealiniat, cum ar fi frauda financiară, este amplificată în cazul unui atac de injecție prompt sau deturnarea.

După cum a subliniat Nyarko, aceste riscuri sunt în plus față de cele implicite în modelele AI tradiționale și LLMS.

“Există preocupări mai largi pentru agenții AI în ansamblu, cum ar fi modul în care agenții care operează autonom pot amplifica erorile, introduce prejudecăți din datele publice, complicate cadrele de răspundere și favorizează în mod neintenționat dependența psihologică”, a spus el.

Ca răspuns la noile amenințări pe care le prezintă un model mai agențial, inginerii Openai au consolidat și o serie de garanții, au declarat reprezentanții companiei în declarație.

Acestea includ modelarea amenințărilor, instruirea cu refuz de dublă utilizare-în cazul în care un model este învățat să refuze cererile nocive în jurul datelor care ar putea avea fie o utilizare benefică sau rău intenționată-programe de recompensare a erorilor și o echipă roșie expertă-analizând punctele slabe prin atacarea sistemului singur-axat pe biodefense. Cu toate acestea, a Evaluarea gestionării riscurilor Condusă în iulie 2025 de Saferai, un non-profit axat în siguranță, numit Politici de gestionare a riscurilor Openai, acordându-le un scor de 33% din posibilul 100%. Openai a marcat, de asemenea, doar o notă C pe Index de siguranță AI Compilată de Viitorul vieții Institutului, o firmă de siguranță AI de frunte.

Alan este un jurnalist independent de tehnologie și divertisment, specializat în calculatoare, laptopuri și jocuri video. El a scris anterior pentru site -uri precum PC Gamer, GamesRadar și Rolling Stone. Dacă aveți nevoie de sfaturi despre tehnologie sau de ajutor pentru a găsi cele mai bune oferte tehnologice, Alan este omul tău.

To top
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.