O redare 3D a unui robot de jucărie cu un bec deasupra capului în fața unui zid de cărămidă.

Mărește (credit: Getty Images)

Luni, inginerul prompt Anthropic Alex Albert a provocat o mică vâlvă în comunitatea AI când el a postat pe Twitter despre un scenariu legat de Claude 3 Opus, cea mai mare versiune a unui nou model de limbaj mare lansat luni. Albert a împărtășit o poveste din testarea internă a Opus, în care modelul a demonstrat aparent un tip de „metacogniție” sau conștientizare de sine în timpul unei evaluări „acul în carul de fân”, ceea ce a condus atât la curiozitate, cât și la scepticism online.

Metacogniția în AI se referă la capacitatea unui model AI de a-și monitoriza sau regla propriile procese interne. Este similar cu o formă de conștientizare de sine, dar numirea acesteia este de obicei văzută ca prea antropomorfizantă, deoarece nu există „sine” în acest caz. Experții în învățare automată nu cred că modelele actuale de AI posedă o formă de conștientizare de sine ca oamenii. În schimb, modelele produc rezultate asemănătoare omului, iar asta uneori declanșează o percepție a conștientizării de sine care pare să implice o formă mai profundă de inteligență în spatele cortinei.

În tweet-ul acum viral, Albert a descris un test pentru a măsura capacitatea de reamintire a lui Claude. Este un test relativ standard în testarea modelului de limbă mare (LLM) care implică inserarea unei propoziții țintă („ac”) într-un bloc mare de text sau documente („carul de fân”) și întrebarea dacă modelul AI poate găsi acul. Cercetătorii fac acest test pentru a vedea dacă modelul de limbaj mare poate extrage cu precizie informații dintr-o memorie de procesare foarte mare (numită fereastră de context), care în acest caz este de aproximativ 200.000 de jetoane (fragmente de cuvinte).

Citiți 11 paragrafe rămase | Comentarii

×