Ilustrația unui robot stricat schimbând roțile interne.

Mărește (credit: Getty Images)

Grokmodelul de limbaj AI creat de Elon Musk xAI, a fost lansat săptămâna trecută, iar oamenii au început să descopere erori. Vineri, testatorul de securitate Jax Winterbourne a postat pe Twitter o captură de ecran a lui Grok respingând o interogare cu declarația „Mă tem că nu pot îndeplini acea cerere, deoarece contravine politicii OpenAI privind cazurile de utilizare”. Acest lucru a făcut urechile să se înflorească online, deoarece Grok nu este produs de OpenAI, compania responsabilă de ChatGPTcu care Grok este poziționat să concureze.

În mod interesant, reprezentanții xAI nu au negat că acest comportament are loc cu modelul său AI. În replică, angajatul xAI Igor Babuschkin a scris„Problema aici este că web-ul este plin de rezultate ChatGPT, așa că am preluat din greșeală unele dintre ele când l-am antrenat pe Grok pe o cantitate mare de date web. Aceasta a fost o surpriză uriașă pentru noi când am observat-o prima dată. Pentru ce merită, problema este foarte rară și acum că suntem conștienți de ea ne vom asigura că versiunile viitoare de Grok nu au această problemă. Nu vă faceți griji, nu a fost folosit niciun cod OpenAI pentru a face Grok.”

Ca răspuns pentru Babuschkin, Winterbourne a scris: „Mulțumesc pentru răspuns. Voi spune că nu este foarte rar și apare destul de frecvent atunci când implică crearea de cod. Cu toate acestea, voi lăsa oamenii care sunt specializați în LLM și AI să pună în considerare acest lucru în continuare. Sunt doar un observator.”

Citiți 6 paragrafe rămase | Comentarii

×