Ilustrația unui robot stricat schimbând roțile interne.

Mărește (credit: Getty Images)

Grokmodelul de limbaj AI creat de Elon Musk xAI, a fost lansat săptămâna trecută, iar oamenii au început să descopere erori. Vineri, testatorul de securitate Jax Winterbourne a postat pe Twitter o captură de ecran a lui Grok respingând o interogare cu declarația „Mă tem că nu pot îndeplini acea cerere, deoarece contravine politicii OpenAI privind cazurile de utilizare”. Acest lucru a făcut urechile să se înflorească online, deoarece Grok nu este produs de OpenAI, compania responsabilă de ChatGPTcu care Grok este poziționat să concureze.

În mod interesant, reprezentanții xAI nu au negat că acest comportament are loc cu modelul său AI. În replică, angajatul xAI Igor Babuschkin a scris„Problema aici este că web-ul este plin de rezultate ChatGPT, așa că am preluat din greșeală unele dintre ele când l-am antrenat pe Grok pe o cantitate mare de date web. Aceasta a fost o surpriză uriașă pentru noi când am observat-o prima dată. Pentru ce merită, problema este foarte rară și acum că suntem conștienți de ea ne vom asigura că versiunile viitoare de Grok nu au această problemă. Nu vă faceți griji, nu a fost folosit niciun cod OpenAI pentru a face Grok.”

Ca răspuns pentru Babuschkin, Winterbourne a scris: „Mulțumesc pentru răspuns. Voi spune că nu este foarte rar și apare destul de frecvent atunci când implică crearea de cod. Cu toate acestea, voi lăsa oamenii care sunt specializați în LLM și AI să pună în considerare acest lucru în continuare. Sunt doar un observator.”

Citiți 6 paragrafe rămase | Comentarii

Chat Icon
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.

×