
Joi, cercetătorii OpenAI au dezvăluit CriticGPT, un nou model AI conceput pentru a identifica greșelile din codul generat de ChatGPT. Acesta își propune să îmbunătățească procesul de a face sistemele AI să se comporte în moduri pe care oamenii le doresc (numită „aliniere”) prin Învățare de consolidare din feedbackul uman (RLHF), care îi ajută pe recenzenții umani să facă rezultatele modelului de limbaj mare (LLM) mai precise.
După cum se subliniază într-o nouă lucrare de cercetare numită „Criticii LLM ajută la prinderea erorilor LLM,” OpenAI a creat CriticGPT pentru a acționa ca un asistent AI pentru formatorii umani care examinează codul de programare generat de asistentul ChatGPT AI. CriticGPT, bazat pe familia GPT-4 de LLMS, analizează codul și evidențiază erori potențiale, făcându-l mai ușor pentru oamenii pentru a detecta greșeli care altfel ar putea trece neobservate. Cercetătorii au instruit CriticGPT pe un set de date de mostre de cod cu erori inserate intenționat, învățându-l să recunoască și să semnaleze diferite erori de codare.