O ilustrație creată de OpenAI.

Mărește / O ilustrație creată de OpenAI. (credit: OpenAI)

Joi, cercetătorii OpenAI au dezvăluit CriticGPT, un nou model AI conceput pentru a identifica greșelile din codul generat de ChatGPT. Acesta își propune să îmbunătățească procesul de a face sistemele AI să se comporte în moduri pe care oamenii le doresc (numită „aliniere”) prin Învățare de consolidare din feedbackul uman (RLHF), care îi ajută pe recenzenții umani să facă rezultatele modelului de limbaj mare (LLM) mai precise.

După cum se subliniază într-o nouă lucrare de cercetare numită „Criticii LLM ajută la prinderea erorilor LLM,” OpenAI a creat CriticGPT pentru a acționa ca un asistent AI pentru formatorii umani care examinează codul de programare generat de asistentul ChatGPT AI. CriticGPT, bazat pe familia GPT-4 de LLMS, analizează codul și evidențiază erori potențiale, făcându-l mai ușor pentru oamenii pentru a detecta greșeli care altfel ar putea trece neobservate. Cercetătorii au instruit CriticGPT pe un set de date de mostre de cod cu erori inserate intenționat, învățându-l să recunoască și să semnaleze diferite erori de codare.

_*]:min-w-0″>

Cercetătorii au descoperit că criticile CriticGPT au fost preferate de adnotatori în detrimentul criticilor umane în 63% din cazurile care implică erori LLM care apar în mod natural și că echipele umane-mașină care folosesc CriticGPT au scris critici mai cuprinzătoare decât oamenii singuri, reducând în același timp ratele de confabulație (halucinații) în comparație cu numai AI. critici.

Dezvoltarea unui critic automatizat

Dezvoltarea CriticGPT a implicat antrenarea modelului pe un număr mare de intrări care conțin greșeli inserate în mod deliberat. Trainerilor umani li s-a cerut să modifice codul scris de ChatGPT, introducând erori și apoi oferind exemple de feedback ca și cum ar fi descoperit aceste erori. Acest proces a permis modelului să învețe cum să identifice și să critice diferite tipuri de erori de codare.

Citiți 6 paragrafe rămase | Comentarii

×