Când cercetătorul de securitate Johann Rehberger a raportat recent o vulnerabilitate în ChatGPT care le-a permis atacatorilor să stocheze informații false și instrucțiuni rău intenționate în setările de memorie pe termen lung ale unui utilizator, OpenAI a închis pe scurt ancheta, etichetând defectul drept o problemă de siguranță, nu, din punct de vedere tehnic, o securitate. preocupare.
Așa că Rehberger a făcut ceea ce fac toți cercetătorii buni: a creat o exploatare de dovadă a conceptului care a folosit vulnerabilitatea pentru a exfiltra toate intrările utilizatorilor în permanență. Inginerii OpenAI au luat notă și au emis o remediere parțială la începutul acestei luni.
Plimbându-mă pe banda memoriei
Vulnerabilitatea a abuzat de memoria conversației pe termen lung, o caracteristică pe care OpenAI a început să o testeze în februarie și făcute mai larg disponibile în septembrie. Memory with ChatGPT stochează informații din conversațiile anterioare și le folosește ca context în toate conversațiile viitoare. În acest fel, LLM poate fi conștient de detalii precum vârsta unui utilizator, sexul, convingerile filozofice și aproape orice altceva, astfel încât aceste detalii nu trebuie să fie introduse în timpul fiecărei conversații.
Comentarii recente