Când cercetătorul de securitate Johann Rehberger a raportat recent o vulnerabilitate în ChatGPT care le-a permis atacatorilor să stocheze informații false și instrucțiuni rău intenționate în setările de memorie pe termen lung ale unui utilizator, OpenAI a închis pe scurt ancheta, etichetând defectul drept o problemă de siguranță, nu, din punct de vedere tehnic, o securitate. preocupare.

Așa că Rehberger a făcut ceea ce fac toți cercetătorii buni: a creat o exploatare de dovadă a conceptului care a folosit vulnerabilitatea pentru a exfiltra toate intrările utilizatorilor în permanență. Inginerii OpenAI au luat notă și au emis o remediere parțială la începutul acestei luni.

Plimbându-mă pe banda memoriei

Vulnerabilitatea a abuzat de memoria conversației pe termen lung, o caracteristică pe care OpenAI a început să o testeze în februarie și făcute mai larg disponibile în septembrie. Memory with ChatGPT stochează informații din conversațiile anterioare și le folosește ca context în toate conversațiile viitoare. În acest fel, LLM poate fi conștient de detalii precum vârsta unui utilizator, sexul, convingerile filozofice și aproape orice altceva, astfel încât aceste detalii nu trebuie să fie introduse în timpul fiecărei conversații.

Citiți articolul integral

Comentarii

Chat Icon
Cluburile Știință&Tehnică
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.

×