Asistenții AI sunt disponibili pe scară largă de puțin mai mult de un an și au deja acces la cele mai private gânduri și secrete de afaceri ale noastre. Oamenii le întreabă despre rămânerea însărcinată sau despre întreruperea sau prevenirea sarcinii, îi consultă atunci când iau în considerare un divorț, caută informații despre dependența de droguri sau cer modificări în e-mailurile care conțin secrete comerciale deținute. Furnizorii acestor servicii de chat bazate pe inteligență artificială sunt foarte conștienți de sensibilitatea acestor discuții și iau pași activi – în principal sub forma criptării lor – pentru a preveni potențialii istorici să citească interacțiunile altor persoane.
Dar acum, cercetătorii au conceput un atac care descifrează răspunsurile asistenților AI cu o acuratețe surprinzătoare. Tehnica exploatează a canal lateral prezent în toți asistenții AI majori, cu excepția Google Gemini. Apoi rafinează rezultatele destul de brute prin modele mari de limbaj special instruite pentru sarcină. Rezultatul: Cineva cu pasiv adversar-la-mijloc poziția – adică un adversar care poate monitoriza pachetele de date care trec între un asistent AI și utilizator – poate deduce subiectul specific de 55% din toate răspunsurile capturate, de obicei cu o precizie ridicată a cuvintelor. Atacul poate deduce răspunsuri cu acuratețe perfectă a cuvintelor 29 la sută din timp.
Confidențialitate a simbolului
„În prezent, oricine poate citi chat-urile private trimise de la ChatGPT și alte servicii”, Yisroel Mirsky, șeful departamentului Laborator ofensiv de cercetare AI la Universitatea Ben-Gurion din Israel, a scris într-un e-mail. „Acest lucru include actori rău intenționați de pe același Wi-Fi sau LAN ca un client (de exemplu, aceeași cafenea) sau chiar un actor rău intenționat de pe Internet – oricine poate observa traficul. Atacul este pasiv și se poate întâmpla fără știrea OpenAI sau a clientului lor. OpenAI le criptează traficul pentru a preveni aceste tipuri de atacuri de interceptare, dar cercetările noastre arată că modul în care OpenAI utilizează criptarea este defectuos și, astfel, conținutul mesajelor este expus.”
Comentarii recente