Până acum, probabil că ați auzit de apeluri frauduloase care folosesc AI pentru a clona vocile oamenilor pe care le cunoaște destinatarul. Adesea, rezultatul este ceea ce sună ca un nepot, un CEO sau un coleg de muncă pe care l -ați cunoscut de ani buni, raportând o problemă urgentă care necesită acțiuni imediate, spunând să transmită bani, să divulge acreditările de autentificare sau să vizitați un site web rău intenționat.
Cercetători și Oficialii guvernamentali au avertizat despre amenințare de ani buni, cu Agenția de Securitate a Cibersecurității și Infrastructurii zicală În 2023, că amenințările din cauza profunzilor și a altor forme de suport sintetic au crescut „exponențial”. Anul trecut, divizia de securitate a mandatului Google raportat că astfel de atacuri sunt executate cu „precizie neobișnuită, creând pentru mai multe scheme de phishing realiste”.
Anatomia unui apel înșelătorie profundă
Miercuri, firma de securitate Grup-IB conturat Pașii de bază implicați în executarea acestor tipuri de atacuri. Preluarea este că sunt ușor de reprodus la scară și pot fi dificile de detectat sau respins.