Tentativa esuata de fraudare a CEO-ului LastPass cu deepfake audio

Home CyberSecurity Tentativa esuata de fraudare a CEO-ului LastPass cu deepfake audio
Tentativa esuata de fraudare a CEO-ului LastPass cu deepfake audio

LastPass a dezvăluit săptămâna aceasta că actorii amenințări au vizat unul dintre angajații săi într-un atac de phishing vocal, folosind deepfake audio pentru a se da drept Karim Toubba, Directorul Executiv al companiei.

Cu toate acestea, în timp ce 25% dintre oameni au fost victime ale unei înșelăciuni de impersonare vocală AI sau cunosc pe cineva care a fost, conform unui studiu global recent, angajatul LastPass nu a căzut în capcană pentru că atacatorul a folosit WhatsApp, care este un canal de afaceri foarte neobișnuit.

„În cazul nostru, un angajat a primit o serie de apeluri, mesaje text și cel puțin un mesaj vocal cu un deepfake audio de la un actor amenințare care se dădea drept CEO-ul nostru prin WhatsApp,” a declarat analistul de informații de la LastPass, Mike Kosak.

„Deoarece comunicarea încercată era în afara canalelor normale de comunicare de afaceri și datorită suspiciunii angajatului cu privire la prezența multor caracteristici ale unei încercări de manipulare socială (cum ar fi urgența forțată), angajatul nostru a ignorat pe bună dreptate mesajele și a raportat incidentul echipei noastre interne de securitate pentru a putea lua măsuri atât pentru a reduce amenințarea, cât și pentru a crește gradul de conștientizare a tacticii atât intern, cât și extern.”

Kosak a adăugat că atacul a eșuat și nu a avut niciun impact asupra LastPass. Cu toate acestea, compania a ales totuși să împărtășească detaliile incidentului pentru a avertiza alte companii că deepfake-urile generate de AI sunt deja folosite în campanii de fraudă prin impersonare a executivilor.

Deepfake-ul audio folosit în acest atac a fost probabil generat folosind modele audio deepfake antrenate pe înregistrări audio disponibile public ale CEO-ului LastPass, probabil aceasta disponibilă pe YouTube.

Avertismentul LastPass urmează un avertisment al Departamentului de Sănătate și Servicii Umane (HHS) al SUA emis săptămâna trecută cu privire la cybercriminalii care vizează departamentele de asistență IT folosind tactici de manipulare socială și instrumente de clonare vocală AI pentru a își înșela țintele.

Folosirea deepfake-urilor audio permite, de asemenea, actorilor amenințări să facă mult mai dificilă verificarea identității apelantului la distanță, făcând ca atacurile în care se impersonifică executivi și angajați din companie să fie foarte greu de detectat.

În timp ce HHS a împărtășit sfaturi specifice atacurilor care vizează departamentele de asistență IT ale organizațiilor din sectorul sănătății, următoarele se aplică și foarte mult încercărilor de fraudă prin impersonare a CEO-ului:

În martie 2021, FBI a emis, de asemenea, o Notificare pentru Industria Privată (PIN) [PDF] avertizând că deepfake-urile – inclusiv audio, text, imagini sau video generate sau manipulate de AI – deveneau tot mai sofisticate și probabil vor fi folosite pe scară largă de hackeri în „operațiuni de influență cybernetică și externă”.

În plus, Europol a avertizat în aprilie 2022 că deepfake-urile ar putea deveni curând un instrument pe care grupurile de cybercriminali îl folosesc în mod obișnuit în fraudele CEO, manipularea probelor și crearea de pornografie non-consensuală.

Scriptul PowerShell malefic care împinge malware arată scris de AI

Chrome Enterprise obține securitate Premium, dar trebuie să plătești pentru ea

Notepad++ își dorește ajutorul tău în închiderea „site-ului parazit”

Visa avertizează cu privire la o nouă variantă de malware JSOutProx care vizează organizațiile financiare

Google blochează acum emailurile falsificate pentru o protecție mai bună împotriva phishing-ului

Leave a Reply

Your email address will not be published.