Zdroj: pixabay.com

Analýza ukazuje, že deepfake hlasové klony jsou čím dále věrohodnější a nebezpečnější

Jednou z oblíbených technik počítačových pirátů je tzv. sociální inženýrství nebo též phishing. Ten probíhá především prostřednictvím falešných emailových adres, a zpráv, které žádají rozkliknutí zavirovaného odkazu. Jak ukazuje společnosti NISOS, hackeři vyvíjejí nový a při správném použití také mnohem nebezpečnější nástroj, který by mohl využívat výše zmíněné techniky – Deepfake hlasové klony.

Výraz deepfake známe především z oblasti videí, která jsou vytvořena pomocí strojového učení a umělé inteligence. V případě audia může být tato metoda použita v k vytvoření audionahrávky, kterou někdo použije v rámci telefonního hovoru.

V loňském roce je zaznamenán případ, kdy zaměstnanci společnosti volal někdo, kdo se představil jako generální ředitel a žádal jej o naléhavou pomoc v podobě půjčky peněz. Důvěřivý zaměstnance telefonátu uvěřil (a chtěl prokázat svou loajalitu vedení) a převedl na požadovaný účet 240 000 dolarů. Tento hovor, respektive v něm použitý záznam, nebyl podle vyšetřovatelů příliš kvalitní, zaměstnanec ale sníženou kvalitu zvuku přičítal technologickým potížím telefonu.

Agentura NISOS se tímto případem zabývala a z jejích závěrů vyplývá, že spíše než o reálný pokus o podvod (který se ale nakonec povedl) šlo o test, jestli dotyčný zavolá zpět nebo jestli pojme pozření, že je něco špatně. Dodává, že nástroje, schopné generovat syntetický zvuk se neustále zlepšují a výsledky zní věrohodněji a více jako mluvená řeč.

Výhodou je, zatím se lze proti podobným případům bránit voláním zpět nebo navázáním komunikace, na kterou nemůže být druhá strana vzhledem k tomu, že používá konzervovanou nahrávku, připravena. Přesto se jedná o bezpečnostní riziko, s nímž je nutné do budoucna počítat.

 

Zdroj: vice.com