Zneužívání umělé inteligence už prostoupilo do běžného života. Podvodníci už dokážou během minut napodobit hlas dítěte nebo vnoučete a přesvědčit člověka, že volá někdo z rodiny. Z vyděšených lidí pak vylákají peníze, často i životní úspory. Na druhém konci telefonu přitom není příbuzný, ale dokonale naprogramovaný klon jeho hlasu.
Vnuk volá o pomoc. Jenže to není on
Zazvoní telefon a v něm se ozve dobře známý hlas. „Babi, potřebuju rychle půjčit peníze, měl jsem nehodu.“ Scénář, který se může zdát jako zločinecká fikce, je dnes realitou. Podvodníci využívají umělou inteligenci, která z několika vteřin nahrávky vytvoří přesnou kopii hlasu kohokoli.
Podle The Washington Post stačí tři sekundy hlasového záznamu, aby software dokázal zkonstruovat celé věty, které zní přirozeně i pro blízké. Zvuk získají z videí na sociálních sítích nebo z náhodných telefonátů. Výsledkem je hlas, který prosí o pomoc a žádá okamžitý převod peněz.
V jednom z případů tak amerý manželský pár poslal podvodníkům 15 tisíc dolarů, protože uvěřil, že mluví se svým synem. Když se později ukázalo, že šlo o klon hlasu vytvořený algoritmem, peníze byly dávno pryč.
Nový trik, staré emoce
„Vyvíjejí nátlak, útočí na city a chtějí, aby oběť jednala bez rozmyslu,“ vysvětlil IT expert Václav Svátek pro TV Nova. Manipulace je založena na rychlosti a strachu. Když volá někdo, kdo zní jako vaše dítě, není prostor pro pochybnosti.
Reportéři TV Nova si techniku vyzkoušeli, z půlminutové nahrávky dokázala umělá inteligence vytvořit hlas prosící o pomoc. Výsledek byl natolik přesvědčivý, že by ho nepoznal ani člověk, který hlas slyší denně.
Podle průzkumu se nechá podobným podvodem zmást až třetina lidí. Zvlášť ohroženou skupinou jsou senioři, kteří méně využívají moderní technologie a o hrozbě často nevědí. „Základní obrana je jednoduchá, zavolat zpět. Podvodník hovor nepřijme,“ doporučil odborník na kybernetiku Filip Kirschner pro TN.cz.
Deepfake už vstoupil i do firem
Umělá inteligence se dnes dá zneužít i v pracovním prostředí. Šéf slovenské společnosti GymBeam Dalibor Cicman popsal pro Seznam Zprávy, že se na videokonferenci objevila jeho napodobenina. „Na videokonferenci byla moje deepfake kopie, spolu s další osobou,“ uvedl. Cílem útoku bylo získat informace o firemních účtech.
Útočníci používají stejné techniky, klonují hlas, tvář i gesta. Na sociálních sítích přitom snadno zjistí, jak člověk mluví, kde pracuje nebo s kým se stýká. To stačí, aby vytvořili přesvědčivou kopii. „Útočníci se snaží vyvolat pocit naléhavosti a přimět zaměstnance k neobvyklému kroku,“ upozornila bezpečnostní expertka Vladimíra Žáčková ze společnosti ESET.
Případy se netýkají jen firem. Sedmasedmdesátiletá Nikki MacLeodová z Velké Británie přišla o více než půl milionu korun, když uvěřila videím, na nichž s ní „komunikovala“ žena z ropné plošiny. „Nejsem hloupý člověk, ale přesvědčila mě, že je skutečná,“ řekla pro BBC Radio Scotland.
Bránit se dá, ale čas hraje proti nám
Podle Bloombergu přišli lidé ve Spojených státech jen v roce 2023 kvůli AI podvodům o 8,8 miliardy dolarů. Banky na to reagují investicemi do systémů, které umí vyhodnocovat podezřelé transakce v reálném čase. I tak ale experti varují, že zločinci jsou často o krok napřed.
„Umělá inteligence zrychluje míru rafinovanosti těchto útoků,“ uvedl Rob Pope z novozélandské agentury CERT NZ. Odborníci doporučují lidem, aby si s blízkými domluvili tajné heslo pro krizové situace. Pokud někdo volá o pomoc, jednoduchá otázka, kterou zná jen rodina, dokáže odhalit, jestli je hovor skutečný.






