Deepfake napodobí vzhled i hlas člověka. Nenechte se napálit podvodníky

Umělá inteligence je dobrý pomocník, ale špatný pán. "Dá se říct, že během pár let přestaneme důvěřovat videu tak, jak mu důvěřujeme dneska," obává se vedoucí oboru Studia nových médií v Ústavu informačních studií a knihovnictví Univerzity Karlovy Josef Šlerka.

Píše se rok 2024 a umělá inteligence výrazně zasahuje do našich životů. Umí pomáhat, ale bohužel i škodit. Věci, které jste dříve mohli vídat pouze ve sci-fi filmech, se stávají skutečností. Roboti se totiž dokážou chovat a mluvit jako my a nejen to, dokonce se nám velmi věrohodně podobají.

Terčem útoků jsou především známé osobnosti a politici, a to právě proto, že jejich deepfake umí ovlivnit vaše myšlení a názory. "Já, Andrej Babiš, oficiálně oznamuji spuštění nové platformy Immediate Matrix. Pro vydělávání na této platformě stačí mít telefon nebo počítač a mít vklad minimálně 6 000 korun pro začátek obchodování. Můžete vydělávat kdekoliv a kdykoliv," říká ve videu robotem vytvořený předseda ANO.

[chooze:article;value:540347]

"Ne, nejsem to já, nikdy jsem nic nedoporučoval a nebudu nic doporučovat. Je to podvod. My jsme to hlásili na policii, stěžovali si na sítích a bohužel někteří lidi tomu uvěřili a přišli o peníze," vyjádřil se k podvodu skutečný Babiš. Podobná falešná videa cílí i na další známé politiky. Podvodníci zneužili například obličej a tvář ministra vnitra Víta Rakušana (STAN), nebo dokonce prezidenta Petra Pavla.

"Deepfake je umělé medium, v podstatě nějaký zpracovaný obraz, zvuk, obrázek, video, vlastně něco, co neexistuje. Například vezmu vás, nahraji si vás na telefon a vytvořím texty, které jste nikdy neřekli. Já sám jsem občas šokován, co dokážeme vyrobit a jak daleko ta technologie je," vysvětlil Kamil Malinka z fakulty informačních technologií v Brně.

"Vezmu si nějakou vaši ukázku, kus vašeho audia, toho, jak mluvíte, ten model se podívá na vaši ukázku a poté vás napodobuje. To, jak otvíráte pusu, to, jak mluvíte, pokyvujete. Ty modely jsou schopné to animovat a udělat tak, aby to sedělo tomu hlasu," doplňuje Malinka. 

[chooze:article;value:539958]

Hlas reportéra Jana Zálužského v Brně vytvořený mají, takže s ním zkusil zavolat třem nejlepším kamarádům. Mluvil na ně robot a dva ze tří přátel falešný hlas nepoznali. "U videa, které vám je podezřelé, se zaměřte na obličej, pohyby očí a úst. Znakem deepfake mohou být i nepřirozená gesta, falešná videa jsou často v nízké kvalitě obrazu," radí Malinka.

Zatímco dříve byla potřeba k vytvoření deepfake videa půlhodinová nahrávka, teď technologie pokročila. Jejich tvůrci k tomu, aby vytvořili takové video s vámi, najdou většinou dostatek materiálu na vašich sociálních sítích. "Aktuální technologii stačí šest sekund vašeho hlasu a de facto fotka, abychom vytvořili kvalitního digitálního avatara," varuje odborník.

Kontakt a celý článek naleznete na serveru (http://domovstesti.blog.cz/) zde.