Umělá inteligence je dobrý pomocník, ale špatný pán. "Dá se říct, že během pár let přestaneme důvěřovat videu tak, jak mu důvěřujeme dneska," obává se vedoucí oboru Studia nových médií v Ústavu informačních studií a knihovnictví Univerzity Karlovy Josef Šlerka.
Píše se rok 2024 a umělá inteligence výrazně zasahuje do našich životů. Umí pomáhat, ale bohužel i škodit. Věci, které jste dříve mohli vídat pouze ve sci-fi filmech, se stávají skutečností. Roboti se totiž dokážou chovat a mluvit jako my a nejen to, dokonce se nám velmi věrohodně podobají.
Terčem útoků jsou především známé osobnosti a politici, a to právě proto, že jejich deepfake umí ovlivnit vaše myšlení a názory. "Já, Andrej Babiš, oficiálně oznamuji spuštění nové platformy Immediate Matrix. Pro vydělávání na této platformě stačí mít telefon nebo počítač a mít vklad minimálně 6 000 korun pro začátek obchodování. Můžete vydělávat kdekoliv a kdykoliv," říká ve videu robotem vytvořený předseda ANO.
[chooze:article;value:540347]
"Ne, nejsem to já, nikdy jsem nic nedoporučoval a nebudu nic doporučovat. Je to podvod. My jsme to hlásili na policii, stěžovali si na sítích a bohužel někteří lidi tomu uvěřili a přišli o peníze," vyjádřil se k podvodu skutečný Babiš. Podobná falešná videa cílí i na další známé politiky. Podvodníci zneužili například obličej a tvář ministra vnitra Víta Rakušana (STAN), nebo dokonce prezidenta Petra Pavla.
"Deepfake je umělé medium, v podstatě nějaký zpracovaný obraz, zvuk, obrázek, video, vlastně něco, co neexistuje. Například vezmu vás, nahraji si vás na telefon a vytvořím texty, které jste nikdy neřekli. Já sám jsem občas šokován, co dokážeme vyrobit a jak daleko ta technologie je," vysvětlil Kamil Malinka z fakulty informačních technologií v Brně.
"Vezmu si nějakou vaši ukázku, kus vašeho audia, toho, jak mluvíte, ten model se podívá na vaši ukázku a poté vás napodobuje. To, jak otvíráte pusu, to, jak mluvíte, pokyvujete. Ty modely jsou schopné to animovat a udělat tak, aby to sedělo tomu hlasu," doplňuje Malinka.
[chooze:article;value:539958]
Hlas reportéra Jana Zálužského v Brně vytvořený mají, takže s ním zkusil zavolat třem nejlepším kamarádům. Mluvil na ně robot a dva ze tří přátel falešný hlas nepoznali. "U videa, které vám je podezřelé, se zaměřte na obličej, pohyby očí a úst. Znakem deepfake mohou být i nepřirozená gesta, falešná videa jsou často v nízké kvalitě obrazu," radí Malinka.
Zatímco dříve byla potřeba k vytvoření deepfake videa půlhodinová nahrávka, teď technologie pokročila. Jejich tvůrci k tomu, aby vytvořili takové video s vámi, najdou většinou dostatek materiálu na vašich sociálních sítích. "Aktuální technologii stačí šest sekund vašeho hlasu a de facto fotka, abychom vytvořili kvalitního digitálního avatara," varuje odborník.
Kontakt a celý článek naleznete na serveru (http://domovstesti.blog.cz/) zde.