Téma

Cyber sex: Deepfakes v pornografii část 2.

V minulé časti jsme si řekli, co je to deepfake a popsali si jak funguje. Nastínili jsme jakými způsoby by takoto technologie mohla být využita ale také jak se dá zneužít. Kromě finančních podvodů a šíření dezinformací hraje deepfake významnou ale nepříliš pozitivní roli v pornografii. Jaké důsledky to s sebou přináší a jak situaci řeší internetoví giganti? O tom si povíme v tomto článku.

Deepfake v odstínech šarlatu

Zatímco prvotní projekty na kterých dnešní deepfake technologie funguje, vznikaly na profesionálních pracovištích a půdách akademickcýh institucí, dnes si může obstarat software na generování deepfakes v podstatě kdokoliv a dál ho rozvíjet.

Začaly tak vznikat amatérské deepfakes, které se většinou zaměřovali na známé tváře ze světa filmu. Měli jsme tak možnost vidět například Nicolase Cage, jak si odskočil z natáčení Lovců pokladů a místo toho hledal vystřídal Harisona Forda při hledání ztracené archy nebo jak namísto Keanu Reevese bojuje za osvobození lidstva od Matrixu.

Tyto deepfakes neměly nic společného s erotickým obsahem a jejich účelem bylo pouze pobavit a předvést dovednosti jejich tvůrců. Začaly se však objevovat i takové, které umisťovali bez jakéhokoliv souhlasu tváře hereček a zpěvaček do záběrů z pornofilmů. Své o tom ví například Taylor Swift či Scarlett Johanson.

Celebrity v ohrožení?

Scarlett Johansson je jednou z nejčastějších obětí pornografickcých deepfakes. Nechala se ale slyšet, že se neobává toho, že by mohli nějak negativně ovlivnit její pověst, protože osoby jako je ona chrání jejich sláva. Mnohem větší nebezpečí představují pornografické deepfakes pro obyčejné ženy a dívky, které se mohou stát obětmi této takzvané nedobrovolné pornografii, aniž by měli šanci tomu jakkoliv zabránit.

Deepfakes v tomto případě představují nový nástroj pro cyberšikanu, vydírání či možný způsob pomsty. Jediné co útočníkovi stačí je potřebný software, domácí počítač, trochu volného času a především dostatek obrazového materiálu oběti, což ve světě sociálních sítí jako Instragram nebo TikTok nemusí být žádný problém. Samozřejmě nutností je také dostatečně nízká míra svědomí.

Ale co děti?

Deepfakes mohou být také mocnou zbraní v rukou sexuálních predátorů, kteří cílí na děti. Zatímco dříve útočníci museli vynakládat usílí, aby z obětí vylákali kompromitující fotografie nebo videa, dnes je mohou vyrobit sami. Dětské oběti nejsou výjimkou.

Vytváření dětské pornografie je pomocí deepfake technologie rychlejší snadnější a pro pachatele bezpečnější než kdykoliv předtím. Technologie navíc působí policii působí obtíže při vyšetřovaní a identifikaci oběti.

Jak se bojuje proti deepfakes

Brzy po tom, co se deepfakes dostaly do obecného povědomí a začalo se o nich mluvit, začaly největší sociální platformy jednat. V únoru 2018 byl Redditem zablokován subreddit r/deepfakes, který v té době zaujímal přední místo ve výskytu deepfakes na internetu, pro nedobrovolnou pornografii. Stejné postoje brzy zaujali i Twitter či PornHub. Proti deepfakes zakročil i Google, který navíc umožnil uživatele požádat o blokovaní obsahu, ve kterém byla zneužita jeho identita pomocí této technologie.

Deepfake technologie však nenechala chladnými ani politky. V roce 2018 byl v USA zaveden první zákon omezující deepfakes. O rok později uvedla Čína, že deepfakes by měli být označeny příslušným označením a jeho neuvedení by mohl být považováno za zločin. Kroky podobným směrem podníkají i další země jako Velká Brtiánie nebo Kanada.

Jak jsme si popsali v první častí, software na tvorbu deepfake videí obsahují dva lagoritmy. Generátor tvoří obraz a diskriminátor se stará, aby se ve výsledku zobrazily jen ty nejlepší padělky. V kombinaci se strojovým učením se tak může potenciálně zlepšovat do nekonečna na rozdíl od softwaru, který by deepfakes odhaloval.

Zároveň americká výzkumná agentura při ministerstu obrany DARPA v roce 2018 financovala projekt, ve kterém vývojáři soutěžili s vlastními návrhy nástrojů pro odhalování technologií manipulující s obrazovými a zvukovými médii.

Čeká nás do hloubky zfalšovná budoucnost?

Deepfakes nás pravděpodobně nikdy neopustí. Nejspíše nám nezbívá než se smířit, že brzy se nebudeme schopni plně rozlišit, co na internetu je nebo není skutečné. Ale buďme objektivní. Bylo tomu dodnes jinak?

Nejdůležitější je chránit potenciální oběti a předcházet a napravovat škody, které tato technologie může způsobit v nesprávných rukou. Pomoci s tím může neustálývývoj softwarů na jejich odhalování. Podobně jak se to děje s počítačovými viry a antivirovými systémy.

Klíčová slova: Téma Umělá inteligence Syntetická média Strojové učení Deepfakes Pornoprůmysl

Fotografie redaktora Daniel Dobrý | 08. 09. 2022