Nevěřte nikomu: Co ohrožuje neuronovou síť, dělá porno
Dmitrij Kurkin
Falešné porno videave kterém hvězda filmu “divná žena” Gal Gadot údajně mít sex s jeho stepbrother, který se objevil na webu tento týden, se ukázal být ne jen falešný, ale falešný generovaný umělou inteligencí.
Autor videa, anonymní uživatel reddit s přezdívkou deepfakes, v rozhovoru s Vice, potvrdil, že on používal neuronovou síť, aby "vzal photoshoot" Gadotovu tvář k tělu porno herečky. Falešný, obecně, je patrný, a deepfakes neplánoval dělat nějaké peníze na to - podle něj on jen chtěl zkontrolovat, jak snadné by bylo, aby to pomocí AI. A má pro nás špatné zprávy: bylo snadné vytvořit falešné porno doma.
Problém obecně není v pornofeakech samotných: poptávka po obrazech a videích, kde celebrity jako herci a herečky mají sex, byla, bude a bude s fetišisty a fanoušky pocitů. Pokud jde o vnější podobnost s hvězdami v pornoprůmyslu, probíhá celá kariéra - tento fenomén dokonce vyústil ve výrazný titulek žlutého tisku: „Gordon Ramsay trpaslík je nalezen mrtvý v jezevčí díře“.
Ale pokud před výrobou potřeboval čas, zdroje a nějaký druh dovedností, pak neuronová síť, vyškolená na svařování obličejů na obraz, značně zjednodušuje úkol. Roboti držet, ne muž, a roboti se chytřejší čas od času, což znamená, že padělky budou vypadat více a spolehlivěji. Uživatel hlubokých informací objasnil, že sbíral svůj software AI z improvizovaných prvků nalezených v knihovnách s otevřeným zdrojovým kódem a pořizoval fotografie a videa ve veřejných kanálech a hostováních, jako je YouTube. Jednoduše řečeno, všechny nástroje pro generování pornofeikov leží pod jeho nosem, a to nejen s ním, ale mezi miliony lidí po celém světě.
A to, přesně řečeno, ani zprávy. V roce 2003 varovali odborníci z University of Oregon Health and Science, že zvukové podvody jsou "snadno proveditelné a obtížně určitelné". Do roku 2017 se prognóza splnila a byly vytvořeny falešné hlasové nahrávky generované neuronovými sítěmi, které je velmi obtížné odlišit od skutečných. Po zvuku se video natáhlo nahoru. Vývoj personálu University of Washington synchronizuje výrazy obličeje tváře osoby s jeho projevem: například ve videoklipu s Barackem Obamem je přítomen pouze zvuk, obraz je generován programem. Spojte jeden s druhým - a nyní jsou připravena falešná videa, ve kterých, například, známý liberální politik "přiznává" své sympatie k Hitlerovi.
Představovat si, jak zneužití takovéto umělé inteligence může vést k tomu, že se jedná o zneužití takovéto umělé inteligence, které se v roce 2001 změnilo na rasisty, se zdá, že je to docela pěkný žert. A samozřejmě, že technologie pornofeed není primárně ohrožena Gal Gadot, Taylor Swift nebo Jennifer Lawrence. Jsou dostatečně zajištěny, aby najaly armádu IT specialistů, kteří rozpoznají falešný podvod, a flotilu právníků, kteří budou žalovat každého, kdo se snaží tyto padělky použít k osobnímu zisku.
Ne, prostí smrtelníci se stanou oběťmi nových neškodných algoritmů. Digitální padělky mohou být použity pro pornografii, kybernetické pronásledování, síťové obtěžování, vydírání a manipulaci lidmi, kteří jsou snadno naznačitelní, a zejména nesledují novinky z oblasti pokročilých technologií („Vaše dcera byla videozáznamem, okamžitě převedla peníze, jinak VŠE bude vidět“). A nemůžeme nutně mluvit o porno: padělky mohou být také uvedeny do sítě pro politickou propagandu a podněcování k nenávisti.
"Ale tohle je monstrózní!" Ano, monstrózní, a to není vinu za to, co je to za to, kdo je hluboce potrestán. Jelikož se hackeři někdy vloupají do bankovních systémů, ne aby ukradli peníze, ale aby se oddělení kybernetické obrany dostalo do bezpečnostních otvorů, bylo to vynalezeno anonymním programátorem AI, který nás staví před skutečnost: éra digitálních padělků není antipotopický hororový příběh "Černé zrcadlo" a přicházející realita. To ještě nebylo pochopené moderní etikou (moci pornophiles být považován za invazi soukromí jiných lidí?), Ani zákonem platným. Ale v ní musíme žít v nadcházejících letech. Je tedy nutné vyvinout antidotum proti takovému vycpání.
Kurátoři Collinsových slovníků označili termín „falešné zprávy“ za výraz roku 2017, čímž zdůraznili, že průměrný uživatel je závislý na clickbate a repostu senzačních titulků, aniž by ztrácel čas kontrolou pravosti informací. Mezitím mohou falešné zprávy ovlivnit výsledky voleb a referend. A to je také součástí nové reality, ve které již existujeme a ve které se budeme muset naučit, jak být méně frivolní.
Sociální sítě již udělaly internet skleněným domem, kde si každý den mohou sledovat životy miliony lidí - i když to nechcete. Nyní je zřejmé, že v tomto domě nejsou žádné dveře: kdokoli se může pokusit napadnout váš osobní prostor, pomocí AI našroubovat obličej na pornorol nebo film „Pán prstenů“. Soukromí je mrtvé, ale nejen Velký bratr je vinen ve formě zvláštních služeb a globálních korporací, ale i my sami.
Svět digitálních padělků se blíží, ale to není důvodem paniky, paranoie, odmítnutí používat internet nebo požadavků na zákaz neuronových sítí. To je důvod, proč přemýšlet o hygieně sítě a nové etice, ve které bude jednou provždy stanoveno, že použití obrazu někoho jiného k vytvoření digitálního falešného filmu je odporné a nezákonné. Časy, kdy lidé bezpodmínečně věřili všemu, co říkají v televizi (i když říkají, že "Lenin byl houba"), mizí. Stejně tak si postupně zvykneme na to, že se nedůvěříme všemu, co je napsáno na internetu.
Obal:Warp záznamy