Zavřít reklamu

Deepfake – technologie, která umožňuje nahrazovat obličeje lidí na fotkách a ve videích tváří někoho jiného, se za poslední roky vyvinula do podoby, v níž už se rozdíl mezi pravým záznamem a falešnými daty hledá čím dál komplikovaněji. Na stránkách s pornografickým obsahem se deepfake například používá k vytváření lechtivých videí s podobami známých hereckých hvězd. To vše samozřejmě probíhá bez souhlasu napadených osobností a díky narůstající sofistikovanosti technologie využívající strojové učení se šíří obavy z dalších možných forem jejího zneužití. Hrozba, že by deepfake mohl naprosto zdiskreditovat digitální záznamy jako důkazy u soudních sporů je reálná a visí nad justičním sektorem jako Damoklův meč. Dobrá zpráva nyní přichází od společnosti Truepic, kde vymysleli jednoduchý způsob, jak ověřit pravost záznamů.

Novou technologii její tvůrci nazvali Foresight a místo dodatečné analýzy videí a zjišťování, zda-li jde o deepfake, využívá k zajištění pravosti navázání jednotlivých záznamů na hardware, na kterém vznikly. Foresight označuje všechny záznamy při jejich vzniku speciální sadou zašifrovaných metadat. Data jsou uložená v běžných formátech, v ukázce pro stránku Android Police společnost předvedla, že takto zabezpečený obrázek lze uložit ve formátu JPEG. Nehrozí tedy žádný strach z nekompatibilních datových formátů.

Technologie ale trpí řádkou drobných mušek. Tou největší je asi fakt, že soubory zatím nezaznamenávají změny, jež na nich byly provedeny. Řešením je zapojení více společností, které by tuto metodu zabezpečení podporovaly. O úspěchu technologie tak bude rozhodovat hlavně zapojení největších výrobců fotoaparátů a mobilních zařízení v čele se Samsungem a Applem. Bojíte se, že by někdo mohl zneužít vaší podobu? Podělte se s námi o svůj názor v diskuzi pod článkem.

Dnes nejčtenější

.