– Autor: Amrita Durve
– Role: Zástupce BBC Marathi
V posledních několika dnech jste pravděpodobně viděli videa, jako je to, kde tygra zvedá spícího člověka, nebo videa o leopardech v Lucknow a Pune. Tato videa, která vám přišla ve zprávách nebo na sociálních sítích, jsou nepravdivá.
Vaše kanály na sociálních sítích jsou nyní pod kontrolou AI, včetně obsahu, který v nich vidíte. Mnoho videí o leopardech, tigrech, medvědech a psech bylo vytvářeno s pomocí umělé inteligence.
Jak se vyhnout tomu, abyste se nechali oklamat těmito videi?
Za posledních šest měsíců došlo k velkým zlepšením v generátorech videí AI; jedná se o aplikace, které umožňují vytvářet videa pomocí umělé inteligence. Mnoho takových aplikací je nyní lidem k dispozici, a díky tomu se zvýšil objem obsahu, který je AI produkován.
Tento článek obsahuje informace o obsahu na webových stránkách sociálních médií. Před nahráním jakéhokoli obsahu vás žádáme o souhlas, protože příslušné webové stránky používají soubory cookie a další technologie. Můžete si přečíst podmínky používání souborů cookie a ochrany osobních údajů na stránkách sociálních médií, abyste se dozvěděli více. Klikněte na ‚Souhlasím a pokračuji‘.
Na YouTube je mnoho videí, která se jeví jako velmi autentická a počet takových videí se bude i nadále zvyšovat. Důvodem je to, že AI se neustále učí ze svých chyb a mimo to jsou tyto AI systémy trénovány na obrovských datech, což povede k dalším významným zlepšením.
Co tedy dělat pro rozpoznání videí AI? Zde jsou některé body, které je dobré mít na paměti.
Kvalita videa
Špatná kvalita obrazu a rozmazané video mohou naznačovat, že se jedná o video AI. I když si vezmete jakýkoli základní telefon, jeho kamera může natáčet videa ve 4K kvalitě. Dokonce i noční videa jsou nyní zaznamenávána velmi čistě.
Proč tedy vypadá toto video takto? To je důležitá otázka.
Falešná CCTV videa
Aby se zakryla nedostatky v kvalitě obrazu, snaží se mnohé z těchto AI videí vypadat jako záznamy z CCTV kamer. Ve skutečnosti je mnoho virálních videí prezentováno jako záznamy z těchto kamer. Často obsahují datové a časové údaje, které nejsou autentické.
Taková videa mají často i špatnou kvalitu zvuku, což spolu se špatnou kvalitou obrazu a nahrávky z CCTV naznačuje, že video může být podvrh.
Neobvyklé barvy a tvary
Dalším indikátorem toho, že video může být falešné, jsou nadměrně jasné barvy a nerealistické tvary. Když lidé ve videu mají zdánlivě příliš lesklou pleť, nebo jejich rysy jsou přehnaně vytažené, je to známka AI generované nahrávky.
Je také důležité věnovat pozornost výrazu obličeje a pohybům očí postav. Tyto detaily mohou vypadat nepřirozeně. AI často nedokáže zachytit tyto jemnosti. Dosud se AI nepodařilo přirozeně animovat ruce a prsty. Některé aplikace mohou mít stále tyto nedostatky.
Chybějící detaily
Často jsou v AI videích zvláštní efekty, které nás mohou rozptýlit a odvrátit naši pozornost od důležitých detailů. Například video o králících skákajících na trampolíně bylo nedávno velmi virální. Pokud ale video pečlivě zkoumáte, všimnete si, že je generováno AI.
Původně se tam objevilo šest králíků, ale jeden z nich se při skákání sám bez vysvětlení ztratí a jedna postava změní tvar. K tomuto videu je také přidána známka, že to byla CCTV nahrávka.
Kratší klipy
Dalším způsobem, jak rozpoznat videa AI, je to, že tyto klipy jsou obvykle velmi krátké, trvají pouze několik sekund. Jsou mnohem kratší než videa, která obvykle sledujeme na platformách jako Instagram nebo TikTok, kde můžete vidět delší videa. Důvodem je skutečnost, že pro delší videa je potřeba zaplatit, a bezplatné verze nabízejí jen krátké klipy, obvykle 6–8 sekund.
Vodoznak
Při vytváření videa pomocí aplikace Open AI se obvykle objeví vodoznak. Pokud tedy vidíte na obrazovce jméno Sora, víte, že se jedná o video AI.
Často lidé, kteří videa virálně šíří, používají editační software na zakrytí tohoto vodoznaku. Důsledkem toho mohou některé části videa mít rozmazané skvrny a mohou zmizet. Na tyto aspekty je také dobré dávat pozor.
Chybující fyzikální zákony
Přestože AI umí kopírovat mnoho věcí, stále nedokáže správně zpracovat fyzikální zákony v obrazech a videích. Například ve videu o údajně bloudícím leopardovi v Pune lze pozorovat, že proporce jeho těla a vztah k jeho stínu jsou nesprávné. Tento fakt potvrdilo i lesnické oddělení.
Podobné nedostatky se mohou ukázat, když někdo ve videu skáče nebo běží.
Realita a možnosti
Nejdůležitější otázka, kterou je dobré si položit při sledování videa, je: Může se to opravdu stát? Může například tygra, který je usazený na silnici, někdo krmit alkoholem? Před tím, než video pošlete dál, zamyslete se nad tím.
Naprosto jasné je, že klip, který se šíří po sociálních médiích, není pravý; policie v Nagpuru také zaslala právní oznámení jednomu muži z Bombaje, který tento klip sdílel na sociálních sítích.
Vyhněte se vytváření nebo sdílení takových děsivých videí, protože můžete čelit právním následkům. S rostoucími možnostmi AI, s využitím technologií pro vytváření deepfake materiálu se zdá, že bude stále snazší a snazší. Každým dnem se tyto fotografie a videa stávají realistickými a stále víc nám připadá, že to, co vidíme, je pravda. Je důležité, abychom si osvojili určitá pravidla.
Podobně, jak jsme opatrní ve vztahu k podvodným nabídkám a telefonickým hovorům, musíme být i opatrní, pokud jde o videa, která sledujeme.
Toto vydání publikovalo Collective Newsroom pro BBC.






