V posledních několika dnech jste na WhatsApp nebo Instagramu zahlédli podivná videa? Videoklip, kde tygr odnáší spícího člověka, leopard procházející se ulicemi Lucknowu, leopardi v domech v Puné, nebo video, kde člověk nalévá alkohol tygrovi sedícímu u silnice? Po jejich shlédnutí jste byli šokováni, cítili strach nebo byli okamžitě vyzváni k dalšímu sdílení? Nezadržujte se… tato videa jsou falešná. Nebyla natočena skutečnými kamerami, ale jsou generována umělou inteligencí.
V současné době vypadají videa vytvořená AI na sociálních médiích tak realisticky, že je může těžké rozeznat. Během posledních šesti měsíců prošly aplikace pro generování videí, jako jsou Sora, Kling a Luma, obrovskými vylepšeními. Stačí napsat jedno větu a do 10–15 sekund se vytvoří video, které vypadá velmi realisticky. To vedlo k tomu, že se šíří množství falešných videí s tygri, leopardi, medvědy, psy a králíky.
Jak rozpoznat videa AI?
- Kvalita videa: Pokud je kvalita videa dost špatná, nepočítejte s tím, že je to pravda. Dnešní mobilní telefony dokážou natáčet videa ve 4K rozlišení i v noci. Takže se ptejte, proč je to video tak rozmazané? Většina videí AI má nízkou kvalitu.
- Falešné záznamy z CCTV: Tato videa se prezentují ve formátu CCTV záznamu, aby zamaskovala podvod. Místo data a času jsou pouze čísla. Zvuk bývá také nekvalitní.
- Vysoká dokonalost: Pokud jsou pleť, oči, nos velmi dokonalé a vlasy a oblečení se pohybují nenaturálně, pravděpodobnost, že to je video AI, stoupá. AI zatím nedokáže realisticky zachytit emoce v očích nebo jemnosti obličeje.
- Prozkoumejte ruce a tělo: AI má stále potíže s realistickým ztvárněním rukou a prstů. Pokud někdo skáče nebo běží, často bývá vidět chyby ve stínu, osvětlení a stavbě těla.
- Zmizelé nebo měnící se detaily: Pamatujete si video králíka, který skáče na trampolíně? Ve videu z ničeho nic jeden králík zmizí a jiný změní tvar. Takové drobnosti ukazují na nedokonalosti.
- Krátká videa: Dlouhá videa vyžadují náklady. Většina populárních AI videí je krátká, obvykle kolem 6–10 sekund.
- Vodotisk Sora: Video vytvářené Sora od OpenAI má na sobě vodotisk „Sora“. Ten může být buď zakrytý nějakým švem nebo rozmazaný.
- Nejzásadnější otázka: Může opravdu existovat tygr sedící na ulici, kterému dává člověk alkohol? Když si položíte tuto otázku, 90 % falešných videí lze rychle identifikovat.
Policie v Nagpuru dokonce vystavila výzvu osobě, která šířila fámy kvůli videu s tygrem pijícím alkohol. Videoklipy leopardů v Puné byly rovněž prohlášeny za falešné oddělením lesů. Umělá inteligence se den ode dne stává chytřejší. V budoucnu mohou tato videa vypadat ještě přesvědčivěji. Proto byste měli být ostražití a před dalším sdílením jakéhokoli videa raději počkat několik sekund, abyste zkontrolovali výše uvedené body. Jinak můžete nevědomky šířit falešné a děsivé informace.






