AI generovaný obsah a deepfaky: kdo, co a kdy musí označovat?

09.07.2025

Umělá inteligence umí psát články, tvořit obrázky i skládat hudbu. S rostoucím zdokonalováním AI ale ztrácíme schopnost rozlišovat realitu a fikci. To samo o sobě může mít zničující dopady na škále od psychických problémů, finanční škody až po nezvratitelné ovlivňování výsledku voleb. S tím přichází otázka, jakým způsobem budeme s generovaným obsahem zacházet. Musím přiznat, že text psal ChatGPT? Musím upozornit, že obrázek je AI generovaný?


Kolem podobných otázek koluje řada mýtů a polopravd. Tento článek vám pomůže porozumět všemu, co potřebujete vědět.


Co se dozvíte:

  • Rozdíl mezi generovaným obsahem a deepfakem

  • Jaká pravidla platí teď a co začne platit brzy

  • Pravidla pro generovaný obsah

  • Pravidla pro deepfake

  • Slovo a úvaha závěrem

Jaká pravidla platí teď a co začne platit brzy?

V současnosti v zákonech není výslovná povinnost označovat AI generovaný obsah.

Mohla by nastat situace, že označení se stane vhodné, pokud se pomocí AI generovaného obsahu prezentuje zboží či služba zákazníkovi. Přikrášlený obsah, který neodpovídá realitě,

by mohl být vnímán jako klamání spotřebitele. Ale ani označení, že jde o AI vás v tomto případě nemusí zachránit. Například obrázek zboží musí pořád odpovídat skutečnosti, ať už je jeho vizualizace vytvořená ve Photoshopu nebo v AI, a to i pokud použití AI přiznáte.

Proč někteří AI obsah přiznávají (i když zatím nemusí)?

  • 🤝🏻Fér jednání se zákazníky a budování důvěry.
    Pokud na webu použijete AI obrázek, který je stylizovaný, vizuálně vyšperkovaný nebo evidentně nereálný, může být etické (a často i marketingově rozumné) uvést, že jde jen o ilustrační vizualizaci.

  • 🕸️Požadavky platforem.
    Některé sociální sítě (jako Instagram) nebo online tržiště si dávají do svých pravidel vlastní požadavek, aby uživatelé označovali AI obsah. Pak vás k tomu nezavazuje přímo zákon, ale váš smluvní vztah s platformou. Platformy to dělají většinou proto, aby budovaly důvěryhodný ekosystém, plnily své povinnosti ohledně odpovědnosti za obsah, nebo se připravily na budoucí pravidla.

  • 🤖Požadavky AI nástrojů.
    Když použijete jakýkoliv AI nástroj, musíte souhlasit s jeho smluvními podmínkami. V nich se může objevit pokyn, že máte vygenerovaný obsah označit, pokud jej použijete například na sociálních sítích. V současnosti se toto však u nejpoužívanějších nástrojů jako například ChatGPT spíše neobjevuje.

  • 😎A někdy je to prostě jen cool.
    Někteří lidé na sítích AI obsah označují, protože jim to přijde cool.

Momentálně platí, že označování AI obsahu není výslovně zákonnou povinností.

V srpnu 2026 však začne být účinná většina evropského nařízení AI Act, které přinese dvě důležitá pravidla.

Poskytovatelé AI systémů (např. Open AI) budou muset zajistit, aby byl AI obsah rozpoznatelný jako umělý a někteří uživatelé budou mít nově povinnost označovat deepfaky. Na obě kategorie se teď pojďme podívat víc.

Rozdíl mezi generovaným obsahem a deepfakem

AI generovaný obsah ≠ deepfake. Je potřeba rozlišit 2 různé věci , pro které budou platit různá pravidla.

🤖 AI generovaný obsah (obecně)

Co to je: Jakýkoli obsah vytvořený nebo zásadně upravený pomocí AI.

Příklady:

  • Blog napsaný pomocí ChatGPT

  • Obrázek krajiny vytvořený v Midjourney

  • AI překlad textu

  • Automaticky generované shrnutí dokumentu

🎭 Deepfake (specifický typ AI obsahu)

Co to je: obrazový, zvukový nebo video obsah vytvořený nebo manipulovaný umělou inteligencí, který se podobá existujícím osobám, objektům, místům nebo událostem a který by se mohl nepravdivě jevit jako autentický nebo pravdivý.

Příklady:

  • Video, kde AI "nutí" celebritu říkat věci, které nikdy neřekla

  • Falešné foto politika na místě, kde nikdy nebyl

  • Napodobenina hlasu známé osoby v audio nahrávce

  • Manipulované video historické události

  • Falešná fotka produktu, který značka nikdy nevyrobila

Deepfake je tedy specifický podtyp AI obsahu, který působí skutečně a může (a často chce) klamat diváka. S tím, jak se AI nástroje stále zdokonalují, je stále obtížnější poznat realitu.

Pravidla pro AI generovaný obsah

AI Act zavede povinnost pro poskytovatele AI systémů (tedy firmy jako OpenAI, Midjourney nebo Google), aby zajistili, že výstupy jejich nástrojů budou rozpoznatelné jako umělé. Typicky půjde o technická řešení, například vodotisky, metadata nebo jiné strojově zjistitelné prvky.

Jinými slovy: odpovědnost za to, aby AI výstupy byly rozeznatelné jako umělé, bude ležet primárně na tvůrcích a poskytovatelích nástrojů, ne na běžných uživatelích, kteří obsah zveřejňují.

Pravidla pro deepfake

Deepfake je jiná liga než běžný AI obsah. Jelikož napodobují realitu a mohou snadno klamat, mají podstatně přísnější režim.

Kdo musí označovat?

Deepfaky bude potřeba od srpna 2026 označovat způsobem viditelným pro lidské oko. Tuto povinnost budou mít tzv. zavádějící subjekty, tedy firmy, veřejné instituce, agentury nebo osoby, které deepfake využívají v rámci své podnikatelské či profesní činnosti. Jako typický příklad uveďme společnost, která vytvoří deepfake avatara HR ředitele pro náborové video. Pokud si naopak někdo doma vytvoří deepfake jen pro zábavu a nešíří ho za účelem podnikání nebo profesionální prezentace, povinnost označit ho se na něj vztahovat nebude.

Jak označovat?

Musíte jasně a lidským okem rozpoznatelně oznámit, že umělá inteligence obsah vytvořila nebo upravila. AI Act nespecifikuje přesnou formu - můžete použít text, symbol nebo jinou formu označení. Hlavně aby bylo jasné, že jde o umělý obsah.

Výjimky: umění, satira a policie

AI Act myslí i na případy, kdy by povinnost označovat mohla být nesmyslná

  • Pokud je deepfake součástí zjevně uměleckého, satirického nebo fiktivního díla, stačí zveřejnit, že jde o umělý obsah v přiměřené formě, která nenaruší zážitek z díla. (Například titulek na začátku filmu.)

  • Označovat také není potřeba, pokud je deepfake použit při vyšetřování, předcházení nebo stíhání trestných činů.

Příklady

  • Marketingová agentura vytvoří deepfake video s celebritou, která pro reklamní kampaň říká, že používá nový produkt - musí jasně uvést, že jde o AI generovaný obsah.

  • Někdo si doma udělá vtipné deepfake video, kde kamarád říká, že mu smrdí nohy, a pošle ho do WhatsApp skupiny - nemusí označovat, že jde o AI.

  • Divadelní soubor uvede inscenaci, kde pomocí deepfaku nechá mluvit historickou postavu. Protože jde o umělecké dílo, AI Act umožňuje označení jen přiměřeným způsobem, který nenaruší zážitek z díla.

Slovo a úvaha závěrem

Do teď byl tenhle článek hlavně praktický a faktický. Ale u označování AI obsahu má smysl se na chvíli zastavit a popřemýšlet.

AI Act se často vykresluje jako další přebujelá regulace moderních technologií. Přitom ale zdaleka nepostihne všechno, co se AI týká. A paradoxně možná právě tam, kde by to někdy bylo nejvíc potřeba, AI Act mlčí. V předchozí sekci jsme s nadsázkou použili příklad deepfaku, kde někdo přiznává, že mu smrdí nohy. Podle AI Actu takové video spadne úplně mimo povinnost označení, protože jde o soukromé a neprofesionální použití. Přitom pro toho, kdo je v takovém videu zobrazený – třeba dítě na základní škole – může mít podobné zneužití jeho podoby zásadně větší dopad než reklama, kde agentura vypustí do světa deepfake s hollywoodskou hvězdou.

O to víc vystupuje do popředí otázka etiky a obyčejné lidské morálky. Deepfake obsah ve svém soukromém životě označovat sice nemusíme. To ale neznamená, že bychom neměli.

AI Act má ale i své velmi smysluplné stránky. Za jednu z těch nejdůležitějších považujeme přenesení odpovědnosti za rozpoznatelnost AI obsahu přímo na poskytovatele technologií. Typicky jde o velké hráče jako OpenAI, Google nebo Midjourney, kteří si řešení souladu s předpisy mohou dovolit. Povinnost poskytovatelů zajistit, aby výstupy byly strojově rozpoznatelné jako umělé, funguje jako prevence – nutí je zabudovat do technologií "stopu", kterou pak lze dohledat. A to i pro případy, kdy někdo používá AI čistě k manipulacím nebo podvodům. Takový tvůrce by totiž sám nikdy dobrovolně nepřiznal, že jde o syntetický výtvor.

Nakonec ale stejně zůstane hodně na nás. V tom smyslu, že bychom měli přemýšlet, co vlastně vidíme, jestli je to skutečné, nebo ne. A v tom smyslu, že bychom se měli vždycky zamyslet, jestli vlastní tvorbou nemůžeme někomu ublížit.

Autor: Lucie Malá, právník Legitas


Umělá inteligence umí psát články, tvořit obrázky i skládat hudbu. S rostoucím zdokonalováním AI ale ztrácíme schopnost rozlišovat realitu a fikci. To samo o sobě může mít zničující dopady na škále od psychických problémů, finanční škody až po nezvratitelné ovlivňování výsledku voleb. S tím přichází otázka, jakým způsobem budeme s generovaným...

Na internetu dnes vyřídíme téměř všechno — nákupy, služby, rezervace i platby. Ne pro každého je to ale stejně jednoduché. Lidé se zrakovým, sluchovým či jiným omezením často naráží na technické překážky, kvůli kterým si běžné online služby nemohou snadno vyřídit sami. Tomu se bude muset prostředí na internetu podřídit už od 28. června 2025. A...

Nařízení GDPR nedávno slavilo šesté narozeniny. Pro některé možná staré dokola opakované téma, které už nikoho moc nezajímá. Omyl. Pokud vás poslední vývoj minul, tady jsou tři čerstvé důkazy, že GDPR rozhodně neumřelo – a že na něj pořád hodně firem tvrdě doplácí