Európska únia od augusta 2026 nariadi povinné označovanie obsahu vytvoreného umelou inteligenciou, vrátane deepfake videí a textov z veľkých jazykových modelov, pričom používatelia četbotov budú musieť byť informovaní, že komunikujú so strojom.
Nové povinnosti vyplývajú z článku 50 nariadenia o umelej inteligencii (AI Act), ktoré Európska únia prijala v roku 2024. Jednotlivé časti nariadenia nadobúdajú účinnosť postupne. Pravidlá pre transparentnosť obsahu generovaného AI a pre identifikáciu deepfake materiálov začnú platiť na začiatku augusta 2026. Niektoré ustanovenia sa podarilo zmierniť alebo odložiť, a to aj vďaka aktivite Českej republiky.
Generatívna AI pod drobnohľadom
Regulácia sa zameriava predovšetkým na generatívnu umelú inteligenciu. Ide o systémy, ktoré dokážu vytvárať texty, obrázky, zvukové nahrávky alebo videá. Podľa Jany Vorlíček Soukupovej z advokátskej kancelárie Dentons je cieľom zabezpečiť, aby bolo vždy jasne rozpoznateľné, kedy obsah vytvoril človek a kedy algoritmus.
„AI dokáže vytvoriť obsah, ktorý je od reality takmer nerozoznateľný. Regulácia preto zavádza jednoduchý princíp, že ľudia majú právo vedieť, kedy bol obsah vytvorený umelou inteligenciou alebo kedy komunikujú s AI namiesto človeka,“ uviedla.
Strojovo čitateľné značky vo výstupoch
Poskytovatelia AI systémov, napríklad OpenAI, budú musieť zabezpečiť, aby všetky výstupy obsahovali technické označenie potvrdzujúce, že ich vytvorila alebo upravila umelá inteligencia. V praxi pôjde o metadáta, digitálne vodoznaky, kryptografické značky alebo iné identifikátory vložené priamo do súboru. Toto technické označenie umožní sociálnym sieťam, vyhľadávačom, nástrojom na overovanie obsahu aj ďalším digitálnym platformám automaticky rozpoznať AI pôvod materiálu. Médiá tak získajú nástroj na rýchlu verifikáciu.
Popri strojovo čitateľnom označovaní pribudne aj povinnosť viditeľného označenia výstupov pre koncových používateľov. Niektorým subjektom, ktoré nasadzujú AI systémy, vznikne povinnosť tieto výstupy riadne, jasne a rozpoznateľne označiť.
Osobitne sa to týka deepfake obsahu, teda napodobenín skutočných osôb či udalostí vytvorených umelou inteligenciou, a rovnako obsahu určeného na informovanie verejnosti. Konkrétna podoba označenia sa v súčasnosti finalizuje. Očakáva sa, že pôjde o vizuálne ikony, textové označenia, slovné upozornenia alebo informácie v titulkoch.
Četboty sa musia predstaviť
Zmena sa dotkne aj interaktívnych systémov. Četboty a virtuálni asistenti budú musieť používateľa hneď pri prvom kontakte jasne upozorniť, že komunikuje s umelou inteligenciou. Používateľ sa tak nikdy nemá ocitnúť v situácii, keď si myslí, že mu odpovedá človek, hoci na druhej strane je algoritmus. Transparentnosť je podľa Vorlíček Soukupovej základnou podmienkou dôvery v digitálnom prostredí.
Európska komisia pripravuje Kódex správnej praxe pre transparentnosť obsahu generovaného umelou inteligenciou. Tento dokument má pomôcť prakticky naplniť povinnosti vyplývajúce z nariadenia. Definitívna verzia by mala byť predstavená v júni 2026, teda dva mesiace pred nadobudnutím účinnosti príslušných pravidiel.
Druhý návrh kódexu, zverejnený v polovici marca, definuje technické štandardy pre označovanie AI obsahu vrátane metadát a digitálnych vodoznakov. Kódex sa skladá z dvoch častí. Prvá obsahuje pravidlá pre poskytovateľov AI systémov týkajúce sa detekcie a označovania obsahu generovaného umelou inteligenciou. Druhá časť prináša pokyny pre označovanie deepfake materiálov, adresované subjektom, ktoré AI systémy nasadzujú.
Viacvrstvové označovanie a detekčné nástroje
Jedným zo základných princípov kódexu je viacvrstvové označovanie. Poskytovatelia AI systémov by mali kombinovať viacero techník súčasne, nie spoliehať sa na jedinú metódu. Okrem toho by mali používateľom sprístupniť nástroje na detekciu obsahu, ktorý vytvorila alebo zmanipulovala umelá inteligencia. Pre deepfake obsah kódex navrhuje zavedenie špeciálnej ikony s označením „AI“.
Cieľom celého regulačného rámca je znížiť riziko zneužitia technológie, manipulácie, klamlivého obsahu a podvodov. Povinnosti sa vzťahujú na vývojárov, dodávateľov aj prevádzkovateľov AI systémov pôsobiacich na území Európskej únie.
Porušenie týchto pravidiel môže viesť k zásahu národných dohľadových orgánov, nápravným opatreniam a v závažných prípadoch aj k vysokým pokutám. Pri porušení všeobecných povinností podľa AI Act môžu sankcie dosiahnuť až 15 miliónov eur alebo 3 percentá celosvetového ročného obratu.

