Aktuální otázky práva autorského a práv průmyslových 2025

JUDR. JIŘÍ ČERMÁK 11 TDM VÝJIMKA A VÝHRADA PRÁV Z NÍ

1. Úvod Generativní umělá inteligence (generativní AI) je oblast umělé inteligence, která se zaměřuje na vytváření nového obsahu, například textu, obrázků, hudby či počítačové ho kódu, na základě vzorů, které se „naučila“ z trénovacích dat. Pokud je AI určená k tvorbě textu, využívá k tomu tzv. (velký) jazykový model (LLM – Large Language Model). Jde o model umělé inteligence postavený na rozsáhlé neuronové síti typu transformer 12 , trénované na obrovském množství textových dat. Jazykový model se učí porozumět přirozenému jazyku, analyzovat kontext a generovat nový text na základě zadaného vstupu. Mezi známé příklady takových modelů patří ChatGPT od OpenAI, Claude od Anthropic nebo Google Gemini. Trénování jazykového modelu probíhá tak, že model „čte“ velké množství textů (například knihy, články, webové stránky) a na základě předchozích slov se učí předví dat slovo následující. Celý proces řídí algoritmy strojového učení; model se postupně optimalizuje, aby poskytoval co nejlepší výsledky. Z hlediska autorského práva je důležité uvědomit si následující: a) Data používaná k trénování jazykového modelu (tzv. hrubá data) jsou zpra vidla zkopírována z původních zdrojů (webové stránky, naskenované knihy, zpravodajství) a uložena lokálně u subjektu, který model trénuje. b) Z těchto „hrubých dat“ je následně po „vyčistění“ vytvořen tzv. dataset, tedy soubor vybraných, upravených či jinak zpracovaných dat, která vyhovují kva litativním, technickým nebo obsahovým kritériím pro daný účel trénování. c) Jak hrubá data, tak výsledný dataset, obvykle obsahují autorskoprávně chráně ná díla. d) V procesu trénování dochází k užití těchto děl, zejména jejich rozmnožováním (kopírováním). e) Samotný jazykový model však již žádná autorská díla neobsahuje, protože jde pouze o pravděpodobnostní matematický model. 11 Advokát, Jansa, Mokrý, Otevřel & partneři s.r.o., advokátní kancelář 12 Transformer je architektura neuronových sítí představená v roce 2017, která zásadně změnila způsob, jakým počítače zpracovávají jazyk. Její hlavní inovací je tzv. mechanismus pozornosti (attention me chanism), díky němuž dokáže model analyzovat všechna slova v textu současně a automaticky určovat, která z nich jsou pro daný kontext nejdůležitější – například rozpoznat, že ve větě „černá kočka spala“ se přídavné jméno „černá“ vztahuje ke „kočce“. Díky paralelnímu zpracování celého textu najednou (na rozdíl od dřívějšího postupu slovo po slovu) je transformer velmi rychlý a efektivní.

34

Made with FlippingBook - Share PDF online