Po dlouhém vyjednávání schválily Evropský parlament i Rada EU nařízení o umělé inteligenci, známější jako AI Act. Nařízení je první svého druhu na světě a stanovuje specifická pravidla pro různé kategorie systémů umělé inteligence (AI) podle jejich potenciálního rizika pro společnost. Co je AI Act a co obsahuje?
Co je AI Act?
AI Act (Artificial Intelligence Act) je legislativa, která definuje a reguluje používání systémů umělé inteligence (AI) v Evropské unii. Podle nařízení je „systémem AI“ software, který generuje výstupy, jako je například predikce, obsah, doporučení nebo rozhodnutí, která mohou ovlivnit fyzická nebo virtuální prostředí. AI Act má zajistit, aby systémy umělé inteligence byly bezpečné a respektovaly základní lidská práva.
Na rozdíl od směrnic EU jsou nařízení přímo závazná ve všech členských státech EU. To znamená, že AI Act bude v Česku platit přímo, aniž by bylo nutné přijímat nový zákon nebo novelizovat stávající. Platnost nařízení se odvíjí od jeho vyhlášení v Úředním věstníku EU, ovšem pro adresáty je podstatnější datum účinnosti, tj. okamžik, kdy je nařízení závazné. Nařízení se začne uplatňovat postupně, různá ustanovení budou použitelná 6 až 36 měsíců ode dne platnosti.
Co přináší nový AI Act?
Cílem nařízení o umělé inteligenci je zajistit, aby systémy AI používané v EU byly bezpečné, důvěryhodné, transparentní a nediskriminační. Umělá inteligence by navíc měla fungovat v souladu s hodnotami a principy EU. Dalším záměrem je podpora inovací – Evropa by do budoucna měla být lídrem v oblasti AI. Nařízení zároveň stanovuje, které systémy AI jsou v EU zcela zakázány a zřizuje Evropský úřad pro umělou inteligenci, který bude hrát klíčovou roli při implementaci nařízení.
Nařízení o umělé inteligenci stanoví také sankce za porušení stanovených pravidel. Za uvedení zakázaných systémů umělé inteligence na trh EU čeká pachatele pokuta ve výši až 7 % jeho celosvětového ročního obratu nebo 35 milionů eur. Za většinu dalších přestupků hrozí pokuta ve výši 3 % ročního celosvětového obratu nebo 15 milionů eur.
Čtyři kategorie rizik
Návrh nařízení o umělé inteligenci rozděluje systémy AI do 4 kategorií podle jejich potenciální rizikovosti. Rizikové může být například používání umělé inteligence způsobem, který zasahuje do práva na ochranu osobních údajů nebo do soukromí, případně způsobem porušujícím zákaz diskriminace.
1. zakázané postupy v oblasti AI
Mezi zakázané systémy umělé inteligence spadají zejména:
- Systémy sociálního kreditového hodnocení, což je hodnocení fyzických osob v určitém časovém úseku na základě jejich sociálního chování nebo osobnostních vlastností;
- umělá inteligence využívající lidské zranitelnosti (např. věku nebo postižení),
- systémy biometrické identifikace na dálku „v reálném čase“ na veřejně přístupných místech, pokud to není nezbytně nutné z důvodu ochrany života nebo veřejné bezpečnosti.
2. vysoce rizikové systémy AI
Vysoce rizikové systémy umělé inteligence musí splňovat závazné požadavky týkající se transparentnosti, lidského dohledu, kybernetické bezpečnosti nebo technické dokumentace a uchovávání záznamů. Do kategorie vysoce rizikové umělé inteligence byly zařazeny:
- systémy AI používané ve vzdělávání, zejména za účelem hodnocení osob v testech, neboť pokud by byly používány nesprávně, mohou narušovat právo na vzdělání a právo nebýt diskriminován;
- systémy AI používané k hodnocení rizika úvěru;
- systémy AI používané při náborech zaměstnanců, rozhodování o povýšení, propuštění nebo řízení pracovníků;
- systémy AI určené na pomoc soudnímu orgánu při výkladu a aplikaci práva;
- systémy AI určené ke správě kritické infrastruktury jako je voda, plyn nebo elektřina;
- systémy umělé inteligence využívané při pohraničních kontrolách za účelem ověřování pravosti cestovních dokladů, posuzování bezpečnostního rizika nebo přezkoumání žádosti o azyl.
3. systémy AI s omezeným rizikem
Systémy AI s omezeným rizikem by měly splňovat minimální standardy transparentnosti. To v praxi znamená, že tyto systémy musí informovat uživatele, že interaguje s umělou inteligencí.
4. systémy AI s minimálním rizikem
Většina systémů AI využívaných v EU spadá do této kategorie a může být používána bez dalších právních povinností. Tato kategorie zahrnuje systémy, které neohrožují bezpečnost, práva a svobody jednotlivců a nemají potenciál způsobit významnou škodu.
Obecné modely AI
Speciální kategorií systémů umělé inteligence jsou obecné modely AI, trénované na velkém množství dat, aby mohly provádět širokou škálu úkolů. Příkladem je model GPT, který je základem pro populární aplikaci ChatGPT. Poskytovatelé těchto modelů musí například udržovat aktuální dokumentaci o jeho tréninku a rozsahu úkolů, které může vykonávat.
Sára Aiblová je studentkou brněnské právnické fakulty. Kromě práva se zajímá o psychologii, kulturu a cestování. Baví ji prozkoumávat aktuální témata ze světa technologií či wellness a předávat je čtenářům.
1 komentář
Decentralizace internetu: Co je Web 3.0 a jaké má následky? - CzechTechnology · 24. 10. 2024 v 10:38
[…] součástí Webu 3.0 má být také umělá inteligence a strojové učení. Každý uživatel nového webu by měl mít po ruce asistenta, který mu bude […]
Komentáře nejsou povoleny.