8. prosince 2023 – po několikaměsíčních intenzivních jednáních – došlo v rámci trialogu mezi poslanci Evropského parlamentu, členskými státy a Komisí k dohodě o souboru pravidel pro řízení rizik, jež mohou být potenciálně spojovány s umělou inteligencí. Ten již dříve vstoupil ve známost jako Akt o AI. Rodí se tak komplexní právní rámec pro regulaci systémů AI v celé EU.
Tvrzení, že umělá inteligence má v oblasti vědy a výzkumu stále vlivnější místo, je nepopiratelné. Časopis Nature Journal také ChatGPT zařadil (viz článek na našem portálu) do svého tradičního žebříčku top 10 osobností, jež za rok 2023 zásadně formovaly oblast vědy a výzkumu, navzdory faktu, že se nejedná o živého člověka.
Kromě nesporných benefitů jsou s AI spojována i rizika. V této souvislosti proběhlo během června minulého roku v Evropském parlamentu jednání o schválení Aktu o AI, jenž schválilo 499 poslanců. Celkem 28 poslanců se vyjádřilo proti, dalších 93 poslanců se při jednání o konečné podobě zákona zdrželo hlasování. Následovala diskuse se zeměmi EU v Radě o konečné podobě zákona.
Téma regulace AI se však v evropském kontextu datuje už od jara 2021, kdy Evropská komise vypustila první podobu návrhu. Zmíněný trialog tak po tříletém řešení přinesl kompromis a řešení určitých přetrvávajících sporů, jež jsou však také spojené s neustálým vývojem umělé inteligence.
Komplikovaný systém odstupňovaných kategorií podle rizika a nově vzniklé instituce
V rámci nové legislativy tak systémy umělé inteligence budou podléhat diferenciaci podle kategorií určujících jejich riziko. S takřka nulovým ohrožením je spojena kategorie s „nízkým či minimálním rizikem“. Do té podle Komise spadá například blokátor e-mailového spamu.
K systémům na úrovni „s potenciálním rizikem“ se pak váže nutnost uživatele dostatečně informovat o tom, že obsah je generovaný umělou inteligencí. To platí i u komunikace s chatboty. Uživatelé si musejí být vědomi, že komunikují se strojem. V závislosti na tomto upozornění se pak mohou rozhodnout, zda chtějí dále pokračovat, či ustoupit.
V kategorii s případným „vyšším rizikem“ – navzdory francouzskému a německému lobbingu – jsou zařazeny vysoce výkonní a populární chatboti a formy AI, jež v legislativě spadají pod označení GPAI (general-purporse AI). Konkrétně pak do této skupiny patří známý ChatGPT, Microsoft Bing či dále například Google Bard.
Pro modely GPAI s vysokým dopadem a systémovým rizikem se europoslancům podařilo zajistit přísnější povinnosti, jež se odrážejí v regulaci. Tyto systémy firem budou muset splnit určitá kritéria, která jsou spojena s dodatečným testováním zaměřujícím se na potenciálně nebezpečné možnosti modulů. Dále bude například povinné podávat zprávy o závažných bezpečnostních incidentech. Nově ustanovená Rada pro umělou inteligenci, složená ze zástupců členských států EU, v tomto směru postupně aktualizuje kritéria pro to, co se považuje za systémové riziko, aby se udržel krok s rychle se vyvíjející oblastí umělé inteligence.
Nově zřízenou institucí a v problematice AI zásadní – působící v rámci Komise – je také Úřad pro umělou inteligenci (AI Office). Tento úřad bude dohlížet na nejpokročilejší modely umělé inteligence, přispívat k podpoře nových norem a testovacích postupů a prosazovat společná pravidla ve všech členských státech EU. Poradenskou funkci pak Úřadu pro umělou inteligenci bude plnit rovněž nově ustanovený vědecký panel nezávislých odborníků.
Poslední kategorií v tomto odstupňovaném systému pak jsou aplikace spojené s „neakceptovatelným rizikem“. Jak už název napovídá, jedná se o přímo zakázané systémy, které souvisejí například s identifikací emocí na pracovišti nebo ve vzdělávacích institucích či dále biometrické kategorizační systémy, které třídí lidi na základě „citlivých“ rysů, jako je rasa nebo sexuální orientace, a v neposlední řadě i sociální skóring obyvatelstva.
Co na to technologické firmy?
Část firem z digitálního spektra nový systém odstupňovaný dle rizika ocenila. „Vítáme regulaci aplikací na základě rizika. Oceňujeme také regulaci základních modelů, které dominují trhu, což umožní malým a středním digitálním podnikům inovovat a konkurovat na spravedlivějším základě,“ uvedl Oliver Grün, prezident Evropské aliance pro digitální malé a střední podniky (European Digital SME Alliance) pro Science Business.
Jako případná překážka se však jeví nejasné vymezení kategorií a dalších pojmů – s tím souvisí skutečnost, že úplné znění dohody doposud nebylo oficiálně zveřejněno.
„Stále není zcela jasné, které systémy budou patřit do kategorie s vyšším rizikem,“ vyjádřila se k doposud nevymezeným hranicím Victoria de Posson pro Science Business, generální tajemnice European Tech Alliance – lobbistické skupiny pro zavedené evropské technologické firmy.
Obavy jsou pak dále spojené i s otázkou, zda se evropský trh stane v souvislosti s regulacemi a nařízeními méně atraktivním – to je pak spojováno zejména s kategorií systémů „s vyšší mírou rizika“. Vzniknou pak také nové nároky pro evropské technologické firmy v právní oblasti, a spoustu prostředků tak bude muset být vynaloženo na právní odborníky.
Celý odstupňovaný systém se však podle zmíněné legislativy nebude vztahovat na ty systémy umělé inteligence, „které se používají výhradně pro vojenské nebo obranné účely“ a na ty „systémy AI, používané výhradně pro účely výzkumu a inovací“.
Budoucí vyhlídky a následný vývoj
Zkraje nového roku 2024 jsou tak s Aktem o umělé inteligenci spojovány zejména přípravy finálního dokumentu, jenž vznikne ze zmíněného trialogu. Po následném oficiálním odsouhlasení dohody všech stran bude následovat dvouletá lhůta, v rámci které se trh bude moci řádně připravit. V rámci tohoto období budou členské státy nuceny ke kooperaci a společné práci spojené s vytvořením účinné struktury dohledu a zveřejňováním pokynů k provádění Aktu o AI.
Zmíněný Akt rovněž obsahuje ustanovení pro vnitrostátní orgány. Po nich se vyžaduje, aby vytvořily regulační „testovací půdu“, která evropským společnostem umožní testovat systémy umělé inteligence v reálných podmínkách před jejich uvedením na trh.
Podle Davida Marti ze švýcarského think tanku Pour Demain „má toto opatření pozitivní vliv zejména na malé a střední podniky, neboť tak dojde ke snížení regulační zátěže“.
Zákazy obsažené v nařízení se však začnou uplatňovat již po šesti měsících a povinnosti pro modely GPAI začnou platit po roce.
Atmosféra nejistoty a tučná pokuta pro hříšníky
Popsanou situaci na evropské úrovni však obestírá atmosféra nejistoty a nervozity. EU se s Aktem o AI snaží docílit toho, aby systémy umělé inteligence v EU byly „bezpečné, transparentní, sledovatelné, nediskriminační a šetrné k životnímu prostředí“. V tomto směru tak bude nová legislativa nepochybně srovnávána a poměřována s přístupy přijatými v jiných předních zemích v oblasti umělé inteligence, jako jsou Spojené království a Spojené státy. Pokud však konkurence EU z nároků sleví, a ty tak budou oproti například dominantním Spojeným státům mnohem finančně náročnější, atraktivita evropského trhu se výrazně sníží.
Dodržování pravidel pak bude zajišťováno především prostřednictvím vnitrostátních orgánů dozoru na úrovni jednotlivých členských států. Mimoto se touto problematikou bude blíže zabývat i právě zmíněný nový orgán Komise Úřad pro umělou inteligenci.
Pokuta za případné nedodržení zákona se bude stanovovat na základě typu systému umělé inteligence, závažnosti porušení a také velikosti společnosti. Například za poskytnutí nesprávných informací se penále bude pohybovat v rozmezí 7,5 milionu až 15 milionů eur nebo 1,5 procenta až 3 procenta celkového celosvětového ročního obratu společnosti v závislosti na tom, která z těchto částek bude vyšší. Za porušení v případě využívání zakázaných aplikací AI je pak pokuta stanovena až na „úctyhodných“ 35 milionů eur nebo 7 % celkového celosvětového ročního obratu společnosti, přičemž opět bude přihlédnuto k vyšší částce.
Autor: Vědavýzkum.cz (JM)
Zdroj: Evropský parlament, Evropská komise (1, 2), Science Business, REUTERS, EDRI, Washington Post
- Autor článku: ne
- Zdroj: Vědavýzkum.cz