Umělá inteligence (AI) představuje celou řadu rizik, a zároveň nabízí mnoho příležitostí napříč celou společností. Dosud však neproběhla žádná komplexní analýza AI v kontextu lidských práv. Právě o to se od roku 2021 snaží společný výzkum Fakulty elektrotechnické ČVUT, Masarykovy univerzity, Ambis a prg.ai. Projekt „Umělá inteligence a lidská práva: rizika, příležitosti a regulace“ je financovaný Technologickou agenturou ČR a sdružuje technologické a právní odborníky.
Výzkumníci si dali za cíl identifikovat kořenové příčiny rizika porušení lidských práv v rámci všech fází životního cyklu AI. A nezůstanou pouze u vyhodnocení. Výstupem projektu bude sada doporučení, jak AI technologie vyvíjet, používat a regulovat takovým způsobem, aby neohrožovaly lidská práva, a naopak pomohly jejich rozvoji a ochraně. Zároveň totiž zkoumají i možnosti dalšího nasazení AI tam, kde by automatizace mohla pomoci lidská práva chránit.
Umělá inteligence jako dobrý sluha, ale špatný pán
„AI může významně pomoci např. v monitorování dodržování a v prosazování lidských práv v oblasti korporátní odpovědnosti, posílení práva na spravedlivý proces odstraněním průtahů v řízení, ochrany zdraví a řadě dalších,“ vyjmenovává potenciál umělé inteligence koordinátorka projektu Martina Šmuclerová z Ambis, která působí i na pařížském Sciences Po.
Zároveň však upozorňuje na rizika. „Například nereprezentativní vstupní data a jejich nevyvážené zpracování může do AI technologie vnést tzv. algoritmickou předpojatost neboli diskriminační bias. To se může projevit např. ve výběrovém řízení do zaměstnání, policejním dohledu založeném na mechanismu rozpoznávání obličejů nebo při hodnocení úvěruschopnosti jednotlivců v bankovnictví. I nasazení AI systému v jiném, než v cílovém provozním prostředí, což se týká např. autonomních vozidel, může vnést riziko porušení lidských práv.“
Problémem může být podle výzkumníků také nevysvětlitelnost a netransparentnost modelů umělé inteligence. Pokud člověk namítající porušení lidského práva nemá přístup k informacím a důkazům, na jejichž základě o něm AI rozhodla, může být ohroženo právo na spravedlivý proces.
Právní regulace rizikových AI systémů
Právní regulace systémů na bázi umělé inteligence se nyní připravuje na úrovni Evropské unie v podobě Aktu o umělé inteligenci. Představen byl v dubnu 2021 jako součást širší iniciativy EU zaměřené na posílení regulačního rámce pro nové technologie. Návrh Evropské komise, který 14. 6. 2023 prošel hlasováním Evropského parlamentu, se zaměřuje na evidenci a regulaci vysokorizikových systémů, které mohou představovat hrozbu pro základní práva a bezpečnost občanů EU.
„Rizikovost nasazení systémů automatizace spočívá v jejich kvalitě zpracování a úloze, kterou řeší. To se s nástupem AI nemění. Významně se ovšem rozšiřují oblasti lidských činností a zpracování dat, které lze automatizovat,“ vysvětluje Luboš Král z Centra umělé inteligence FEL ČVUT.
Ačkoliv povinnost dodržovat lidská práva již vyplývá z mezinárodních právních norem, dosavadní výzkum odhalil, že více než 60 procent oslovených českých firem, které dodávají AI řešení a produkty, se lidskoprávní otázkou v kontextu AI vůbec nezabývá a není si těchto rizik vědoma (viz Dílčí výzkumná zpráva). Rychlý vývoj technologií a jejich nasazování do nejrůznějších oblastí navíc přináší zcela nové výzvy, jejichž praktické řešení se teprve vytváří.
„Nyní nám hlavně chybí osvěta. Ta je právě i cílem našeho projektu,“ říká Lukáš Kačena z iniciativy prg.ai, která se dlouhodobě věnuje budování povědomí o umělé inteligenci. „Značné jsou také potenciální dopady na samotného uživatele a je otázkou času, kdy se i v ČR objeví první stížnosti a žaloby na porušení lidských práv, jako se to už děje ve světě i v Evropě, a proto prevence je nutná,“ popisuje závažnost situace.
Doporučení pro firmy i státní správu
Jaké změny tedy vědci konkrétně navrhují? Cílem projektu není vytvářet nové právní normy, ale poskytnout praktická vodítka všem aktérům životního cyklu AI, aby dokázali převést lidskoprávní normy již platné a závazné v naší společnosti na automatizované systémy. Klíčové je zavedení mechanismu hodnocení rizik, který bude jádrem dvou souborů doporučení pro komerční subjekty a pro státní správu. Výzkumníci identifikovali 38 potenciálních rizik pro lidská práva ve všech fázích vývoje a provozování AI systému a pro každé nabízejí možnosti jejich prevence a eliminace.
Zároveň pro 16 vybraných hlavních oblastí porušování lidských práv ve společnosti navrhli nasazení různých typů AI technologií s adekvátní funkcí. Vědci tak i doporučí balíček potenciálních oblastí nasazení a možných AI aplikací, které přispějí k dalšímu posílení a ochraně lidských práv. Dále půjde o vymezení institucionálního a kompetenčního rámce včetně mapy přístupu k nápravným prostředkům.
„Soubory doporučení napomůžou praktické implementaci právně závazných norem, čímž je náš projekt komplementární i k probíhající iniciativě EU. AI Akt, jakožto obecný předpis, neřeší konkrétní technické provedení toho, jak má být rizikům pro lidská práva v konkrétním nasazení AI technologie předcházeno. Klíčovou roli budou hrát nástroje soft law, jako jsou kodexy chování, různé formy certifikací a podobně. A právě této úrovni poslouží výsledky našeho výzkumu,“ vysvětluje Jakub Míšek z Ústavu práva a technologií Masarykovy univerzity.
Průběžné závěry projektu zasazené do odborného rámce jsou publikovány v knize Artificial Intelligence and Human Rights, která vyjde v prestižním univerzitním nakladatelství Oxford University Press na začátku září. Na podzim 2023 také proběhne již druhý workshop s klíčovými aktéry na poli AI a lidských práv, na který se mohou přihlásit firmy i státní organizace, a zapojit se tak do finální podoby připravovaných souborů doporučení.
Zdroj: České vysoké učení technické v Praze
- Autor článku: ne
- Zdroj: České vysoké učení technické v Praze