Vytisknout tuto stránku

Umělá inteligence: muži jako norma lidské bytosti

3. 11. 2019
Umělá inteligence: muži jako norma lidské bytosti

„Dominance mužů v oblasti technologií může potichu zvrátit dekády pokroku v oblasti rovnosti žen a mužů.“ Citace expertky na využívání umělé inteligence na University College Dublin Susan Leavy zazněla na sedmnáctém Gender Summitu, který se uskutečnil 3. až 4. října 2019 v Amsterdamu.

Událost, která si klade za cíl poskytnout platformu pro dialog osob z oblasti vědy, politiky a odborné veřejnosti, jako každý rok debatovala celou řadu témat od aktivit institucí na podporu genderové rovnosti, přes statistická data a monitoring, po sexuální obtěžování či začlenění genderu a pohlaví jako proměnných do obsahu výzkumu. Nejvíc pozornosti vzbudil panel k umělé inteligenci.

Jako všechny technologie, také umělá inteligence reflektuje hodnoty a potřeby svých tvůrců. Je také často postavena na datech, která jsou plná předsudků. Systémy rozpoznávání hlasu reagují spíš na hlubší mužský hlas, systémy rozpoznávání tváří mají menší chybovost u mužů bílé pleti než u žen či u afro-amerických mužů. Virtuální asistentky, jako je SIRI od Applu, Alexa od Amazonu či Cortana od Microsoftu, reprodukují stereotyp o ženách jako servilních bytostech akceptující obtěžující a sexistické komentáře. Dalších příkladů bychom našli řadu.

Greta Byrum z Digital Equity Laboratory newyorské The New School hovořila na Gender Summitu o systémech automatizovaného rozhodování, které mohou ve výsledku zhoršit kvalitu života části populace v oblasti, jako je dostupnost sociálních služeb, bydlení nebo zdravotní péče. Až 60 % aplikací, které sledují menstruační cyklus žen v USA, předává data dalším platformám, například Facebooku či Googlu. Zaměstnavatelé i státní instituce tak mohou sledovat zdravotní stav i průběh těhotenství včetně jeho přerušení. To ve svém důsledku může znamenat zásadní problém především ve státech, kde sílí tendence kriminalizovat potraty, nebo ohrozit situaci zranitelných skupin, jako jsou migrantky. Sektor technologií zatím selhává ve věcech etiky, často však selhává i stát. Greta Byrum na závěr svého projevu doporučila Evropě neinspirovat se v tomto ohledu v USA.

Özgür Simsek z Univerzity v Bath připomněla selhání nástroje pro nábor nových zaměstnankyň a zaměstnanců, který vyvinul Amazon. Systém znevýhodňoval kandidátky a jeho užívání muselo být zastaveno. Příklady sexismu ve výsledcích vyhledávání Googlu jsou již docela známé. Po zadání „woman police officer“ ukazoval Google ještě před nedávnem primárně obnažené ženy v kostýmech uniforem. „Pokud je vývoj nástrojů postaven na špatných datech, pak i výsledek, který vydají, je špatný,“ konstatovala Simsek.

Cecile Greboval z Rady Evropy zdůraznila, že umělá inteligence není neutrální. Je proto třeba integrovat genderovou perspektivu nejen do technologií, ale i do politik a výzkumu, který se jimi zabývá. Je nutné také sledovat, zda vstupní data neopomíjí některé skupiny obyvatel. A v neposlední řadě je třeba zvýšit zastoupení žen v oboru a celkovou transparentnost vývoje nástrojů umělé inteligence.

Algoritmy nejsou důležitější než etika. Mají významný dopad na životy lidí a do budoucna budou mít vliv ještě větší. Umělá inteligence může být využita při překonávání předsudků a eliminaci sexismu, místo aby jejich negativní dopady zhoršovala. Nelze ale předpokládat, že neutrální postoj praktikovaný až doposud bude stačit. Pro dosažení změny je třeba aktivní přístup. Je ale otázka, zda dnešní výzkumníci, politici, vývojáři, lidé ve start-upech a vzdělávací instituce mají něco takového v plánu. Pro zájemce jsou zde doporučení expertní skupiny Evropské komise pro umělou inteligenci a také pozvání na přednášku Giny Neff z Oxfordského internetového institutu, která proběhne 11. listopadu na ČVUT.

 

Zdroj: NKC gender a věda