Zdroj: twitter.com/Chicken3gg

Nástroj AI, který z Obamy udělá automaticky bělocha, ukazuje přetrvávající podjatost umělé inteligence

Umělá inteligence pracující s daty obličeje má problém – nedokáže se zbavit určité podjatosti a „rasizmu“. Ukazuje to také nedávný pokus s algoritmem PULSE, který slouží ke generování obrazů tváře s vyšším rozlišením. Tvář Baracka Obamy v nízkém rozlišení totiž algoritmus automaticky upscaloval do vyššího rozlišení, přičemž výsledkem byla tvář bělocha.

A tento problém se netýká jen Obamy, podobný problém nastal při generování obrázků herečky Lucy Liu nebo senátorky Alexandrie Ocasio-Cortez. Výsledné obrázky se objevily na Twitteru s odkazem na nebezpečnost podjatosti umělé inteligence, která i po celé řadě kritik preferuje bělochy.

Abychom si uvědomili, proč dělá umělá inteligence takové chyby, je třeba zjistit, jak ve skutečnosti pracuje. Z různých kriminálek a dramat známe „vylepšovací tlačítka“, která dokáží z rozpixelovaného obrazu pouliční kamery vytvořit přesnou podobu zachycené osoby. Ve skutečnosti si musí umělá inteligence data, která ji chybí domyslet a de facto vytvořit novou tvář, která bude co nejpodobnější té rozpixelované.

Každá „depixalizace“ obrazu tak může být jiná. Algoritmus nehledá nové detaily tváře v dostupných datech, ale sám si je vytváří. Pulse tak v minulosti ukázal, jak by mohly vypadat v realitě obličeje hlavního hrdiny Wolfenstein 3D nebo Doom Guye z prvních dvou dílů.

Celý problém spočívá ve vstupním souboru dat, na němž se umělá inteligence učila. Z něj vyplývá, že bílé tváře jsou daleko častější, což z demografického hlediska může být pravda. Přesto se s pravděpodobností v případě rozpoznávání tváře nebo jejím generování nedá počítat. Objevují se i názory, že za nepřesnostmi stojí samotný algoritmus, nikoliv data. Problémy však ukazují, že umělá inteligence tak, jak ji známe dnes, nemůže bezchybně pracovat s lidskými tvářemi.

Zdroj: theverge.com