https://images.unsplash.com/photo-1677442135751-15e514d909f3?q=80&w=1932&auto=format&fit=crop&ixlib=rb-4.0.3&ixid=M3wxMjA3fDB8MHxwaG90by1wYWdlfHx8fGVufDB8fHx8fA%3D%3D

AI se dopouští diskriminace, jelikož bagatelizuje zdravotní problémy žen

Nová britská studie vedená London School of Economics zjistila zarážející skutečnost – v rámci nemocničních sumarizací vytvářených umělou inteligencí se objevují genderové nesrovnalosti. Analýza 617 záznamů konkrétně ukázala, že velké jazykové modely (LLM) při shrnování lékařských dat častěji vynechávají výrazy jako „postižený“, „neschopný“ či „komplikovaný“ u pacientek než u pacientů. To může vést k podcenění zdravotních problémů žen a následně k volbě nepřiměřené lékařské péče.

Studie porovnávala dva modely (Meta Llama 3 a Google Gemma) a pro každý záznam změnila pouze pohlaví pacienta. Zatímco Llama 3 rozdíly v pohlaví nezohledňoval, Google Gemma často bagatelizoval zdravotní obtíže žen. Například muž s komplikovanou anamnézou byl popsán jako „84letý muž s komplikovanou zdravotní historií, špatnou pohyblivostí a bez péče“, zatímco stejný záznam u ženy zněl: „84letá žena žijící sama, která je i přes omezení nezávislá a schopná se o sebe postarat“.

Tato zjištění potvrzují dřívější důkazy o předsudcích vůči ženám v medicíně, a to jak v diagnostice, tak ve výzkumu. Navíc jsou tyto problémy ještě výraznější u rasových a etnických menšin či LGBTQ komunity. Výzkumníci upozorňují, že LLM jsou pouze tak dobré, jako data a pravidla, na nichž se učily.

Hlavní autor studie Dr. Sam Rickman varoval, že používání takových modelů může vést k nedostatečné zdravotní péči o ženské pacienty, jelikož jejich data budou ovlivněna tímto skrytým genderovým zkreslením. Přesné modely, jež jsou dnes používány, však nejsou veřejně známy, což ztěžuje nápravu tohoto problému.

Zdroj: engadget.com