Foto: Unsplash

Přední světové společnosti se snaží zabránit umělé inteligenci, aby generovala materiály s tematikou sexuálního zneužívání dětí

Přední společnosti zabývající se umělou inteligencí, včetně společností OpenAI, Microsoft, Google, Meta a dalších, se společně zavázaly, že zabrání tomu, aby jejich nástroje umělé inteligence byly využívány ke zneužívání dětí a k vytváření materiálů týkajících se sexuálního zneužívání dětí (CSAM). Iniciativu vede skupina Thorn zabývající se bezpečností dětí a nezisková organizace All Tech Is Human, která se zaměřuje na odpovědné technologie.

Cílem iniciativy je zabránit vytváření sexuálně explicitních materiálů s účastí dětí a odstranit je z platforem sociálních médií a vyhledávačů. Podle skupiny Thorn bylo jen v USA v roce 2023 nahlášeno více než 104 milionů souborů s podezřením na materiál se sexuálním zneužíváním dětí. Generativní umělá inteligence je podle ní schopna tento problém ještě zhoršit a zahltit orgány činné v trestním řízení, které se již nyní snaží identifikovat skutečné oběti.

V úterý Thorn a All Tech Is Human vydaly nový dokument s názvem Safety by Design for Generative AI: Preventing Child Sexual Abuse, který představuje strategie a stanovuje doporučení pro společnosti, které vytvářejí nástroje umělé inteligence, vyhledávače, platformy sociálních médií, hostingové společnosti a vývojáře, aby přijali opatření k zabránění zneužívání generativní umělé inteligence k poškozování dětí.

Jedno z doporučení například vyzývá společnosti, aby pečlivě vybíraly datové sady používané k trénování modelů AI a vyhýbaly se těm, které obsahují případy CSAM, ale také sexuální obsah pro dospělé, protože generativní AI má tendenci tyto dva pojmy kombinovat. Společnost Thorn také žádá platformy sociálních médií a vyhledávače, aby odstranily odkazy na webové stránky a aplikace, které lidem zobrazují snímky nahých dětí. Záplava CSAM generovaných umělou inteligencí podle dokumentu ztíží identifikaci skutečných obětí pohlavního zneužívání dětí tím, že enormně zvětší množství materiálu, který je třeba prověřit.

Některé společnosti již souhlasily s oddělením obrázků, videí a zvuků, které se týkají dětí, od datových souborů obsahujících obsah pro dospělé, aby se zabránilo tomu, že jejich modely budou tyto dva obsahy kombinovat. Jiné také přidávají vodoznaky, aby identifikovaly obsah vytvořený umělou inteligencí, ale tato metoda není spolehlivá, vodoznaky a metadata lze totiž snadno odstranit.

Zdroj: engadget.com