Facebook chce umělou inteligenci naučit, jak vypadá násilí, pomoci by měly záběry z policejní praxe

Umělá inteligence dnes dokáže díky vysokým výkonům výpočetní techniky mnoho věcí. Není pro ni problém zpracovávat a rozpoznávat videa v reálném čase. Problém však je, že pokud chce videa a jejich obsah poznat, musí jej nejdříve znát. A to může být někdy problém.

Společnost Facebook, která schopnosti umělé inteligence hojně využívá, čelí kritice za to, že v březnu nedokázala zabránit vysílání a šíření videa, které natočil terorista útočící na mešity na Novém Zélandu. Problém byl především v tom, že umělá inteligence nedokázala útok rozpoznat a identifikovat jako škodlivý obsah, protože násilí v této míře neměla naučené.

Zástupci Facebooku a dalších technologických společností budou v nejbližší době vypovídat před americkým Senátem právě na téma šíření násilného a nenávistného obsahu na svých platformách a Facebook tam hodlá představit nový plán.

Ten je vlastně poměrně jednoduchý a spočívá v tom, že se umělá inteligence naučí rozpoznávat násilí. Jako učící materiály přitom poslouží záběry z kamer, které Facebook rozdal členům newyorské metropolitní policie, protože její příslušníci se s bezprostředním násilím dostávají do kontaktu poměrně často. Navíc díky umístění kamery půjde o násilí viděné z pohledu první osoby, což by mohlo být pro učící algoritmus přínosné.

Vedení policie potvrdilo, že na projektu spolupracuje a je šťastné, že může pomoci s vývojem nové technologie. Nezávislí odborníci však namítají, že sebrat dostatek materiálu může systému trvat poměrně dlouho a současnou situaci je potřeba vyřešit v co nejkratším čase.

Zdroj: bbc.com