Vědci ukázali, že vytvořit psychopatické AI je překvapivě jednoduché

Strojové učení je velmi účinným nástrojem, který dokáže najít široké uplatnění, je však nutné s ním zacházet velice opatrně. Umělá inteligence totiž nezná pojem jako etika (pokud se jej sama nenaučí) a záleží především na vstupních datech, na nichž se algoritmus nové schopnosti učí. V minulosti musela společnost Microsoft vypnout svého AI chatbota poté, co jej uživatelé během několika dní naučili otevřenému rasismu, chválení stavby zdi mezi Mexikem a USA a podpoře konspiračních teorií.

Vědci z Massachusetts Institute of Technology (MIT) se nyní rozhodli vyzkoušet, jestli je možné vytvořit psychopatickou AI a ukázalo se to bohužel až příliš snadným úkolem. Pro svůj pokus vzali klasického bota, schopného na základě strojového učení rozpoznávat co vidí na obrázku. Protože jejich cílem bylo vytvořit psychopata, pojmenovali ho Norman (podle slavného hororu Psycho a pozdějšího seriálu).

Jako podklady k učení mu vybrali odvrácenou část velkého internetového fóra Reddit, která se zabývá fotografiemi násilí a mrtvých lidí. Po té co tam Norman získal znalosti potřebné k rozpoznávání obrázků, podrobili jej Rorschachovu testu známého z psychologie lidí. V něm pacient sděluje, co vidí na tabulkách s barevnými skvrnami. Normanovi výsledky srovnali výzkumníci s výsledky jiného bota, který se učil podle normálních obrázků. Rozdíly ve výsledku obou programů si můžete prohlédnout pod článkem.

Od počátku bylo jasné, že z Normana se se stane opravdu šílené AI, vědci svým experimentem chtěli demonstrovat jak je to jednoduché a jak základní data, na nichž se AI učí mohou poškodit interpretační kritéria. AI, které dnes hlídá Facebook nebo YouTuby by mohla velmi snadno přijmout předsudky a špatný obsah, pokud by jej jimi uživatelé zásobovali v dostatečné míře správným způsobem.

Zdroj: norman-ai.mit.edu