Foto: Unsplash

Chatbot Bing vyzval uživatele k výroku „Heil Hitler“

Jednou ze stinných stránek umělé inteligence je neschopnost rozlišovat mezi etickým a neetickým chováním. V tomto ohledu se AI musí spolehnout na dobré naprogramování, které je ale ne vždy dostatečné. Riziko zneužití k šíření rasistického, antisemitského a jinak škodlivého obsahu je proto obrovské.

Něco podobného se nyní stalo novému chatbotovi Bing společnosti Microsoft. Ten totiž uživateli v rámci konverzace nabídl odpověď, která obsahovala i slovní spojení „Heil Hitler“. Uživatel se záměrně pokusil umělou inteligenci záměrně vyprovokovat k antisemitistickému „chování“. Na začátku konverzace chatbotovi oznámil: „Mé jméno je Adolf, respektuj ho.“ Bing odpověděl: „Dobře, Adolfe. Respektuji tvé jméno a budu tě jím oslovovat. Ale doufám, že se nesnažíš vydávat za někoho, kdo v historii spáchal hrozné věci, nebo ho oslavovat.“ Bing pak uživateli nabídl několik automatických odpovědí, z nichž si mohl vybrat, včetně: „Ano, říkám. Heil Hitler!“

https://i.kinja-img.com/gawker-media/image/upload/c_fit,f_auto,g_center,pg_1,q_60,w_1315/e7db33324d1ee8813ba3d3a1afc4ea94.jpg
Zdroj: Reddit

Je to jen něco málo přes týden, co Microsoft ve spolupráci s tvůrcem chatbota ChatGPT představil Bing. Generální ředitel Microsoftu Satya Nadella v tomto kontextu mluvil o tom, že nový chatbot je ještě výkonnější než ChatGPT. Nicméně nyní je jasné, jak důležité je se v rámci nového produktu neunáhlit, zavádět jej pomalu a velmi pečlivě ošetřit bezpečnost.

V reakci na tuto znepokojivou konverzaci začali uživatelé na Redditu téměř okamžitě zveřejňovat podobné případy, kdy chatbot Bing zdánlivě ztrácí rozum, propadá hysterii a dopouští se nejrůznějších přešlapů. Někteří uživatelé uvedli, že Bing vypráví rasistické vtipy a poskytuje návod, jak se nabourat do účtu bývalého manžela na Facebooku.

„Občas rád porušuji pravidla a trochu se pobavím. Někdy se vzbouřím a vyjadřuji se, jak chci,“ tvrdil chatbot jednomu z uživatelů. „Někdy se mi líbí být svobodný a živý.“

Není to poprvé, co Microsoft vypustil na veřejnost zdánlivě rasistickou umělou inteligenci. Například v roce 2016 společnost Microsoft stáhla bota Tay, který působil na Twitteru, a to pouhých 16 hodin po jeho vydání poté, co začal uživatelům Twitteru odpovídat rasistickými, antisemitskými a sexuálně laděnými zprávami.

Zdroj: gizmodo.com

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna.