Foto: Unsplash

Společnost OpenAI již výslovně nezakazuje používání umělé inteligence pro vojenské a válečné účely

Ještě před několika dny se na stránce se zásadami používání OpenAI výslovně uvádělo, že společnost zakazuje používání své technologie pro vojenské a válečné účely. Nyní byl tento řádek odstraněn. Jak si jako první všiml server The Intercept, společnost 10. ledna stránku aktualizovala. Stále zakazuje používání svých velkých jazykových modelů (LLM) k čemukoli, co může způsobit škodu, a varuje před používáním svých služeb k vývoji nebo používání zbraní. Společnost však odstranila větu týkající se přímo vojenských a válečných účelů.

Zajímavé je, že tato změna přichází právě v době, kdy vojenské agentury po celém světě projevují zájem o využívání umělé inteligence. „Vzhledem k použití systémů AI při útocích na civilisty v Gaze je rozhodnutí odstranit slova vojenské a válečné z politiky přípustného použití OpenAI pozoruhodným momentem,“ uvedla Sarah Myers Westová, výkonná ředitelka AI Now Institute.

Výslovná zmínka o vojenství a válčení v seznamu zakázaných použití naznačovala, že OpenAI nemůže spolupracovat s vládními agenturami, jako je ministerstvo obrany, které obvykle nabízí lukrativní smlouvy dodavatelům. V současné době společnost nemá produkt, který by mohl přímo někoho zabít nebo mu způsobit fyzickou újmu. Jak ale uvedl The Intercept, technologie by mohla být použita pro úkoly, které by mohly vést k zabíjení lidí.

Na dotaz ohledně změny formulace zásad mluvčí OpenAI Niko Felix sdělil, že cílem společnosti „bylo vytvořit soubor univerzálních zásad, které je snadné si zapamatovat i aplikovat“. Společnost OpenAI prý konkrétně uvádí, že AI nesmí být použita v rámci vývoje zbraní a ubližování ostatním, nicméně mluvčí údajně odmítl objasnit, zda zákaz používání této technologie k poškozování jiných zahrnuje všechny typy vojenského použití mimo vývoj zbraní.

Zdroj: engadget.com