Foto: Unsplash

Společnost OpenAI zastavila několik tajných operací zneužívajících umělou inteligenci

Společnost OpenAI uvedla, že zastavila pět tajných operací, které využívaly její modely umělé inteligence k podvodným aktivitám na internetu. Tyto operace, které OpenAI zastavila v letech 2023 až 2024, pocházely z Ruska, Číny, Íránu a Izraele a pokoušely se manipulovat veřejným míněním a ovlivňovat politické výsledky, aniž by odhalily svou skutečnou identitu nebo záměry. OpenAI uvedla, že na jejich zlikvidování spolupracovala se zaměstnanci technologického průmyslu, občanskými společnostmi a vládami.

Společnost odhalila, že generativní AI se nyní daleko více používá ke generování textů a obrázků určených k vytváření falešných komentářů k příspěvkům na sociálních sítích. Například ruská skupina nazvaná Doppelganger využívala modely společnosti k vytváření titulků, převádění zpravodajských článků na příspěvky na Facebooku a vytváření komentářů v několika jazycích s cílem podkopat podporu Ukrajiny.

Jiná ruská skupina použila modely společnosti OpenAI k odladění kódu pro bota na Telegramu, který zveřejňoval krátké politické komentáře v angličtině a ruštině a zaměřoval se na Ukrajinu, Moldavii, USA a pobaltské státy. Čínská síť Spamouflage, známá svými snahami o ovlivňování na Facebooku a Instagramu, využila modely OpenAI k výzkumu aktivit na sociálních sítích a generování textového obsahu v několika jazycích na různých platformách. Íránská Mezinárodní unie virtuálních médií rovněž využila AI ke generování obsahu v několika jazycích.

Zveřejnění společnosti OpenAI je podobné těm, která čas od času učiní jiné technologické společnosti. Ve středu například společnost Meta zveřejnila svou nejnovější zprávu, v níž podrobně popisuje, jak izraelská marketingová firma využívala falešné účty na Facebooku k vedení vlivové kampaně, která se zaměřovala na obyvatele v USA a Kanadě.

Zdroj: engadget.com