Foto: Unsplash

Vkládání citlivých dat do ChatGPT může být nebezpečné, své o tom vědí zaměstnanci Samsungu

Na první pohled se ChatGPT může zdát jako ideální nástroj pro celou řadu pracovních úkolů. Než však chatbota požádáte, aby vám shrnul důležité poznámky nebo zkontroloval, zda ve vaší práci nejsou chyby, je potřeba si uvědomit, že vše, co ChatGPT sdělíte, může být použito k jeho tréninku, a tedy se možná objeví i v jeho odpovědích jiným uživatelům. Přesně to je něco, co mělo vzít v potaz i několik zaměstnanců společnosti Samsung. Ti totiž údajně chatbotovi sdělili některé důvěrné informace společnosti.

Krátce poté, co polovodičová divize společnosti Samsung začala inženýrům umožňovat používání ChatGPT, mu pracovníci podle korejského The Economist nejméně třikrát vyzradili tajné informace. Jeden zaměstnanec údajně požádal chatbota, aby zkontroloval zdrojový kód citlivé databáze, zda neobsahuje chyby, druhý požádal o optimalizaci kódu a třetí vložil do ChatGPT záznam z porady a požádal ho o vygenerování zápisu.

Podle dostupných informací se zdá, že poté, co se společnost Samsung dozvěděla o těchto bezpečnostních přešlapech, pokusila se podobným přehmatům do budoucna předejít tím, že omezila množství dat, které mohou zaměstnanci ChatGPT předložit, a to na jeden kilobajt, což je 1024 znaků textu. Společnost prý také vyšetřuje tři dotyčné zaměstnance a vytváří vlastního chatbota, aby podobným situacím předešla.

V zásadách používání ChatGPT se uvádí, že pokud to uživatelé výslovně neodmítnou, společnost může použít vložená data k trénování svých modelů. OpenAI proto vyzývá uživatele, aby ChatGPT nesdělovali tajné informace, protože poté již nelze vymazat tato vložená data. Jediný způsob, jak se zbavit osobních údajů v ChatGPT, je smazat svůj účet, přičemž tento proces může trvat až čtyři týdny.

Zdroj: engadget.com