ChatGPT může způsobit únik dat, zaměstnanci Samsungu mu svěřovali tajemství
5.4.2023, Milan Šurkala, aktualita
ChatGPT může být dobrým sluhou, ale je také rizikem. Společnost Samsung se s tím setkala už několikrát, kdy její zaměstnanci vyzradili chatbotovi interní informace, které by takovým způsobem rozhodně neměli sdílet.
Společnost Samsung řeší jeden problém s chatbotem ChatGPT. Umožnila jeho využívání zaměstnanci firmy pro zvýšení produktivity, nicméně ti s ním pracovali trochu jinak, než by měli. Jestli zapomněli na pravidla, jak s tímto systémem umělé inteligence vlastně pracovat, nebo je vedení v prvé řadě zapomnělo dostatečně stanovit, to nevíme. Zjistilo se nicméně, že zaměstnanci Samsungu minimálně ve třech případech chatbotovi svěřili interní informace, které by se mohly stát základem dalšího trénování systému a informace by se pak mohly dostat k dalším nepovolaným lidem.
Jeden ze zaměstnanců vložil do ChatGPT kód s tím, ať jej chatbot zoptimalizuje. Tento kód byl určen ke zjišťování výtěžnosti výroby a nalézání chyb ve výrobě. Druhý zaměstnanec do ChatGPT vložil kód k interní databázi s tím, ať v něm najde chyby a pomůže vyřešit jeho špatnou funkčnost. Ve třetím případě pak zaměstnanec do systému vložil přepisy z meetingů, ať z nich vytvoří zkrácené zápisy.
Samsung Electronics tak už vydal varování svým zaměstnancům, aby takové údaje do ChatGPT nevkládali, protože jakmile jsou data jednou odeslána, už jsou ukládána na externích serverech, ke kterým společnost nemá přístup a nemůže je získat zpět nebo smazat. Takový obsah se pak může dostat ven k lidem, kteří by k němu neměli mít přístup. Samsung také omezil velikost otázek, které mohou zaměstnanci systému pokládat, na 1024 bytů. Současně také plánuje vlastní vývoj podobného systému pro interní účely.