Titkos céges adatokat szivárogtattak ki a ChatGPT-nek a Samsung dolgozói
Saját bőrén tapasztalta meg a Samsung – és annak néhány dolgozója –, hogy miért nem jó ötlet bizalmas adatokról beszélgetni a ChatGPT-vel.
A dél-koreai gyártó néhány munkatársa ugyanis rendkívül fontos, titkos információkról csevegett a chatbottal. Miközben azonban a munkájukhoz kértek segítséget a ChatGPT-től, valójában szivárogtattak: a chatbot mögötti nyelvi modellbe betáplált adatok ugyanis megmaradnak, és azokkal fejlesztik tovább azt.
A Samsung a félvezető-részleg mérnökeinek engedte meg, hogy a ChatGPT-vel ellenőrizzenek forráskódokat. A dél-koreai The Economist Korea szerint azonban az alkalmazottak három alkalommal is bizalmas információkat adtak ki a chatbotnak, egyszer például valaki egy egész forráskódot illesztett be hibakeresés céljából. Más a kód „optimalizálását” kérte a chatbottól, a harmadik esetben pedig egy meetingről készült felvételt táplálták be a ChatGPT-nek, hogy egy prezentációhoz készítsenek jegyzeteket.
A Samsung azonnal lépett, a ChatGPT feltöltési korlátját 1024 bájtra korlátozta (megelőzve ezzel minden bizonnyal a nagyobb fájlok, hosszabb kódok megosztását), az érintett munkavállalókkal szemben pedig vizsgálatot indított. Emellett azon is gondolkodnak a cégnél, hogy saját, belső felhasználású chatbotot fejlesztenek, hogy megelőzzék az ehhez hasonló incidenseket a jövőben – fűzi hozzá a Mashable.
A fenti eset is rávilágít arra, hogy miért aggódnak az adatvédelmi szakértők a ChatGPT miatt. A chatbottal megosztott információkat mind felhasználják a modell további fejlesztésére – így, bár hasznos lehet a szolgáltatás jogi szövegek vagy más, üzleti titoknak minősülő dokumentumok összefoglalására, de ezek az információk nem feltétlenül maradnak titokban.
Emlékezetes, Olaszország néhány hete éppen adatvédelmi aggályok miatt tette elérhetetlenné a ChatGPT-t az országban.