Pracownicy Samsunga ujawnili tajne dane firmy używając ChatGPT
Inżynierowie Samsung Semiconductor przekonali się, jak niebezpieczne może być korzystanie z takich narzędzi, jak ChatGPT. Przy jego pomocy kilkukrotnie ujawnili tajne dane swego pracodawcy, w tym kod źródłowy zastrzeżonego programu.

ChatGPT to jedna z najszybciej rozwijających się aplikacji historii, potrafi błyskawicznie tworzyć gry, ale również sprawdza się jako szef firmy. Niestety ma też swą ciemną stronę, a jest nią kwestia bezprawnego zbierania danych użytkowników, w tym poufnych informacji. Z tego powodu Włochy podjęły niedawno decyzję o zablokowaniu chatbota.
O tym jak bardzo niebezpiecznym narzędziem może być ChatGPT przekonali się pracownicy Samsung Semiconductor, którzy jak donosi portal Economist, nieświadomie ujawnili za jego pośrednictwem poufne dane. Samsung zezwolił inżynierom jednego z działów korzystanie z chatbota w celach służbowych, co okazało się niezbyt dobrym pomysłem. Doprowadziło to bowiem do trzech wycieków informacji. Teoretycznie liczba przypadków nie była duża, ale miały miejsce podczas zaledwie 20 dni korzystania z narzędzia, więc sprawa stała się poważna.
ChatGPT źródłem wycieków informacji
W pierwszym przypadku ChatGPT wykorzystano do poprawienia kodu źródłowego zastrzeżonego oprogramowania. Drugie zdarzenie miało miejsce, gdy inny pracownik wprowadził do chatbota wzorce testowe chcąc w ten sposób zidentyfikować wadliwe procesory i zażądał optymalizacji. Tymczasem sekwencje testów mające na celu znalezienie defektów są poufne. Za trzecim razem inny z pracowników wykorzystał aplikację Naver Clova do transkrypcji nagrania ze spotkania w dokument, a następnie przesłał do ChatGPT celem przygotowania prezentacji.

Samsung bardzo poważnie potraktował całą sprawę, wprowadzając zmiany w polityce korzystania z chatbota, a także informując pracowników o zagrożeniach jakie może nieść ze sobą używanie tego narzędzia. Równocześnie firma planuje stworzyć własną usługę podobną w działaniu do ChatGPT, przeznaczoną do użytku wewnętrznego.
Powyższy przykład pokazuje jak niebezpieczne może być korzystanie z takich narzędzi. Użytkownicy wprowadzają bowiem do nich masę danych, często wrażliwych, nie zdając sobie nawet sprawy z tego komu je udostępniają i w jaki sposób zostaną następnie wykorzystane.
Więcej:Wikipedia traci czytelników. Google podkrada ruch, AI podcina skrzydła, Elon Musk odpala Grokipedię
Komentarze czytelników
pieterkov Senator

Ciekawe skąd samsung się o tym dowiedział. Szpiegowali pracowników i później weryfikowali co kto wpisywał do tego chatu? czy openai ich sprzedało i poinformowało kierownictwo?
keeper_4chan Generał

Artykuł w skrócie mówi o tym, że narzędzia analityczne nie są dla głupich/nieodpowiedzialnych osób.
Wronski Senator

Pracownicy sa tak leniwi ze az korzystaja z ChatGPT XD
mkk3a Legionista
"ChatGPT źródłem wycieków informacji". Serio? Serio???? To jakby ktoś wyrzucił dokumenty to zwykłego kontenera na śmieci a potem byście pisali nagłówki "kontenery na śmieci źródłem wycieków informacji".
Felipesku Konsul
Znów słyszymy o Samsungu. Moim zdaniem to reklama. Ich prawdziwe tajemnice są dobrze strzeżone. Nie dajcie sobie kijem mieszać w głowie. Co chcą to ujawnią, a to na czym im zależy to w życiu się nie dowiecie, są na to specjalne normy.
Swoją drogą, ChatGPT jest chyba najlepszym przykładem jak zablokować możliwość inwestowania zwykłym ludziom w technologię. Zrobili to jako projekt niekomercyjny i tym samym pozbawili mnie możliwości kupienia akcji... A ci co są bogaci mogli w to włożyć kasę aby jeszcze więcej zyskać. Mendy... A sama technologia? Objawienie. Chętnie zainwestowałbym w tą firmę wszystkie moje oszczędności aby mięs godna emeryturę... Ale nie, oni sprytnie wiedzieli że to jest dobre i nie dali ludziom szansy na zyski. Co ważne, skomercjalizowano projekt ale był non-profit do 2020 więc nie mogłem nic zrobić aby w to wejść... Mendy. Ktoś powinien za kare im to ukraść.