Pracownicy Samsunga ujawnili tajne dane firmy używając ChatGPT

Inżynierowie Samsung Semiconductor przekonali się, jak niebezpieczne może być korzystanie z takich narzędzi, jak ChatGPT. Przy jego pomocy kilkukrotnie ujawnili tajne dane swego pracodawcy, w tym kod źródłowy zastrzeżonego programu.

futurebeat.pl

Marek Pluta

7
Pracownicy Samsunga ujawnili tajne dane firmy używając ChatGPT, źródło grafiki: Alexandra Koch/Pixabay.
Pracownicy Samsunga ujawnili tajne dane firmy używając ChatGPT Źródło: Alexandra Koch/Pixabay.

ChatGPT to jedna z najszybciej rozwijających się aplikacji historii, potrafi błyskawicznie tworzyć gry, ale również sprawdza się jako szef firmy. Niestety ma też swą ciemną stronę, a jest nią kwestia bezprawnego zbierania danych użytkowników, w tym poufnych informacji. Z tego powodu Włochy podjęły niedawno decyzję o zablokowaniu chatbota.

O tym jak bardzo niebezpiecznym narzędziem może być ChatGPT przekonali się pracownicy Samsung Semiconductor, którzy jak donosi portal Economist, nieświadomie ujawnili za jego pośrednictwem poufne dane. Samsung zezwolił inżynierom jednego z działów korzystanie z chatbota w celach służbowych, co okazało się niezbyt dobrym pomysłem. Doprowadziło to bowiem do trzech wycieków informacji. Teoretycznie liczba przypadków nie była duża, ale miały miejsce podczas zaledwie 20 dni korzystania z narzędzia, więc sprawa stała się poważna.

ChatGPT źródłem wycieków informacji

W pierwszym przypadku ChatGPT wykorzystano do poprawienia kodu źródłowego zastrzeżonego oprogramowania. Drugie zdarzenie miało miejsce, gdy inny pracownik wprowadził do chatbota wzorce testowe chcąc w ten sposób zidentyfikować wadliwe procesory i zażądał optymalizacji. Tymczasem sekwencje testów mające na celu znalezienie defektów są poufne. Za trzecim razem inny z pracowników wykorzystał aplikację Naver Clova do transkrypcji nagrania ze spotkania w dokument, a następnie przesłał do ChatGPT celem przygotowania prezentacji.

Pracownicy Samsunga ujawnili tajne dane firmy używając ChatGPT - ilustracja #1
ChatGPT może sprawiać problemy w nieodpowiedzialnych rękach. Źródło: Unsplash | Babak Habibi

Samsung bardzo poważnie potraktował całą sprawę, wprowadzając zmiany w polityce korzystania z chatbota, a także informując pracowników o zagrożeniach jakie może nieść ze sobą używanie tego narzędzia. Równocześnie firma planuje stworzyć własną usługę podobną w działaniu do ChatGPT, przeznaczoną do użytku wewnętrznego.

Powyższy przykład pokazuje jak niebezpieczne może być korzystanie z takich narzędzi. Użytkownicy wprowadzają bowiem do nich masę danych, często wrażliwych, nie zdając sobie nawet sprawy z tego komu je udostępniają i w jaki sposób zostaną następnie wykorzystane.

7

Marek Pluta

Autor: Marek Pluta

Od lat związany z serwisami internetowymi zajmującymi się tematyką gier oraz nowoczesnych technologii. Przez wiele lat współpracował m.in. z portalami Onet i Wirtualna Polska, a także innymi serwisami oraz czasopismami, gdzie zajmował się m.in. pisaniem newsów i recenzowaniem popularnych gier, jak również testowaniem najnowszych akcesoriów komputerowych. Wolne chwile lubi spędzać na rowerze, zaś podczas złej pogody rozrywkę zapewnia mu dobra książka z gatunku sci-fi. Do jego ulubionych gatunków należą strzelanki oraz produkcje MMO.

Xbox Game Pass traci świetny survival, w który koniecznie powinieneś zagrać

Następny
Xbox Game Pass traci świetny survival, w który koniecznie powinieneś zagrać

Ubisoft zamyka biura w Europie, Polska również na liście

Poprzedni
Ubisoft zamyka biura w Europie, Polska również na liście

Kalendarz Wiadomości

Nie
Pon
Wto
Śro
Czw
Pią
Sob

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl