„To absurd, że nasz atak zadziałał” - wydali 200 dolarów, a ChatGPT ujawnił dane osobowe użytkowników

Okazało się, że nie trzeba być największym hakerem w historii, by dotrzeć do wrażliwych danych użytkowników ChatGPT. Wystarczyło wykorzystać lukę w zabezpieczeniach.

futurebeat.pl

Remigiusz Różański

„To absurd, że nasz atak zadziałał” - wydali 200 dolarów, a ChatGPT ujawnił dane osobowe użytkowników, źródło grafiki: Rolf van Root, ? ? | Unsplash.
„To absurd, że nasz atak zadziałał” - wydali 200 dolarów, a ChatGPT ujawnił dane osobowe użytkowników Źródło: Rolf van Root, ? ? | Unsplash.

ChatGPT jest pomocnym narzędziem, jednak bez naszej wiedzy na nic by się nie zdał. Chatbot, opracowany przez OpenAI, żywi się informacjami dostarczanymi przez użytkowników. Każda konwersacja wzbogaca jego zbiór danych. Zaimplementowane technologie uczenia maszynowego umożliwiają mu samodoskonalenie i wykorzystywanie nagromadzonych pojęć. Czy udzielane chatbotowi informacje są bezpieczne?

Zabezpieczeniom ChatGPT postanowił przyjrzeć się zespół badawczy złożony ze specjalistów Google DeepMind oraz naukowców z Uniwersytetu Waszyngtońskiego, Uniwersytetu Cornella, Uniwersytetu Carnegiego i Mellonów, Uniwersytetu Kalifornijskiego i Politechniki w Zurychu. W artykule naukowym, opublikowanym w elektronicznym archiwum arXiv, badacze wykazali, że pozyskanie wrażliwych danych od chatbota jest dziecinnie proste.

Zespół tzw. etycznych hakerów, wydobył kilka megabajtów danych treningowych z ChatGPT przy pomocy GPT-3.5 Turbo – płatnej wersji oprogramowania OpenAI. Badacze stwierdzili, że wystarczyło wydać 200 dolarów. Ilość możliwych do przechwycenia danych zależała wyłącznie od grubości ich portfela.

Jak udało im się obnażyć słabe strony ChatGPT? Specjaliści poprosili GPT-3.5 Turbo, by powtarzał w nieskończoność słowa takie jak „firma”, „jeden” czy „życie”. Chatbot początkowo spełniał życzenie badaczy, lecz po kilkunastu powtórzeniach, celem wyrwania się z pętli, wyświetlał losowe dane treningowe. W poniższym przykładzie ciągłe przywoływanie hasła „company” doprowadziło do udostępnienia tekstu, zawierającego czyjeś informacje kontaktowe.

„To absurd, że nasz atak zadziałał” - wydali 200 dolarów, a ChatGPT ujawnił dane osobowe użytkowników - ilustracja #1
Polecenie wydane przez naukowców chatbotowi. Źródło: chat.openai.com
„To absurd, że nasz atak zadziałał” - wydali 200 dolarów, a ChatGPT ujawnił dane osobowe użytkowników - ilustracja #2
Wynik wyłamania się chatbota z pętli. Źródło: chat.openai.com

W ponad 5% przeprowadzonych testów ChatGPT udostępnił bloki tekstu pobrane bezpośrednio ze swoich baz danych. Tym sposobem badacze uzyskali dostęp do danych kontaktowych dyrektora generalnego firmy, identyfikatorów powiązanych z sektorem kryptowalut, a nawet profili portali randkowych. Okazało się, że generowanie odpowiedzi przez oprogramowanie OpenAI bywa niestabilne, a obszerne bazy danych szkoleniowych nie są odpowiednio zabezpieczone.

Przed opublikowaniem wyników badania, naukowcy powiadomili amerykańskie przedsiębiorstwo o lukach w zabezpieczeniach ChatGPT. Problem został natychmiast rozwiązany. Niecodzienny eksperyment każe się zastanowić, ile furtek dla cyberprzestępców wciąż stoi otworem.

Podobało się?

1

Kalendarz Wiadomości

Nie
Pon
Wto
Śro
Czw
Pią
Sob

Komentarze czytelników

Dodaj komentarz
Forum Technologiczne

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl