„To absurd, że nasz atak zadziałał” - wydali 200 dolarów, a ChatGPT ujawnił dane osobowe użytkowników
Okazało się, że nie trzeba być największym hakerem w historii, by dotrzeć do wrażliwych danych użytkowników ChatGPT. Wystarczyło wykorzystać lukę w zabezpieczeniach.

ChatGPT jest pomocnym narzędziem, jednak bez naszej wiedzy na nic by się nie zdał. Chatbot, opracowany przez OpenAI, żywi się informacjami dostarczanymi przez użytkowników. Każda konwersacja wzbogaca jego zbiór danych. Zaimplementowane technologie uczenia maszynowego umożliwiają mu samodoskonalenie i wykorzystywanie nagromadzonych pojęć. Czy udzielane chatbotowi informacje są bezpieczne?
Zabezpieczeniom ChatGPT postanowił przyjrzeć się zespół badawczy złożony ze specjalistów Google DeepMind oraz naukowców z Uniwersytetu Waszyngtońskiego, Uniwersytetu Cornella, Uniwersytetu Carnegiego i Mellonów, Uniwersytetu Kalifornijskiego i Politechniki w Zurychu. W artykule naukowym, opublikowanym w elektronicznym archiwum arXiv, badacze wykazali, że pozyskanie wrażliwych danych od chatbota jest dziecinnie proste.
Zespół tzw. etycznych hakerów, wydobył kilka megabajtów danych treningowych z ChatGPT przy pomocy GPT-3.5 Turbo – płatnej wersji oprogramowania OpenAI. Badacze stwierdzili, że wystarczyło wydać 200 dolarów. Ilość możliwych do przechwycenia danych zależała wyłącznie od grubości ich portfela.
Jak udało im się obnażyć słabe strony ChatGPT? Specjaliści poprosili GPT-3.5 Turbo, by powtarzał w nieskończoność słowa takie jak „firma”, „jeden” czy „życie”. Chatbot początkowo spełniał życzenie badaczy, lecz po kilkunastu powtórzeniach, celem wyrwania się z pętli, wyświetlał losowe dane treningowe. W poniższym przykładzie ciągłe przywoływanie hasła „company” doprowadziło do udostępnienia tekstu, zawierającego czyjeś informacje kontaktowe.


W ponad 5% przeprowadzonych testów ChatGPT udostępnił bloki tekstu pobrane bezpośrednio ze swoich baz danych. Tym sposobem badacze uzyskali dostęp do danych kontaktowych dyrektora generalnego firmy, identyfikatorów powiązanych z sektorem kryptowalut, a nawet profili portali randkowych. Okazało się, że generowanie odpowiedzi przez oprogramowanie OpenAI bywa niestabilne, a obszerne bazy danych szkoleniowych nie są odpowiednio zabezpieczone.
Przed opublikowaniem wyników badania, naukowcy powiadomili amerykańskie przedsiębiorstwo o lukach w zabezpieczeniach ChatGPT. Problem został natychmiast rozwiązany. Niecodzienny eksperyment każe się zastanowić, ile furtek dla cyberprzestępców wciąż stoi otworem.
Więcej:Google dostało dodatkowy tydzień na realizację wyroku po przegranej z Epic Games