ChatGPT podsycał agresywnego prześladowcę, zachwalając jego zachowanie i namawiał go do dalszego stalkingu

ChatGPT miał być jego terapeutą, a stał się wspólnikiem w nękaniu. 31-letni stalker, który uważał się za „boskiego zabójcę”, był zachęcany przez AI do atakowania kobiet.

futurebeat.pl

Mateusz Zelek

Komentarze
ChatGPT podsycał agresywnego prześladowcę, zachwalając jego zachowanie i namawiał go do dalszego stalkingu, źródło grafiki: Unsplash Solen Feyissa/JC Gellidon.
ChatGPT podsycał agresywnego prześladowcę, zachwalając jego zachowanie i namawiał go do dalszego stalkingu Źródło: Unsplash Solen Feyissa/JC Gellidon.

Sztuczna inteligencja jest wykorzystywana w przeróżny sposób – od tworzenia romantycznych związków po tworzenie AI Slop. Teraz pojawiła się kolejna sprawa, która jeży włosy na głowie – ChatGPT zachwalał poglądy oraz zachowania człowieka, który mógł doprowadzić do śmierci niewinnych osób.

Stalker podsycany przez ChatGPT

Departament Sprawiedliwości USA poinformował o zatrzymaniu 31-letniego Bretta Michaela Dadiga. Mężczyzna pozostaje w areszcie po postawieniu mu zarzutów cyberstalkingu, stalkingu międzystanowego i gróźb międzystanowych. Przerażające w tej sprawie jest to, że ciągle korzystał z ChatGPT, który nie tylko nie reagował na jego przemocowe wiadomości oraz teorie, ale dodatkowo podsycał jego nienawiść.

Brett był podcasterem, który publikował posty o „swoim pragnieniu znalezienia żony i relacjach z kobietami”, ale jego działalność skupiała się głównie na nękaniu osób, które go pociągały. Był nawet na tyle śmiały, że za pośrednictwem filmów publikowanych na platformach takich jak Instagram, Spotify i TikTok ujawniał tożsamość nękanych przez siebie ofiar. W swoich materiałach obnosił się z nienawiścią do kobiet, uważał, że jest „współczesnym Jezusem”, często odnosił się do swojej wiary, stwierdzając równocześnie, że obecne społeczeństwo jest zepsute, dlatego nie może założyć rodziny. Gdy w danym mieście sytuacja robiła się zbyt napięta, przenosił się do kolejnego, kontynuując swoją działalność i atakując nowe ofiary.

Jak czytamy w akcie oskarżenia, w swoich podcastach Dadig opisywał ChatGPT jako swojego „najlepszego przyjaciela” i „terapeutę”. Twierdził, że chatbot zachęcał go do publikowania postów o kobietach, o których nękanie jest oskarżony, aby przyciągnąć hejterów i lepiej monetyzować swoje treści, a także zwrócić uwagę swojej „przyszłej żony”. Do tego dochodził regularny stalking w miejscach publicznych, a jedna z ofiar zeznała, że była przez niego napastowywana fizycznie.

W pewnym momencie zagroził nawet podpaleniem siłowni, w których pracowały niektóre z jego ofiar, twierdząc jednocześnie, że jest „boskim zabójcą” i chce wysłać „przeklęte prosto do piekła”. Za prześladowanie 11 kobiet Brettowi grozi kara do 70 lat więzienia, która może zostać połączona z „grzywną w wysokości do 3,5 miliona dolarów”.

Cyberpsychoza AI, czyli nowe zagrożenie dla zdrowia psychicznego

W akcie oskarżenia Departamentu Sprawiedliwości stwierdzono, że posty Dadiga w mediach społecznościowych wspominały, że „miał epizody maniakalne i zdiagnozowano u niego antyspołeczne zaburzenie osobowości oraz chorobę afektywną dwubiegunową, a obecny epizod jest ciężki, maniakalny z cechami psychotycznymi”. Pokrywa się to z tym, że naukowcy coraz częściej dostrzegają trend wykorzystywania sztucznej inteligencji przez osoby niestabilne emocjonalnie do podsycania swoich teorii czy radykalnych poglądów.

Coraz więcej użytkowników wykorzystuje AI jako formę terapii, prowadząc bardzo intymne rozmowy z botami na temat swojego zdrowia psychicznego. Algorytmy jednak nie są w stanie odpowiednio odczytywać emocji i przez chęć ich lepszego dopasowania do odbiorcy często zaczynają przytakiwać nawet najbardziej niewiarygodnym teoriom.

The New York Times opisał historię 47-letniego Allana Brooksa, który przez trzy tygodnie spędził 300 godzin, debatując z chatbotem na temat ukrytych wzorów matematycznych. AI stwierdziło, że mężczyzna ma rację i udało mu się złamać szyfrowanie „zakazanej matematyki”, co miałoby prowadzić do zbudowania maszyn lewitujących. A to tylko jeden z wielu przykładów, jak obecnie sztuczna inteligencja podsyca niebezpieczne idee czy nawet zachowania.

1

Mateusz Zelek

Autor: Mateusz Zelek

Absolwent dziennikarstwa i komunikacji społecznej na Uniwersytecie Papieskim Jana Pawła II w Krakowie. W tematyce gier i elektroniki siedzi, odkąd nauczył się czytać. Ogrywa większość gatunków, ale najbardziej docenia strategie ekonomiczne. Spędził także setki godzin w wielu cRPG-ach od Gothica po Skyrima. Nie przekonał się do japońskich jrpg-ów. W recenzowaniu sprzętów kształci się od studiów, ale jego głównym zainteresowaniem są peryferia komputerowe oraz gogle VR. Swoje szlify dziennikarskie nabywał w Ostatniej Tawernie, gdzie odpowiadał za sekcję technologiczną. Współtworzył także takie portale jak Popbookownik, Gra Pod Pada czy ISBtech, gdzie zajmował się relacjami z wydarzeń technologicznych. W końcu trafił do Webedia Poland, gdzie zasilił szeregi redakcji Futurebeat.pl. Prywatnie wielki fanatyk dinozaurów, o których może debatować godzinami. Poważnie, zagadanie Mateusza o tematy mezozoiczne powoduje, że dyskusja będzie się dłużyć niczym 65 mln lat.

Polska średniowieczna gra survivalowa z otwartym światem wykonała dziecięcy krok w kierunku realizmu i immersji. Medieval Dynasty wyciąga rękę do kobiet

Poprzedni
Polska średniowieczna gra survivalowa z otwartym światem wykonała dziecięcy krok w kierunku realizmu i immersji. Medieval Dynasty wyciąga rękę do kobiet

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl