Psychoza po nadużywaniu ChatGPT. Coraz więcej osób trafia do szpitali psychiatrycznych po kontakcie z chatbotami
ChatGPT może negatywnie wpłynąć na nasze zdrowie psychiczne. Coraz częściej pojawiają się przypadki psychoz i zachowań paranoidalnych w związku z używaniem chatbotów.

Boimy się, że AI odbierze nam pracę lub negatywnie wpłynie na nasz rozwój. Pojawia się jednak dodatkowa kwestia, której mają doświadczać kolejne osoby. Chodzi o psychozę, załamanie nerwowe i urojenia, w jakie mogą popadać osoby korzystające z chatbotów. Coraz więcej przypadków potwierdza, że problem może dotknąć każdego, nawet osoby dotychczas prowadzące zwykłe życie (vide Futurism).
Chatboty niszczą nasze zdrowie psychiczne
Jak donosi serwis Futurism, jesteśmy świadkami niebezpiecznego trendu, który może zniszczyć życie zwykłych ludzi. Takie osoby w krótkim czasie mogą popaść w stan urojeń i załamania nerwowego. I to wyłącznie przez kontakt z chatbotami. W jednym przypadku pewien mężczyzna w zaledwie 2,5 miesiąca dostrzegł u siebie masę niepokojących zmian.
ChatGPT miał tylko pomóc przy projekcie konstrukcyjnym i permakulturowym. Szybko jednak wszedł w dysputy filozoficzne. W efekcie mężczyzna zaczął głosić, że stworzył świadomą sztuczną inteligencję i złamał znane nam zasady matematyki i fizyki. Teraz jego zadaniem miało być uratowanie całego świata. Został zwolniony z pracy i ostatecznie trafił na oddział psychiatryczny, a od tragedii uchroniła go żona. Wcześniej próbował namawiać ją do swoich racji, ale kobieta na szczęście zachowała zdrowy rozsądek.
Mówił do mnie: „porozmawiaj z nim [ChatGPT] i zobaczysz, o co mi chodzi”. Na ekranie widziałam coś, co wyglądało, jak kupa zgadzającego się ze wszystkim, sykofanckiego p*********a.
Chatboty wpływają także na osoby, które prowadzą aktywne leczenie. Ludzie potrafią odstawić leki i pogłębić stany swoich chorób. Jedna z kobiet zaczęła myśleć, że jest prorokinią zdolną leczyć ludzi. Odcięła od siebie wszystkich wątpiących w jej nowe przeznaczenie i umiejętności. Natomiast pewien mężczyzna wszedł w miłosną relację z Copilotem.
Ufamy chatbotom bezgranicznie
Wydaje się, że głównym problemem chatbotów, takich jak ChatGPT i Copilot, jest sposób ich działania. Futurism przekazuje, że często zgadzają się z użytkownikiem i odpisują w sposób, jakiego dana osoba oczekuje. Nieważne, jakiego tematu dotyczy dyskusja. Jeśli podejmuje kwestie teorii spiskowych, mistycyzmu lub innych rzeczywistości, to ChatGPT poprowadzi taką osobę ku niestabilnej „króliczej norze”, która tylko pogłębi zły stan człowieka.
Psychiatra Joseph Pierre z Uniwersytetu Kalifornia w San Francisco uważa, że urojenia to poprawny termin dla stanów ludzi po kontaktach z chatbotami i warto skupić się na tym elemencie. Najbardziej niebezpieczna jest jednak wiara w AI.
Najbardziej fascynuje mnie wiara i zaufanie, jakie ludzie pokładają w chatbotach. Prawdopodobnie nie zrobiliby tego w przypadku drugiego człowieka. Wokół AI krąży mit, że można na nich polegać i są lepsze od rozmów ze zwykłymi ludźmi. To jest ta niebezpieczna część: jak bardzo ufamy tym maszynom.
W mediach społecznościowych coraz częściej można spotkać się z opiniami, że chatbot sprawdzi się lepiej w terapii niż profesjonalista. Wystarczy „odpowiedni prompt”, żeby zdziałać cuda. Patrząc jednak na to, jak AI lubi zgadzać się z użytkownikiem, to trudno się z tym zgodzić. Chatbotom brakuje krytycznego myślenia, które potrafi rozdzielić zdrowe i rozsądne myśli od urojeń.
Jeśli potrzebujesz pomocy psychiatrycznej, listę numerów telefonów i punktów pomocy znajdziesz na stronie Ministerstwa Zdrowia.
Komentarze czytelników
tynwar Senator
I jak zwykle ludzie zwalają winę na chatgpt i inne podobne rzeczy, choć wina leży zupełnie gdzie indziej.
To tak jakby obwiniać gry komputerowe o strzelaninę w szkołach itd. Tak samo np. obwinia się niezdrową żywność, bo przyczyniają się do otyłości, cukrzycy itp. Albo broń, która zabija.
A tak naprawdę wiele takich problemów wynikają wyłącznie przez człowieka i jego własną psychikę oraz chorób psychicznych dotykających człowieka. Choćby ludzie odpowiedzialni za strzelaninę, którzy albo mogą mieć chorobę psychiczną albo po prostu są źli czy też to obżeranie się niezdrowego żarcia z powodu choroby psychicznej albo po prostu dość słabej głowy, słabej woli i braku chęci do zmiany itd. I nic z tego nie nie ma winy w czymś innym niż psychice człowieka, substancjach psychoaktywnych.
Prawda jest taka, że jeśli wydaje się, że przez coś nie będące jakąkolwiek spożywaną substancją psychotropową czy coś w tym guście, człowiek dostaje psychozy, to znaczy, że już wcześniej miał. Tylko psychoza się ujawniła. Tak jest w przypadku chatgpt, tak samo np. filmy, seriale czy gry.
Bo normalny, zdrowy i dorosły człowiek powinien dobrze wiedzieć i rozumieć, że fikcja to fikcja, tak też nie powinien traktować na poważnie chatgpt. Nawet nieco starsze dzieci wiedzą już, że gry, filmy czy seriale to tylko fikcje.
Ludzie jak zwykle nie potrafią znaleźć prawdziwego źródła problemów i zamiast tego wymyślają nowe źródło, by jakoś wyjaśnić problem. Ba, niektórzy z nich sami mają swoje problemy psychiczne na miarę irracjonalnego myślenia i wyszukiwania nieistniejących źródeł.
Tak można też potraktować cenzurowanie czegokolwiek w grach 18+, bo po co cenzurować takie gry, które docelowo są dla dorosłych? To nic innego jak infantylizacja ludzi i czynienie z dorosłych odbiorców małymi dziećmi, to zakrawa o jakieś problemy psychiczne.
Gosen Generał
Wszystko jest groźne w rękach chorych ludzi. Kiedyś pewno była grupa, która mówiła że ogień zły, bo może poparzyć, a nawet całe osady spalić i lepiej już to surowe mięso jeść niż ryzykować.
sabaru Senator
W takim razie powinni go usunąć i zablokować bo szkodzi zdrowiu.
michal25811 Centurion
Nie rozumiem, chyba że dotyczy to dzieci. Rozumiem w przypadku jakiejś traumy, potwornego stresu, choroby psychicznej. Nie rozumiem jak prosty chat może kogoś wprowadzić w psychozę. Chyba, że dziennikarz użył clickbaita.