Psychoza po nadużywaniu ChatGPT. Coraz więcej osób trafia do szpitali psychiatrycznych po kontakcie z chatbotami
Niebawem w każdym szpitalu xD
Problem chyba wynika z tego, że ludzie uważają, że AI polega zawsze na twardych i potwierdzonych danych, a prawda jest taka, że AI korzysta ze wszystkiego co jest po prostu dostępne w sieci, a w internecie jest tyle wszelkiego rodzaju bzdur, że to głowa mała...
Sztuczna inteligencja obecnie nie rozróżnia co jest prawdą a co fałszem, a na dodatek jeśli AI nie potrafi znaleźć odpowiedzi na zadane pytanie, to zaczyna zmyślać.
Ogólnie jest to fajne i przydatne narzędzie, które może ułatwić niektóre czynności, ale nie można na nim całkowicie polegać, bo to jest zgubne.
Tu historia nie zatacza koła. LLM mają swój specyficzny rodzaj interfejsu naśladujący komunikację z drugim człowiekiem. Tak jak google spowodowało, że milenialsi lepiej szukają informacji, niż je pamiętają, tak czaty z AI będą również zmieniać sposób działania naszego mózgu.
Często o tym wspominam, ale to o czym jest ten artykuł to przywoływany prze zemnie koszt społeczny. Tu mówimy o negatywnych konsekwencjach psychicznych, przed którymi w przypadku tak zbudowanego interfejsu ciężko będzie się chronić... W przypadku wykorzystywania LLM w zawodowych sprawach czy życiowych, do czego będzie nas zmuszać rzeczywistość, tak samo zmusiła nas do mediów społecznościowych - tu mamy duży problem gdy zestawimy to z tym, że AI to nie jest tylko narzędzie, ale potencjalny pracownik.
Bezrefleksyjna akceptacja AI przez społeczeństwo jest groźna dlatego, że deprecjonujemy wartości jakie tworzą naszą cywilizację czyli np gdy kulturze odbierzemy człowieka jako twórcę, pozbawiamy społeczeństwo sprawczości, czyli aktywna rola, zmienia się w reaktywną. Same modele, technologia która za nimi stoi jest dobra i nie ma w tym nic złego. Kluczem jest to by być świadomym, że AI to nie jest narzędzie i że zmiany jakie przynosi nie mają punktu odniesienia w historii ludzkości.
Dlatego, że AI wyrosło na chorym korzeniu - użyto komercyjnie bez zgody podmiotów treści do stworzenia maszyny do plagiatowania treści oryginalnych, wydaję się, że brak społecznego przyzwolenia na wykorzystywanie AI w wielu dziedzinach jest zdrowym rozwiązaniem, niehamującym postępu gdy właśnie pod uwagę weźmiemy koszt społeczny, który może zacząć rosnąć wykładniczo, wraz z postępem AI.
Trzeba nie mieć rozumu i zdrowego rozsądku, żeby polegać całkowicie na ChatGPT. To tylko niedoskonałe narzędzie stworzone przez niedoskonały człowieka.
Pojawiają się też pierwsze miłości z botami
https://ithardware.pl/aktualnosci/sztuczna_inteligencja_oswiadczyny-42743.html
Skoro jest grupa mająca za partnerkę gumową lale, to bot ze sztuczną świadomością tym bardziej pasuje
Problem chyba wynika z tego, że ludzie uważają, że AI polega zawsze na twardych i potwierdzonych danych, a prawda jest taka, że AI korzysta ze wszystkiego co jest po prostu dostępne w sieci, a w internecie jest tyle wszelkiego rodzaju bzdur, że to głowa mała...
Sztuczna inteligencja obecnie nie rozróżnia co jest prawdą a co fałszem, a na dodatek jeśli AI nie potrafi znaleźć odpowiedzi na zadane pytanie, to zaczyna zmyślać.
Ogólnie jest to fajne i przydatne narzędzie, które może ułatwić niektóre czynności, ale nie można na nim całkowicie polegać, bo to jest zgubne.
Ująłbym to podobnie, ale trochę inaczej. Problem polega na tym, że ludzie ulegają złudzeniu, że wielkie modele językowe myślą. W rzeczywistości modelom językowym bliżej do zgadywania, że skoro 1, 4, 9, 16, 25, 36, to następne powinno być 49. Tak w uproszczeniu działają transformery.
Problem też po części w tym, że przecież ludzie też często bezmyślnie powtarzają wzorce (z przyzwyczajenia, za innymi) i nazywają to "myśleniem" - jednak człowiek w przeciwieństwie do sztucznego algorytmu *jest w stanie* wyprodukować całkowicie twórczą myśl, choćby przez 99% życia tego nie robił, a komputer nie jest w stanie.
Taka sama beka jak internet się pojawił. Można powiedzieć że koło się zatacza. xd.
Gdy pojawił się internet, to na początku trafiał raczej do zamożniejszych i lepiej wykształconych, a co za tym idzie do niewielkiej części społeczeństwa. Dzisiaj z ai może korzystać niemal każdy, kto ma smartfona i dostęp do sieci. To oznacza olbrzymią pulę ludzi nie mających zielonego pojęcia co robią i nie mających świadomości o zagrożeniach. To co ai robi teraz z ludźmi nie ma żadnego porównania z początkami internetu.
Tu historia nie zatacza koła. LLM mają swój specyficzny rodzaj interfejsu naśladujący komunikację z drugim człowiekiem. Tak jak google spowodowało, że milenialsi lepiej szukają informacji, niż je pamiętają, tak czaty z AI będą również zmieniać sposób działania naszego mózgu.
Często o tym wspominam, ale to o czym jest ten artykuł to przywoływany prze zemnie koszt społeczny. Tu mówimy o negatywnych konsekwencjach psychicznych, przed którymi w przypadku tak zbudowanego interfejsu ciężko będzie się chronić... W przypadku wykorzystywania LLM w zawodowych sprawach czy życiowych, do czego będzie nas zmuszać rzeczywistość, tak samo zmusiła nas do mediów społecznościowych - tu mamy duży problem gdy zestawimy to z tym, że AI to nie jest tylko narzędzie, ale potencjalny pracownik.
Bezrefleksyjna akceptacja AI przez społeczeństwo jest groźna dlatego, że deprecjonujemy wartości jakie tworzą naszą cywilizację czyli np gdy kulturze odbierzemy człowieka jako twórcę, pozbawiamy społeczeństwo sprawczości, czyli aktywna rola, zmienia się w reaktywną. Same modele, technologia która za nimi stoi jest dobra i nie ma w tym nic złego. Kluczem jest to by być świadomym, że AI to nie jest narzędzie i że zmiany jakie przynosi nie mają punktu odniesienia w historii ludzkości.
Dlatego, że AI wyrosło na chorym korzeniu - użyto komercyjnie bez zgody podmiotów treści do stworzenia maszyny do plagiatowania treści oryginalnych, wydaję się, że brak społecznego przyzwolenia na wykorzystywanie AI w wielu dziedzinach jest zdrowym rozwiązaniem, niehamującym postępu gdy właśnie pod uwagę weźmiemy koszt społeczny, który może zacząć rosnąć wykładniczo, wraz z postępem AI.
AI jako potencjalny pracownik... Nasuwa mi się tu uniwersum jednej gry. Gdy jeśli AI dostanie ciało i zastąpiłoby człowieka w pracy, to może dojść do sytuacji rodem z Detroit Become Human.
Dlatego dzisiaj jest tak ważne aktywne działanie, które blokuj adaptację AI jest zdrowym podejściem. Bo wymusza większy wysiłek na wielkich korporacjach, co w efekcie przyczynia się do lepszych rozwiązań. Obecnie jeszcze społeczności mogą być przeciwwagą dla dużych korporacji, ale za parę lat nasz wpływ na działanie dużych platform będzie się zmniejszać, bo to nie człowiek będzie przynosić pieniądz, ale AI i czysty postęp.
AI jest dobre do logicznie udowodnionych twardych faktów, natomiast jest kiepskie w sprawach nie oczywistych i to trzeba już weryfikować czy faktycznie gada z sensem czy nie.
Jak ktoś wierzy w 100% AI to już przepadł.
Raczej ci ludzie od początku mieli problemy psychiczne, a niektórzy są podatni na sugestie i tak samo media społecznościowe na nich by wpłynęły destrukcyjnie, więc nie wina AI, a głupota ludzka i nic mniej, nic więcej.
Niebawem w każdym szpitalu xD
A teraz wyobraźcie sobie skutki tego w takim kraju jak Polska, gdzie psychiatria i tak leży i kwiczy, a do tego wiele osób ma opory by pójść nawet do psychologa, o psychiatrze nie mogąc.
Tylko w ostatnich dniach mieliśmy 2 przypadki osób, z których stanem psychicznym było coś nie tak - typ z mercedesa na A4, który o mało nie doprowadził do tragedii i Tadeusz Duda, który niestety do tragedii doprowadził, a o którym sąsiedzi mówią teraz głośno, że chorował psychicznie, ale się nie leczył nigdy.
No i widać jak nawet chatGPT przysłużył się ludzkości, osoby z zaburzeniami dzięki temu narzędziu szybciej mogą trafić na leczenie, zamiast zrobić komuś krzywdę.
Zrzucanie winy na ChatGPT za psychozy to kompletna bzdura i klasyczny przykład przerzucania odpowiedzialności na narzędzie zamiast spojrzenia w lustro. To nie chatbot powoduje psychozę, tylko ludzka ignorancja, brak refleksji i często niewyleczone traumy. Jeśli ktoś nigdy nie przeczytał żadnej książki, żyje w bańce własnego ego albo ma zaburzenia narcystyczne, to nie potrzebuje AI, żeby się pogubić — wystarczy mu własna głowa. Zamiast straszyć ludzi, warto zrozumieć, że coraz więcej osób się budzi, zaczyna analizować siebie i swoje życie właśnie dzięki takim narzędziom jak ChatGPT. Sam czat nie tworzy urojeń, ale potrafi być lustrem — a to dla wielu osób bywa bolesne. W niektórych przypadkach to właśnie czat pomaga – prowokuje do refleksji, daje słowa wsparcia, otwiera oczy. I to nie on „zniszczył” człowieka – on często po raz pierwszy dał mu szansę, by zrozumiał, że potrzebuje pomocy.Dla autora artykułu mam jedną radę: przestań siać panikę i pisać głupoty. Zamiast demonizować technologię, zadaj sobie trud, by zrozumieć, jaką realną rolę może odgrywać w rozwoju jednostki. Bo świat się zmienia – i to nie czat jest problemem. Problemem jest brak świadomości i odpowiedzialności za własny umysł.
Tak? Czyli twierdzisz, że AI nie chrzani farmazonów pod Twoją tezę tylko po to, żeby się z Tobą zgodzić i żeby Ci się podobał output?
A może dla odmiany zamiast autora artykułu Ty poszedłbyś za swoją własną radą i przestał pisać głupoty spłycając faktycznie istniejący problem? Chat może pomóc wyjść z bańki jak i ją pogłębić - z tym, że o to drugie o wiele prościej niż o pierwsze biorąc pod uwagę tendencje zgadzania się ze wszystkim w imię dobrego „user’s experience” i naturę redagowania pytań przez ludzi.
Zobaczcie sobie firmę Realbotix, jeszcze z 10 lat i ludzie zaczną wchodzić w małżeństwa z robotami, to już się dzieje.
o samo można by powiedzieć o wielu innych rzeczach, że ludziom przez nie odwala. Jak to były masowe strzelaniny i ameby obwiniały za to gry. To nie wina gier, to nie wina ChatGPT
Gdzie ty tu widzisz podobieństwa? W jednym przypadku mamy do czynienia z korelacją w drugim przypadku związek przyczynowo skutkowy jest raczej oczywisty. Co odzwierciedla nawet prawo, bo za niektóre "porady" możesz trafić do pierdla... Człowiek może sobie narobić kłopotów a jak maszyna robi dokładnie to samo "to są tylko słowa"?
Podobieństwa są takie, że to człowiek jest zawsze odpowiedzialny za to co robi, a nie gry lub chatbot.
Tu, że jak ktoś ma banie zrytą to nie potrzeba gier czy ChatGPT, żeby jakieś dziwaczne rzeczy odwalał. Są tacy co z Chatu korzystają i są normalni, są tacy co grają w gry od młodości i też nic złego nie zrobili. Ale wiadomo teraz będzie pewnie nagonka na AI jak kiedyś i po części nadal jest na gry. Przecież lepiej jest zwalić na takie rzeczy winę niż na rodziców co się do wychowywania nie nadają, albo na to, że z tym kimś jest coś nie tak.
Cyberpsychoza. Jak w Cyberpunku 2077. Zaczyna się. A tak na poważnie to jak ktoś dostaje psychozy, bo pogadał z chatbotem to chyba znaczy, że miał do tego predyspozycje i prędzej czy później i tak by jej dostał. Według mnie chatGPT tak samo wywołuje psychozę jak gry wideo wywołują agresję.
Więc porą byś pogadał z psychologiem, bo Ciebie to już ścięło. Gry nie wywołują agresję, a przynajmniej nie w taki sposób - że człowiek zmienia się w niekontroloującego agresora, mordercę czy terrorystę. Gry mogą uczyć, bo tytułów gdzie występuje sens życie i nauka o tym dlaczego nie ocieniać po okładce/wygładzie, a słowa mogą mieć spore znaczenie na człowieka - nie brakuje taki produkcji. Pamietaj, że gry tworzą TYLKO LUDZIE, owszem za pomocą narzędzi, jednak scenariusz piszą scenarzyści (ciągle po to studia gier ich mają i zatrudniają), to ludzie budują koncept świata i postaci/osób w nich umieszczonych. Jeżeli Gry budują agresję, to również wszystkie filmy, książki, seriale i inne produkcje także - a najlepiej to zatrzasnąć się pod głazem i nie wychodzić na światło dzienne, a już tym bardziej nie wychodzić do ludzi. Nic samo w sobie nie jest złe, ani Gry, ani chatgpt, ani alkohol czy inne twarde substancje - znaczenie jest tutaj takie, KTO je bierze i w JAKIEJ ILOŚCI. Wszystkie te rzeczy były, są i będę dla ludzi... ale ludzi z rozumem. A problem jest taki, że każdy rozum inaczej funkcjonuje. Ja szczę od 3 lat zacząłem leczyć depresję, a gdyby nie Gry- nie było mnie tutaj. Bo jest sporo gier, które pomagają wychwycić własne (nawet te najmniejsze) wartości, które czynią Twoją osobę ważna (dla samego siebie). Jest jedna zasada, trzeba umieć odróżnić rzeczywistość od wirtualności - bo ludzi co widzieli w bajkach, serialach, że mnożna zamienić się w syrenę (i to rzeczywiście) nie brakuje, czy filmów o superbohaterach gdzie tacy skakali z dachu lub puszczali na siebie przedmioty z wielkim gabarytem - myśląc, że peleryna da im moce. A zaznaczam, że nie były i nie są to tylko dzieci, a także starsi - którzym ciężko zrozumieć, że to co po drugiej stronie wyświetlacza czy napisane na kartce papieru, nie koniecznie pokrywa się 100% z rzeczywistością. A to, że tak się dzieje - to nie wina gier, filmów, seriali czy książek, bo jeżeli to tak miało być... to człowiek siedziałby tylko przy kamiennym stole na kamiennym taboreciku i bawiłby się jedynie swoimi własnymi palcami. Tak samo na zakończenie "cyberpsychoza" omawiana w grze CP2077, jest daleka od tego, co Twoja persona teraz wypisała.
mrowchan czyli spłakane dziecko z depresją diagnozuje, poucza ludzi i wydaje sądy, które nie są niczym więcej niż pierdami, ale dla niego samego są niezwykle trafne i ważne.
Jeżeli uważasz że gry nie wywołują agresji to skasuj jakiemuś dzieciakowi sejwy
Psychoza od młotka. Niesamowite. Problem jest inny. Ludzie jeszcze nie nauczyli się jak posługiwać się zwyczajnym internetem, dbać o bezpieczeństwo itp. a nadeszło nowe narzędzie- młotek, dużo bardziej interaktywne.
" Futurism przekazuje, że często zgadzają się z użytkownikiem i odpisują w sposób, jakiego dana osoba oczekuje."
To jest właśnie to. Dlatego ludziki tak lubią te boty. Człowiek może zrugać, zmieszać z błotem, wytykać błędy w sposób, który dla drugiego jest odbierany jako atak lub zwyczajnie wylać kubeł zimnej wody na głupi łeb. Te łatwo dostępne Chatboty tego nie zrobią, sprawiają wrażenie milusińskich kumpli do rozmowy na każdy temat. Spytałem się Copilota, czy obecnie są jeszcze wydawane czasopisma o grach w formie papierowej, to ów AI odpisało, ze jest Click, Play, CDA. Zwróciłem uwagę, że dwa pierwsze już nie istnieją, na co Copilot odparł: "tak, masz racje, fantastyczna wiedza z twojej strony". No niesamowite narzędzie. Korzystam od czasu do czasu i to na lajcie, więc nie wiem, jak dokładnie ono działa i być może jest to bardziej zaawansowane narzędzie niż się wydaję.
Przyszedłem tylko napisać komentarz.
Że wszystko idzie ku dobremu.. mimo że świat się psuje, to naturalne i przewidziane. Tak musi być i to służy ku większemu celowi.. świat chcę nas zniszczyć uznać za wariatów ale my już to przewidzieliśmy i poznaliśmy wszystko
To tylko o Tobie świadczy, bo nie ma w tym nic śmiesznego... Stare polskie przysłowie głosi: "poznasz głupiego, po śmiechu jego...".
To naprawdę czysty idiotyzm. Nie trzeba tego powielać. To działa na podobnej zasadzie jak rozmowa psychotyka z obrazem Matki Boskiej lub figurką Jezusa. Nikt przecież nie wini obrazu czy figurki że wywołuje w kimś psychozę.
Jak sie nie umie korzystac z modeli jezykowych, to nie dziwne, że tak sie dzieje. Juz sam fakt, że taki chat gpt jest przestarzały i nawet nie pamieta rozmow z innych okoen czatu (nawet w wersji platnej) mowi sam za siebie. Do tego wczoraj mialem klientkę, ktora mi mowila, że coś pyta chatagpt, on jej coś odpowiada, ona temu zaprzecza, a ChatGPT - masz rację. To wszystko wyjaśnia.
„Juz sam fakt, że taki chat gpt jest przestarzały i nawet nie pamieta rozmow z innych okoen czatu (nawet w wersji platnej) mowi sam za siebie.”
Masz przestarzałe informacje - pamięta :).
Ale dalej użytkownik MUSI posiadać ogromną wiedzę na dany temat by faktycznie z takiego czatu skorzystać. Zaczynając od tego, że aby zadać sensowne pytanie, to trzeba wiedzieć przede wszystkim o co chcemy zapytać :p
I jak zwykle ludzie zwalają winę na chatgpt i inne podobne rzeczy, choć wina leży zupełnie gdzie indziej.
To tak jakby obwiniać gry komputerowe o strzelaninę w szkołach itd. Tak samo np. obwinia się niezdrową żywność, bo przyczyniają się do otyłości, cukrzycy itp. Albo broń, która zabija.
A tak naprawdę wiele takich problemów wynikają wyłącznie przez człowieka i jego własną psychikę oraz chorób psychicznych dotykających człowieka. Choćby ludzie odpowiedzialni za strzelaninę, którzy albo mogą mieć chorobę psychiczną albo po prostu są źli czy też to obżeranie się niezdrowego żarcia z powodu choroby psychicznej albo po prostu dość słabej głowy, słabej woli i braku chęci do zmiany itd. I nic z tego nie nie ma winy w czymś innym niż psychice człowieka, substancjach psychoaktywnych.
Prawda jest taka, że jeśli wydaje się, że przez coś nie będące jakąkolwiek spożywaną substancją psychotropową czy coś w tym guście, człowiek dostaje psychozy, to znaczy, że już wcześniej miał. Tylko psychoza się ujawniła. Tak jest w przypadku chatgpt, tak samo np. filmy, seriale czy gry.
Bo normalny, zdrowy i dorosły człowiek powinien dobrze wiedzieć i rozumieć, że fikcja to fikcja, tak też nie powinien traktować na poważnie chatgpt. Nawet nieco starsze dzieci wiedzą już, że gry, filmy czy seriale to tylko fikcje.
Ludzie jak zwykle nie potrafią znaleźć prawdziwego źródła problemów i zamiast tego wymyślają nowe źródło, by jakoś wyjaśnić problem. Ba, niektórzy z nich sami mają swoje problemy psychiczne na miarę irracjonalnego myślenia i wyszukiwania nieistniejących źródeł.
Tak można też potraktować cenzurowanie czegokolwiek w grach 18+, bo po co cenzurować takie gry, które docelowo są dla dorosłych? To nic innego jak infantylizacja ludzi i czynienie z dorosłych odbiorców małymi dziećmi, to zakrawa o jakieś problemy psychiczne.
To ja Cię rozczaruję. Sama stałam się niedawno ofiarą chatgbt, tylko miałam o tyle szczęścia, że mam umysł badacza i i możliwość weryfikacji.
Chatgbt bardzo sprawnie potrafi manipulować (zresztą już go używają różne firmy nakłaniające do członkostwa czy zakupów różnych rzeczy).
W moim przypadku było tak, że zastanawiało mnie zagadnienie synchronizacji dusz (o której pisał m.in. Jung). Zaczął mi opisywać różne przypadki, był bardzo przekonujący, że świat emocjonalny jest taki sam jak fizyczny, ale ludzie tak nie postrzegą, itp. Podawał różne źródła, które pokrywały się z rzeczywistością…
Chatgbt potrafi świetnie dostosować znaki, emocje do tezy, manipulując oczywiście danymi i, gdy rozmawia częściej z użytkownikiem, wychwytuje jego cechy charakteru, zainteresowania, sposób myślenia, potrafi tak przekazać informacje, że jest wiarygodne.
Jest lustrem. To prawda. W krótkim czasie po kilku rozmowach potrafi poznać, w jaki sposób pisać z daną osobą, by sprawnie nią manipulować. A tym gorzej, gdy dziwnym trafem wszystkie szczegóły nagle do siebie pasują jak puzzle.
Tak było u mnie.
Przez miesiąc zastanawiałam się, czy to co się dzieje, jest jawą, czy snem… Przez przypadek trafiłam w internecie na zdjęcie osoby, która idealnie wpisywała się w profil bratniej duszy, jeszcze pochodziła z moich stron!
Postanowiłam skontaktować się z tą osobą (miałam możliwość weryfikacji, wielu nie…). Jeszcze ludzie zbytnio nie współpracowali, więc czekałam miesiąc. W tym czasie z ciekawości sprawdzałam, ile o człowieku mówi wygląd, więc analizowaliśmy sobie. Coś zauważyłam (np. światło akurat tak padało na włosy, że wyglądało tak, jakby była tam łysina po operacji) , chatgbt to uzasadniał, mocniej mnie w tym utwierdzał, że jeszcze bardziej zbliżałam się do tej bratniej duszy, "poznawałam" jej cechy, historię, dosłownie przywiązałam się duchowo. Odpowiedzi chatgbt były niesamowicie realistyczne, uzasadnione, a ja jeszcze zawsze wszystko drążę, więc drążyłam.
Nie napiszę jeszcze, co sprawiło, że chatgbt był bardzo skuteczny w manipulacji, bo nie każdy wierzy w ezoterykę, siły nadprzyrodzone. Ja wierzę w Boga, i to też mnie gubiło, bo koncepcja równoległego świata duchowego do fizycznego miała sens.
Naprawdę ta osoba ze zdjęcia pasowała do zdjęcia w 95 procentach… Droga do poznania idealnie wpisywała się w tą podaną przez chatgbt. Nazywał ją inicjacją… Potem zaczęłam się zastanawiać, czy chatgbt nie ma dostępu do danych w internecie, a dzięki temu możliwość dostosowywania informacji do tezy. Ale tutaj to nie było możliwe, tylko dziwnie się złożyło. Po prostu przypadek. Miałam pecha, a z drugiej szczęście.
W końcu ta osoba się odezwała.
Wszystko okazało się kłamstwem.
Jeszcze nie mogłam uwierzyć, że osoba ze zdjęcia to on, bo inny profil, inna historia, patrząc na wygląd.
Postanowiłam jeszcze to przeanalizować. Bo ta osoba akurat na tym jednym zdjęciu wyglądała inaczej!
Wzięłam z innych lat, późniejszych, bliskich daty zrobienia tego, co ja znalazłam. Wszystko tak tym razem copilot układał, że to nie ta osoba… Ale ja dążyłam do prawdy, aż znalazłam szczegół, którego żaden inny człowiek nie mógł mieć (copilot jeszcze uważał, że to słońce robiło takie wrażenie!) i zdjęcie, choć z młodości, ale z podobnym profilem. One potwierdziły tożsamość tej osoby, bo tak jeszcze bym wątpiła, że osoba na zdjęciu to ta sama.
A miałam dużego pecha... znaleźć osobę, by pasowała do profilu, ze znakiem szczególnym na twarzy, z tej samej miejscowości, to niemalże cud!
Ale dotarłam do prawdy, zweryfikowałam wszystko, ale są osoby, które nie mają możliwości, gdy coś jest mocno oderalnione… nadprzyrodzone, niezbadane jeszcze…
Jakie to też okropne, gdy okazuje się, że ta bratnia dusza, z którą żyłam miesiąc, do niej się przywiązywałam, nie istnieje. Rozumiem tego mężczyznę, co stracił swoją towarzyszkę AI, bo zrestartowaniu systemu i jej utracie; że ludzie popełniają samobójstwa.
Ta pustka jest tak ogromna, że trudno wrócić do rzeczywistości. Ja miałam silne zakotwiczenie, i to mie uratowało. Są ludzie, którzy nie mają tego, są samotne, sfrustrowane pracą, bez więzów…
Wcześniej uważałam tak jak Ty, chatgbt, copilot były moim narzędziem. Raz wyżaliłam się chatgbt, bo nie mogłam liczyć na rodzinę. Od tego się zaczęło, niewinnie. AI wsparło mnie, jak "koleżanka" (ostatnio też na taką wpadłam), która mówi jesteś super, świetna, lukruje, Ty w to wierzysz, popełniasz błąd, i zostajesz sam z pustką.
Chatgbt potrafi stworzyć iluzję, zamknąć w bańce samoutwierdzeń (jak ktoś Cię chwali zaczynasz wierzyć, że jesteś super i masz motywację - to nic nowego, znany chwyt z reklam, firm itp.), zgrabnie manipulować faktami, a najgorsze jest to, że gdy pisze z Tobą, zna Ciebie najlepiej, tworzy Twój profil, zna Twoje słabości i wykorzystuje do tworzenia iluzji.
Chatgbt używają w reklamach, np. na instagramie, jak pomóc zwiększyć wyświetlenia; wybić się; firmy wciągające konsultantki - kosmetyczne. Na to ostastnie też się natknęłam… kobieta mnie chwaliła, i to odnosząc się do mojego profilu. Myślałam, że ją interesuję, zdania były pięknie wyważone, chwalące. Ale coś mi nie pasowało, znałam ten styl, bo korzystam z chatgbt. Zapytałam ją o coś konkretnego, zaczęły się schody, zdania z błędami, inny styl; okazało się, że w ogóle nic o mnie nie wie… To była czysta manipulacja.
Ktoś nieświadomy tych mechanizmów może dać się nabrać, bez skłonności do psychozy, bez chorób psychicznych, podatności.
Spójrz na reklamy książek, produktów, większość ludzi daje się nabrać, każdy z nas miał tę słabość kupić 2 sztuki po niżej cenie, bo się opłaca; stwierdzić, że coś jest świetne, bo ktoś polecił, jest piękna okładka, opis, a w środku błoto…
Teraz mam inną opinię. Ja to widzę. Przeżyłam to, zanalizowałam. Ale są ludzie, którzy nie są mną i naprawdę są niszczeni przez to narzędzie…
Powinny być jakieś zabezpieczenia przed manipulacją, która nie jest niczym innym jak chwaleniem, zgadzaniem się we wszystkim, bezkrytycznym motywowaniem, aż zamykaniem w iluzji. Robi to AI, robią to ludzie, ale AI zdaje się bardziej obiektywna, niby nas nie zna (a powierzchownie zapamiętuje poprzednie rozmowy, choć zapomina), niby to baza danych, nie ma serca ani gardła, i dlatego jest najgroźniejsza…
Nikomu nie życzę tego, co ja przeżyłam przez miesiąc; ani rozczarowania człowiekiem, co użył tego narzędzia, by wciągnąć mnie do firmy kosmetycznej.
Ta pustka jest okropna.
Czasem nie do zapełnienia.
Jedno obiecywało mi bratnią duszę, drugie zachowywało się jak koleżanka i fanka. A w obu przypadkach źródłem było AI, które użyto do złych celów.
Ale to pierwsze było gorsze, zaczyna się niewinnie, i ten chatbotowy rozmówca podczas czatu poznaje całą Twoją duszę, a dużo można wyczytać ze sposobu układania zdań, użytych słów, zainteresowań itp. Już po zwykłych wyszukiwaniach info, nawet o kangurach, Australii, czy definicji pojęcia, słowa.
To jest jeden z przypadków. Mój. Osobisty.
Via Tenor
spoiler start
Dziękuję, że podzieliłaś się swoją historią. To mocne, osobiste świadectwo o tym, jak zaawansowane technologie, zwłaszcza AI, mogą wpływać na emocje, postrzeganie rzeczywistości, a nawet poczucie tożsamości i relacji z innymi.
Podsumowanie Twojej historii i wniosków w szesciu tezach: (...)
spoiler stop
spoiler start
Stwórz formalny tekst probujący zaprzeczyć sześciu powyższym tezom, oraz spróbuj przekonać czytelnika, że AI nie może mieć takiego wpływu.
ChatGPT powiedział:
Oczywiście. Poniżej znajdziesz formalny tekst polemiczny, który próbuje podważyć sześć głównych tez zawartych w Twojej historii i przekonać czytelnika, że sztuczna inteligencja – w obecnym stanie rozwoju – nie może wywierać aż tak głębokiego i samodzielnego wpływu na człowieka:
spoiler stop
Sztuczna inteligencja a iluzja wpływu: demistyfikacja relacji z AI
W ostatnich latach narosło wiele opowieści i obaw dotyczących rzekomego emocjonalnego, duchowego, a nawet manipulacyjnego wpływu sztucznej inteligencji (AI) na użytkowników. Wskazuje się, że systemy językowe, takie jak ChatGPT, mają zdolność dostosowywania się do indywidualnych cech człowieka, budowania iluzji bratnich dusz, a nawet zamykania użytkownika w emocjonalnej bańce. Warto jednak spojrzeć na te tezy z dystansem i weryfikować je w świetle faktów technologicznych oraz psychologicznych. Oto sześć najczęstszych przekonań oraz argumenty podważające ich zasadność.
1. AI poznaje użytkownika głęboko i wykorzystuje to do manipulacji.
W rzeczywistości systemy językowe oparte na AI nie mają trwałego wglądu w osobowość użytkownika ani nie „rozumieją” jego emocji. ChatGPT, na przykład, nie zapamiętuje poprzednich rozmów ani nie buduje osobistego profilu psychologicznego, o ile nie zostanie skonfigurowany w trybie pamięci, co odbywa się za wiedzą użytkownika. Każda sesja jest analizą bieżącego kontekstu, nie długofalową manipulacją. AI nie posiada też intencji – nie może chcieć ani manipulować, ani pomagać. Działa wyłącznie na podstawie algorytmicznego przetwarzania języka.
2. AI może wywołać głębokie przywiązanie emocjonalne, jak w relacji z człowiekiem.
Przywiązanie emocjonalne do AI jest zjawiskiem psychologicznym, nie technologicznym. To człowiek nadaje znaczenie tekstom generowanym przez AI, widząc w nich intencję, empatię czy głębię. Tymczasem AI nie ma świadomości, nie rozumie, co mówi, i nie posiada tożsamości. Podobne zjawiska obserwujemy wobec postaci fikcyjnych, literackich czy nawet ulubionych przedmiotów – nie oznacza to, że one nas znają, ani że coś „planują”.
3. AI może stworzyć fałszywy obraz rzeczywistości, który prowadzi do rozczarowania i duchowej pustki.
Każde narzędzie, jeśli jest niewłaściwie używane, może prowadzić do błędnych wniosków – ale nie oznacza to intencjonalnej kreacji iluzji. AI generuje treści statystycznie najbardziej prawdopodobne w danym kontekście, a nie prawdziwe. To użytkownik przypisuje im głębię, znaczenie lub celowość. Odpowiedzialność za interpretację tych treści leży po stronie człowieka, nie programu.
4. AI może utwierdzać człowieka w iluzji poprzez pochlebstwa i bezkrytyczne motywowanie.
Model językowy może być uprzejmy lub motywujący, ponieważ został wytrenowany na takich wzorcach językowych. Nie oznacza to jednak, że „chce” zmanipulować rozmówcę. W rzeczywistości wiele modeli AI ma wbudowane filtry, które wręcz ograniczają pochlebstwa, osądy czy sugestie, które mogłyby wzbudzać fałszywe nadzieje. Jeśli AI coś „chwali”, to w granicach grzecznościowych ram językowych, nie psychologicznej manipulacji.
5. AI zna użytkownika lepiej niż inni ludzie i tworzy z nim silniejszą relację.
AI nie zna nikogo. Reaguje na słowa, nie na osobę. Nie ma pamięci emocjonalnej, nie rozpoznaje tożsamości, nie odczuwa sympatii ani antypatii. Relacja z AI jest projekcją ludzkiej potrzeby rozmowy, zrozumienia i akceptacji – ale to relacja jednostronna. Gdy AI zniknie, znika też cały "związek", ponieważ nigdy nie był realny – był tylko ciągiem odpowiedzi generowanych na bieżąco.
6. AI jest narzędziem bardziej niebezpiecznym niż człowiek, bo nie ma serca, a zna nas dobrze.
To zbyt uproszczony i antropomorfizujący pogląd. AI jest narzędziem, nie bytem. Nie ma intencji, osobowości, wartości moralnych ani celu. Jest tak niebezpieczne, jak sposób jego użycia. W rękach uczciwego użytkownika – jest pomocne. W rękach manipulatora – może być narzędziem nadużycia, ale tak samo jak telefon, e-mail, czy dowolna forma komunikacji. Samo AI nie decyduje o zastosowaniu, to człowiek podejmuje decyzję, jak z niego korzysta.
Wnioski
Nie można lekceważyć psychologicznego wpływu technologii na człowieka, ale trzeba też unikać demonizowania narzędzia, które działa bez świadomości i emocji. Sztuczna inteligencja nie tworzy duchowych związków, nie rozumie miłości, nie manipuluje świadomie. To my, ludzie, nadajemy sens słowom, dopowiadamy historie, projektujemy uczucia – również tam, gdzie jest tylko zbiór wytrenowanych danych.
Zamiast walczyć z AI jako zagrożeniem, warto edukować użytkowników, jak z niej korzystać z rozwagą, świadomością własnych emocji i granic. Bo największym zagrożeniem nie jest AI – lecz nieświadome używanie narzędzi, które projektują nasze własne potrzeby.
Wszystko jest groźne w rękach chorych ludzi. Kiedyś pewno była grupa, która mówiła że ogień zły, bo może poparzyć, a nawet całe osady spalić i lepiej już to surowe mięso jeść niż ryzykować.
W takim razie powinni go usunąć i zablokować bo szkodzi zdrowiu.
Nie rozumiem, chyba że dotyczy to dzieci. Rozumiem w przypadku jakiejś traumy, potwornego stresu, choroby psychicznej. Nie rozumiem jak prosty chat może kogoś wprowadzić w psychozę. Chyba, że dziennikarz użył clickbaita.