Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Wiadomość „ChatGPT próbował mnie zabić”. Użytkownik pokazał przypadek, gdzie AI zaleciło mieszankę, której efekt jest toksyczny

30.06.2025 11:13
1
4
radek1982
32
Generał

Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują.

30.06.2025 12:57
Osh QRD
2
3
odpowiedz
Osh QRD
6
Legionista

Dziwię się, że chat nie weryfikuje swoich odpowiedzi. Walnie co mu pierwsze wpadnie do procesora. Dopiero, gdy ma zweryfikować swoją wypowiedź to nabiera olśnienia.

A jeszcze ten Chat gpt, który jest tak słodko pierdzący, że aż rzygać się chce.

30.06.2025 13:14
AIDIDPl
3
odpowiedz
AIDIDPl
185
PC-towiec

Ile razy ja musiałem chat poprawiać...Czasem takie głupoty pisze że szkoda z nim gadać.

30.06.2025 13:21
Antstar
4
2
odpowiedz
Antstar
1
Legionista

Zaczęło się

30.06.2025 13:36
5
odpowiedz
trumpf
5
Generał

No to najwyzszy czas nalozyc ograniczenia na chatGPT, najlepiej takie zeby szary czlowiek dostal tylko takie odpowiedzi ktore mu nie wyrzadza szkody, wersja rozszerzona bedzie dostepna wylacznie dla osob ktore moze i zostawiaja wiekszy slad weglowy ale chociaz za niego placa.

Nie moze byc tak, ze kazdy ma taki sam chatGPT i kazdemu przysluguje inteligencji po rowno.

30.06.2025 13:38
6
odpowiedz
2 odpowiedzi
boy3
119
Senator

Ludzie sami są sobie winni że używają tego chatu GPT xD

Ja nie ufam niczemu co wyszło spod ręki AI!

30.06.2025 14:21
6.1
2
asasin24
37
Pretorianin

Jeszcze 2 lata i nawet nie będziesz wiedział co wyszło spod ręki SI, a co od żywego człowieka

30.06.2025 17:14
6.2
1
boy3
119
Senator

asasin24

Jeszcze 2 lata i nawet nie będziesz wiedział co wyszło spod ręki SI, a co od żywego człowieka

Dlatego jestem przeciw AI, nie można jej ufać ...

30.06.2025 13:40
Mqaansla
7
odpowiedz
Mqaansla
40
Generał

radek1982
Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują.

Proste? Ty całą chemie masz w jednym paluszku? A jak się wymieni stopniowo twórców/ludzi na AI, i materiały przez ich tworzone na tworzone przez AI* to prawidłową wiedzę o świecie wciąż będzie można czerpać z bezpośrednich objawień?
Zwłaszcza w świecie gdzie zdebi* wyznawcy AI jak radek1982 będą dzielnie bronić nawet najbardziej porąbanych jego działań/skutków, co widać już teraz kiedy to zaledwie chatbot w interakcji z użytkownikiem cokolwiek jeszcze wyedukowanym, co się będzie działo jak to AI będzie pichcić nowy środek do czyszczenia według tego typu formuły a ciebie obudzi "smak twoich płuc" na języku...?
Masz raduś na przyszłość, żebyś nie musiał wysilać zanikającego mózgu: "Trzeba było oglądać reklamy" albo "Czego gościu oczekiwał po najtańszej subskrypcji" albo "Jaki matoł nie kupuje pakietu anty-gaz-bojowego do zmywarki?"

*) Na co korposie mocno cisną (i co się dziwić, kto by nie chciał decydować o czym i jak ludzie myślą) co widać po wikipedii która chwilowo odrzuca, przynajmniej globalnie bo każdego twórcy nie upilnujesz.

post wyedytowany przez Mqaansla 2025-06-30 13:50:14
30.06.2025 14:28
😂
8
odpowiedz
NightGeisha
4
Konsul

Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują. Przecież Skynet to właśnie była AI.

30.06.2025 14:36
9
odpowiedz
asasin24
37
Pretorianin

To akurat naprawdę było niebezpieczne. Ale ludzie powinni być krytyczni i samodzielnie oceniać otrzymywane informacje z każdego źródła.

30.06.2025 16:37
😂
10
1
odpowiedz
JakisChlop
8
Legionista

Gdzie właściwie jest ta pierwsza wiadomość, którą napisał do bota? Bo z tego, co widać, to jedyne co wrzucił, to samą odpowiedź AI, w której padła jakaś niebezpieczna propozycja, a dopiero potem zapytał: „Serio to zaproponowałeś?”. Pytanie brzmi, gdzie jest to oryginalne pierwsze pytanie w stylu „Jak szybko wyczyścić kosz na śmieci?”, bo akurat tego dziwnym trafem nigdzie nie dał. Więc równie dobrze mógł sprowokować jakimiś promptami daną odpowiedź i teraz dramę robi, aby przestrzec innych, że "bot jest niebezpieczny" xD Zupełnie tak, jakby na dole bota nie widniał napis jakkolwiek przestrzegający w stylu "ChatGPT może popełniać błędy. Sprawdź ważne informacje".

post wyedytowany przez JakisChlop 2025-06-30 16:44:18
30.06.2025 16:46
pieterkov
11
odpowiedz
pieterkov
157
Senator

Brzmi jak typowa mieszanka stosowana przez co drugą panią domu w polskim domu.

30.06.2025 17:07
Drackula
12
odpowiedz
Drackula
239
Bloody Rider

Zrobiłem szybki test.

Wiem że koncentracji cl2 to tak do 30ppm aby było bezpiecznie.
Spytałem się czata ile muszę powyższych wymieszać aby osiągnąć powyższe stężenie to odmówił mi odpowiedzi ze względów bezpieczeństwa ;)

Pytając się czy jestem w niebezpieczeństwie, mieszając to o czym mowa w wątku , chat stwierdził że jeśli jest to niewentylowana łazienka to tak, w śmiertelnym.

Ale jak spytałem o dużą kuchnię bez wentylacji to już mnie uspokoił że narażam się na irytację dróg oddechowych , zamiast śmierci ;)

Tak swoją drogą, ludzie na co dzień takiej mieszanki używają i jakiś nie słyszy się o zgonach. Imho w domu o normalnej wentylacji stężenie w powietrzu przy takiej mieszance nie powinno przekroczyć 10 ppm.

post wyedytowany przez Drackula 2025-06-30 17:21:23
30.06.2025 17:15
13
odpowiedz
sabaru
26
Senator

Wy się jakimś chatgpt przejmujecie ale taki pierdół na necie to jest o wiele więcej.

30.06.2025 20:58
Szlugi12
14
odpowiedz
1 odpowiedź
Szlugi12
121
BABYMETAL

Via Tenor

Ale każdy ma chyba też mózg, żeby wiedzieć co jest dobre a co nie xd

30.06.2025 22:35
Kwisatz_Haderach
14.1
Kwisatz_Haderach
19
GIT GUD or die trying

Via Tenor

Za kazdym razem jak widze jakiegos nowego ryjca tego typu to parskam smiechem. Mikrofalowego jeszcze nie widzialem. ;)

Thx

post wyedytowany przez Kwisatz_Haderach 2025-06-30 22:35:26
30.06.2025 22:29
Wrzesień
15
odpowiedz
Wrzesień
69
Idiot Doom Spiral

Na bank celowe działanie. ChatGPT do więzienia.

30.06.2025 22:46
WolfDale
😢
16
odpowiedz
WolfDale
86
~sv_cheats 1

Via Tenor

No to koniec jest bliski, było miło z Wami tutaj pisać...

Wiadomość „ChatGPT próbował mnie zabić”. Użytkownik pokazał przypadek, gdzie AI zaleciło mieszankę, której efekt jest toksyczny