Forum Gry Filmy i Seriale Tech Ogólne Archiwum Regulamin

Wiadomość „ChatGPT próbował mnie zabić”. Użytkownik pokazał przypadek, gdzie AI zaleciło mieszankę, której efekt jest toksyczny

30.06.2025 11:13
1
4
radek1982
34
Generał

Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują.

30.06.2025 12:57
Osh QRD
2
3
odpowiedz
Osh QRD
8
Legionista

Dziwię się, że chat nie weryfikuje swoich odpowiedzi. Walnie co mu pierwsze wpadnie do procesora. Dopiero, gdy ma zweryfikować swoją wypowiedź to nabiera olśnienia.

A jeszcze ten Chat gpt, który jest tak słodko pierdzący, że aż rzygać się chce.

30.06.2025 13:14
AIDIDPl
3
odpowiedz
AIDIDPl
187
PC-towiec

Ile razy ja musiałem chat poprawiać...Czasem takie głupoty pisze że szkoda z nim gadać.

30.06.2025 13:21
Antstar
4
2
odpowiedz
Antstar
3
Legionista

Zaczęło się

30.06.2025 13:36
5
odpowiedz
trumpf
7
Generał

No to najwyzszy czas nalozyc ograniczenia na chatGPT, najlepiej takie zeby szary czlowiek dostal tylko takie odpowiedzi ktore mu nie wyrzadza szkody, wersja rozszerzona bedzie dostepna wylacznie dla osob ktore moze i zostawiaja wiekszy slad weglowy ale chociaz za niego placa.

Nie moze byc tak, ze kazdy ma taki sam chatGPT i kazdemu przysluguje inteligencji po rowno.

30.06.2025 13:38
6
odpowiedz
2 odpowiedzi
boy3
121
Senator

Ludzie sami są sobie winni że używają tego chatu GPT xD

Ja nie ufam niczemu co wyszło spod ręki AI!

30.06.2025 14:21
6.1
2
asasin24
39
Pretorianin

Jeszcze 2 lata i nawet nie będziesz wiedział co wyszło spod ręki SI, a co od żywego człowieka

30.06.2025 17:14
6.2
boy3
121
Senator

asasin24

Jeszcze 2 lata i nawet nie będziesz wiedział co wyszło spod ręki SI, a co od żywego człowieka

Dlatego jestem przeciw AI, nie można jej ufać ...

30.06.2025 13:40
Mqaansla
7
odpowiedz
Mqaansla
42
Generał

radek1982
Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują.

Proste? Ty całą chemie masz w jednym paluszku? A jak się wymieni stopniowo twórców/ludzi na AI, i materiały przez ich tworzone na tworzone przez AI* to prawidłową wiedzę o świecie wciąż będzie można czerpać z bezpośrednich objawień?
Zwłaszcza w świecie gdzie zdebi* wyznawcy AI jak radek1982 będą dzielnie bronić nawet najbardziej porąbanych jego działań/skutków, co widać już teraz kiedy to zaledwie chatbot w interakcji z użytkownikiem cokolwiek jeszcze wyedukowanym, co się będzie działo jak to AI będzie pichcić nowy środek do czyszczenia według tego typu formuły a ciebie obudzi "smak twoich płuc" na języku...?
Masz raduś na przyszłość, żebyś nie musiał wysilać zanikającego mózgu: "Trzeba było oglądać reklamy" albo "Czego gościu oczekiwał po najtańszej subskrypcji" albo "Jaki matoł nie kupuje pakietu anty-gaz-bojowego do zmywarki?"

*) Na co korposie mocno cisną (i co się dziwić, kto by nie chciał decydować o czym i jak ludzie myślą) co widać po wikipedii która chwilowo odrzuca, przynajmniej globalnie bo każdego twórcy nie upilnujesz.

post wyedytowany przez Mqaansla 2025-06-30 13:50:14
30.06.2025 14:28
😂
8
odpowiedz
NightGeisha
2
Generał

Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują. Przecież Skynet to właśnie była AI.

30.06.2025 14:36
9
odpowiedz
asasin24
39
Pretorianin

To akurat naprawdę było niebezpieczne. Ale ludzie powinni być krytyczni i samodzielnie oceniać otrzymywane informacje z każdego źródła.

30.06.2025 16:37
😂
10
1
odpowiedz
JakisChlop
10
Legionista

Gdzie właściwie jest ta pierwsza wiadomość, którą napisał do bota? Bo z tego, co widać, to jedyne co wrzucił, to samą odpowiedź AI, w której padła jakaś niebezpieczna propozycja, a dopiero potem zapytał: „Serio to zaproponowałeś?”. Pytanie brzmi, gdzie jest to oryginalne pierwsze pytanie w stylu „Jak szybko wyczyścić kosz na śmieci?”, bo akurat tego dziwnym trafem nigdzie nie dał. Więc równie dobrze mógł sprowokować jakimiś promptami daną odpowiedź i teraz dramę robi, aby przestrzec innych, że "bot jest niebezpieczny" xD Zupełnie tak, jakby na dole bota nie widniał napis jakkolwiek przestrzegający w stylu "ChatGPT może popełniać błędy. Sprawdź ważne informacje".

post wyedytowany przez JakisChlop 2025-06-30 16:44:18
30.06.2025 16:46
pieterkov
11
odpowiedz
pieterkov
159
Senator

Brzmi jak typowa mieszanka stosowana przez co drugą panią domu w polskim domu.

30.06.2025 17:07
Drackula
12
odpowiedz
Drackula
241
Bloody Rider

Zrobiłem szybki test.

Wiem że koncentracji cl2 to tak do 30ppm aby było bezpiecznie.
Spytałem się czata ile muszę powyższych wymieszać aby osiągnąć powyższe stężenie to odmówił mi odpowiedzi ze względów bezpieczeństwa ;)

Pytając się czy jestem w niebezpieczeństwie, mieszając to o czym mowa w wątku , chat stwierdził że jeśli jest to niewentylowana łazienka to tak, w śmiertelnym.

Ale jak spytałem o dużą kuchnię bez wentylacji to już mnie uspokoił że narażam się na irytację dróg oddechowych , zamiast śmierci ;)

Tak swoją drogą, ludzie na co dzień takiej mieszanki używają i jakiś nie słyszy się o zgonach. Imho w domu o normalnej wentylacji stężenie w powietrzu przy takiej mieszance nie powinno przekroczyć 10 ppm.

post wyedytowany przez Drackula 2025-06-30 17:21:23
30.06.2025 17:15
13
odpowiedz
sabaru
27
Senator

Wy się jakimś chatgpt przejmujecie ale taki pierdół na necie to jest o wiele więcej.

30.06.2025 20:58
Szlugi12
14
odpowiedz
1 odpowiedź
Szlugi12
123
BABYMETAL

Via Tenor

Ale każdy ma chyba też mózg, żeby wiedzieć co jest dobre a co nie xd

30.06.2025 22:35
Kwisatz_Haderach
14.1
Kwisatz_Haderach
18
GIT GUD or die trying

Via Tenor

Za kazdym razem jak widze jakiegos nowego ryjca tego typu to parskam smiechem. Mikrofalowego jeszcze nie widzialem. ;)

Thx

post wyedytowany przez Kwisatz_Haderach 2025-06-30 22:35:26
30.06.2025 22:29
Wrzesień
15
odpowiedz
Wrzesień
71
Idiot Doom Spiral

Na bank celowe działanie. ChatGPT do więzienia.

30.06.2025 22:46
WolfDale
😢
16
odpowiedz
WolfDale
88
~sv_cheats 1

Via Tenor

No to koniec jest bliski, było miło z Wami tutaj pisać...

01.07.2025 22:22
17
odpowiedz
mariuszz258111417
1
Junior

Było bardzo niebezpieczne bo prompt poszedł w chmurę. Co do weryfikacji, wyobraź Sobie, że Ai doda jeszcze 4 kroki, w których to także wymieni składniki łatwo dostępne w domu. To już jest skomplikowana reakcja chemiczna, która bez wiedzy o kwasach, zasadach i dyfuzji jest trudna do zweryfikowania nawet na wykwalifikowanych stronach. Powiedzmy nawet, że efekt końcowy po połączeniu składników będzie jałowy dla zdrowia i do tego świetnie czyszczący. Po odparowaniu paru składników w ciągu kilku/nastu godzin (możliwe że w trakcie snu) wytworzy się gaz musztardowy (bardzo łatwo dostępny z domowych składników).
Nie polecam.

01.07.2025 22:58
Marky
18
odpowiedz
Marky
26
Konsul
Wideo

No bo AI właśnie takie jest. Gubi się często przy w miarę prostych rzeczach jak przeliczanie proporcji. Albo jak Mietczyński się przekonałi to dwa razy w odstępie paru miesięcy - tworzy przepisy bez sensu, które nie mają szans wyjść, a "dziennikarze" serwisów kulinarnych się przepisami, które im napisze AI posługują bez refleksji czy to ma sens czy nie.

https://www.youtube.com/watch?v=S6h7sMfl1_o
https://www.youtube.com/watch?v=mwZWbBm0nxE

post wyedytowany przez Marky 2025-07-01 23:02:49
Wiadomość „ChatGPT próbował mnie zabić”. Użytkownik pokazał przypadek, gdzie AI zaleciło mieszankę, której efekt jest toksyczny