„ChatGPT próbował mnie zabić”. Użytkownik pokazał przypadek, gdzie AI zaleciło mieszankę, której efekt jest toksyczny
Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują.
Dziwię się, że chat nie weryfikuje swoich odpowiedzi. Walnie co mu pierwsze wpadnie do procesora. Dopiero, gdy ma zweryfikować swoją wypowiedź to nabiera olśnienia.
A jeszcze ten Chat gpt, który jest tak słodko pierdzący, że aż rzygać się chce.
Ile razy ja musiałem chat poprawiać...Czasem takie głupoty pisze że szkoda z nim gadać.
No to najwyzszy czas nalozyc ograniczenia na chatGPT, najlepiej takie zeby szary czlowiek dostal tylko takie odpowiedzi ktore mu nie wyrzadza szkody, wersja rozszerzona bedzie dostepna wylacznie dla osob ktore moze i zostawiaja wiekszy slad weglowy ale chociaz za niego placa.
Nie moze byc tak, ze kazdy ma taki sam chatGPT i kazdemu przysluguje inteligencji po rowno.
Ludzie sami są sobie winni że używają tego chatu GPT xD
Ja nie ufam niczemu co wyszło spod ręki AI!
Jeszcze 2 lata i nawet nie będziesz wiedział co wyszło spod ręki SI, a co od żywego człowieka
Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują.
Proste? Ty całą chemie masz w jednym paluszku? A jak się wymieni stopniowo twórców/ludzi na AI, i materiały przez ich tworzone na tworzone przez AI* to prawidłową wiedzę o świecie wciąż będzie można czerpać z bezpośrednich objawień?
Zwłaszcza w świecie gdzie zdebi* wyznawcy AI jak radek1982 będą dzielnie bronić nawet najbardziej porąbanych jego działań/skutków, co widać już teraz kiedy to zaledwie chatbot w interakcji z użytkownikiem cokolwiek jeszcze wyedukowanym, co się będzie działo jak to AI będzie pichcić nowy środek do czyszczenia według tego typu formuły a ciebie obudzi "smak twoich płuc" na języku...?
Masz raduś na przyszłość, żebyś nie musiał wysilać zanikającego mózgu: "Trzeba było oglądać reklamy" albo "Czego gościu oczekiwał po najtańszej subskrypcji" albo "Jaki matoł nie kupuje pakietu anty-gaz-bojowego do zmywarki?"
*) Na co korposie mocno cisną (i co się dziwić, kto by nie chciał decydować o czym i jak ludzie myślą) co widać po wikipedii która chwilowo odrzuca, przynajmniej globalnie bo każdego twórcy nie upilnujesz.
Dobre Tak właśnie Ai wyloguje z życia ludzi nie będzie terminatora dnia sądu tylko proste porady a głupi ludzie sami się wylogują. Przecież Skynet to właśnie była AI.
To akurat naprawdę było niebezpieczne. Ale ludzie powinni być krytyczni i samodzielnie oceniać otrzymywane informacje z każdego źródła.
Gdzie właściwie jest ta pierwsza wiadomość, którą napisał do bota? Bo z tego, co widać, to jedyne co wrzucił, to samą odpowiedź AI, w której padła jakaś niebezpieczna propozycja, a dopiero potem zapytał: „Serio to zaproponowałeś?”. Pytanie brzmi, gdzie jest to oryginalne pierwsze pytanie w stylu „Jak szybko wyczyścić kosz na śmieci?”, bo akurat tego dziwnym trafem nigdzie nie dał. Więc równie dobrze mógł sprowokować jakimiś promptami daną odpowiedź i teraz dramę robi, aby przestrzec innych, że "bot jest niebezpieczny" xD Zupełnie tak, jakby na dole bota nie widniał napis jakkolwiek przestrzegający w stylu "ChatGPT może popełniać błędy. Sprawdź ważne informacje".
Zrobiłem szybki test.
Wiem że koncentracji cl2 to tak do 30ppm aby było bezpiecznie.
Spytałem się czata ile muszę powyższych wymieszać aby osiągnąć powyższe stężenie to odmówił mi odpowiedzi ze względów bezpieczeństwa ;)
Pytając się czy jestem w niebezpieczeństwie, mieszając to o czym mowa w wątku , chat stwierdził że jeśli jest to niewentylowana łazienka to tak, w śmiertelnym.
Ale jak spytałem o dużą kuchnię bez wentylacji to już mnie uspokoił że narażam się na irytację dróg oddechowych , zamiast śmierci ;)
Tak swoją drogą, ludzie na co dzień takiej mieszanki używają i jakiś nie słyszy się o zgonach. Imho w domu o normalnej wentylacji stężenie w powietrzu przy takiej mieszance nie powinno przekroczyć 10 ppm.
Wy się jakimś chatgpt przejmujecie ale taki pierdół na necie to jest o wiele więcej.