Komentarze do wiadomości: „Hej matołku”. Według badaczy AI daje lepsze odpowiedzi, gdy zapytanie jest nieuprzejme

Forum Technologiczne
Dodaj komentarz
20.10.2025 12:09
1
odpowiedz
Ummon
62
Pretorianin

Ostatnio GPT rozwalił mi mózg.
Poprosiłem go żeby mi podał kod w pythonie do narysowania wykresu (szybsze to niż samemu szukać w dokumentacji, bo wykresów dużo nie rysuje). GPT bez problemu wygenerował kod, jedak miał on buga: części wykresu nachodziły na siebie. Widziałem jak to poprawić samemu, więc sobie poprawiłem i zapomniałem o sprawie.
Jakiś czas później kliknąłem w to okienko chatu przez pomyłkę i myślałem że jestem w pasku adresu, więc coś wpisałem i szybko kliknąłem enter. Skutkiem tego niedopatrzenia do chata napisałem wiadomość z kilku losowych znaków "kot przeszedł po klawiaturze".
A ten mi odpisał: "No rzeczywiście w kodzie jest błąd, który sprawia że częsci wykresu nachodzą na siebie, oto poprawiona wersja:"

20.10.2025 12:54
Mqaansla
😂
2
odpowiedz
Mqaansla
44
Generał

Podejrzewam, że z racji tego że ludzie inteligentni zadają trudniejsze pytania i rzadziej są zadowoleni z tych prostych, wyzywanie od głupków sprawiło że dane źródłowe zostały podzielone (realistycznie przypisano ~ciągłe wagi) na takie skutecznie zadowalające ludzi cokolwiek inteligentnych i resztę.
To jest zadając pytania w sposób inteligentny (sztuczny abstrakcyjny podział, chociażby tu się pojawił przy okazji inwektywy ~ coś jak cheat z datą zdjęcia czy rodzajem maszyny do rentgena, wykorzystywanym do oszacowania prawdopodobieństwo raka) dostajesz odpowiedzi puli danych źródłowych zakwalifikowanych jako inteligentne (nie dosłowna kwalifikacja, bo tą było by raczej: "zadowalające ludzi wyzywających AI od głąbów" co się - chwilowo - z inteligencją zbiega) czyli też stworzone przez ludzi inteligentnych i w czego konsekwencji bardziej prawidłowe i lepiej napisane niż dane źródłowe stworzone przez idiotów, zawartych w puli z której odpowiedzi dostaje "reszta".

Ps. Czyli jak głuptaski się zczają (bo ten akurat profil nie jest trudny do naśladowania) i sami zaczną lżyć maszyny podział zniknie i metoda przestanie działać.

PPs. I kółko się zamyka. Mówiłem, że tak czy inaczej korporacje od AI dostaną po d* za kradzież danych wykorzystanych do nauki - tak apropo ostatnich odkryć dotyczących tego jak łatwo jest zatruć AI małą ilością wadliwych danych: chciwe ciołki na stołkach zatruły swoje modele ludzką głupotą...

post wyedytowany przez Mqaansla 2025-10-20 12:57:22
Forum Forum Technologiczne
Dodaj komentarz

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl