Badacze sprawdzili, że jeśli jesteśmy bardziej nieprzyjemni dla AI, to podaje ona dokładniejsze informacje. Najgorsze wyniki uzyskuje się przy miłych wypowiedziach.
Tech
Zbigniew Woźnicki
20 października 2025 12:00
Czytaj Więcej
Ostatnio GPT rozwalił mi mózg.
Poprosiłem go żeby mi podał kod w pythonie do narysowania wykresu (szybsze to niż samemu szukać w dokumentacji, bo wykresów dużo nie rysuje). GPT bez problemu wygenerował kod, jedak miał on buga: części wykresu nachodziły na siebie. Widziałem jak to poprawić samemu, więc sobie poprawiłem i zapomniałem o sprawie.
Jakiś czas później kliknąłem w to okienko chatu przez pomyłkę i myślałem że jestem w pasku adresu, więc coś wpisałem i szybko kliknąłem enter. Skutkiem tego niedopatrzenia do chata napisałem wiadomość z kilku losowych znaków "kot przeszedł po klawiaturze".
A ten mi odpisał: "No rzeczywiście w kodzie jest błąd, który sprawia że częsci wykresu nachodzą na siebie, oto poprawiona wersja:"
Podejrzewam, że z racji tego że ludzie inteligentni zadają trudniejsze pytania i rzadziej są zadowoleni z tych prostych, wyzywanie od głupków sprawiło że dane źródłowe zostały podzielone (realistycznie przypisano ~ciągłe wagi) na takie skutecznie zadowalające ludzi cokolwiek inteligentnych i resztę.
To jest zadając pytania w sposób inteligentny (sztuczny abstrakcyjny podział, chociażby tu się pojawił przy okazji inwektywy ~ coś jak cheat z datą zdjęcia czy rodzajem maszyny do rentgena, wykorzystywanym do oszacowania prawdopodobieństwo raka) dostajesz odpowiedzi puli danych źródłowych zakwalifikowanych jako inteligentne (nie dosłowna kwalifikacja, bo tą było by raczej: "zadowalające ludzi wyzywających AI od głąbów" co się - chwilowo - z inteligencją zbiega) czyli też stworzone przez ludzi inteligentnych i w czego konsekwencji bardziej prawidłowe i lepiej napisane niż dane źródłowe stworzone przez idiotów, zawartych w puli z której odpowiedzi dostaje "reszta".
Ps. Czyli jak głuptaski się zczają (bo ten akurat profil nie jest trudny do naśladowania) i sami zaczną lżyć maszyny podział zniknie i metoda przestanie działać.
PPs. I kółko się zamyka. Mówiłem, że tak czy inaczej korporacje od AI dostaną po d* za kradzież danych wykorzystanych do nauki - tak apropo ostatnich odkryć dotyczących tego jak łatwo jest zatruć AI małą ilością wadliwych danych: chciwe ciołki na stołkach zatruły swoje modele ludzką głupotą...