Naukowcy pokazali, że AI będzie zawsze halucynować i zgadywać „jak uczeń na egzaminie”; winne są systemy oceny sztucznej inteligencji
Naukowcy pokazali, że AI będzie zawsze halucynować i zgadywać
IMO:
Mam podobnie jak profesor Andrzej Dragan: czyli jak ktoś mówi, że coś będzie "zawsze/nigdy", to przestaję go w tym momencie słuchać/czytać.
Nie wiadomo co będzie za dekadę, a ludzie w swojej głupocie są przekonani, że wiedzą, co będzie/lub nie będzie za milion czy miliard lat, i jeszcze później, bo "zawsze/nigdy" nie mają końcowej ramy czasowej.
Zauwazylem ze halucynacje u Chatgpt zaleza od tego jak sa sformulowane pytania i w jakim jezyku. Jak do tej pory nie mialem problemu przy podanych odpowiedziach gdyz ta w wiekszosci przypadkow sie pokrywala z prawda, testowalem tez inne AI jak Gemini, Deepseek czy Claude i maja podobne symptomy ale za to widac ze probuja udzielic "prawidlowej odpowiedzi" z informacji ktore sie na siebie nakladaja (kilka zrodel z inaczej interpretowana zawartoscia).
Winne są po prostu systemy ocen. Skoro sztuczna inteligencja padła ofiarą tego systemu, to co mają powiedzieć ludzie po wszystkich szkołach z pruskim modelem nauczania?
Wystarczy zażądać oceny poprawności przy każdym pytaniu. Z uwagi na potrzebę komercyjnego sukcesu, model językowy ma podobać się użytkownikowi. Ma przede wszystkim udzielać odpowiedzi, ludzi nie bardzo odchodzi probabilistyczny mechanizm działania modelu. Udziela on odpowiedzi o pewnym poziomie prawdopodobieństwa, sam niczego nie wie i nie rozumie.
W dużej części pytań prawdopodobieństwo jest bliskie 100%, ale w pewnej części przypadków nie ma tak różowo. Jeżeli model ma preferować udzielenie odpowiedzi, to w wątpliwych przypadkach będzie halucynował.
Rozumieją one sporo, a na pewno więcej niż ty. Problemem jest ignorancja tematu u osób takich jak ty. Tak, jest tam sporo matematyki, ale zarzucanie że nic nie rozumieją to wykazanie się brakiem wiedzy, a jeśli masz zamiar zarzucić mi to samo, to na prawdę zalecam spojrzenie w lustro. Dodatkowo, twoje sugerowane rozwiązania też nic nie da, chyba że chodzi Ci o moment trenowania modelu, ale to nawet wtedy, człowiek musiał by sprawdzać odpowiedzi.
Model językowy nie ma intencji, woli i rozumu, dlatego niczego nie rozumie w ludzkim sensie. To wszystko działanie algorytmu, treningu i interakcji z użytkownikiem. Bardzo złożone ale dające odpowiedź na podstawie obliczeń i wektorów. Zatem możesz wyrazić życzenie aby do każdej odpowiedzi model dodawał przedział ufności.
Twoje wycieczki osobiste nic do tego nie mają, tak jest i tyle. Model symuluje osobę, ale nią nie jest.