Forum Gry Filmy i Seriale Tech Ogólne Archiwum Regulamin

Wiadomość Naukowcy pokazali, że AI będzie zawsze halucynować i zgadywać „jak uczeń na egzaminie”; winne są systemy oceny sztucznej inteligencji

22.09.2025 12:19
👎
1
odpowiedz
Darkuss
60
Pretorianin

Naukowcy pokazali, że AI będzie zawsze halucynować i zgadywać

IMO:
Mam podobnie jak profesor Andrzej Dragan: czyli jak ktoś mówi, że coś będzie "zawsze/nigdy", to przestaję go w tym momencie słuchać/czytać.
Nie wiadomo co będzie za dekadę, a ludzie w swojej głupocie są przekonani, że wiedzą, co będzie/lub nie będzie za milion czy miliard lat, i jeszcze później, bo "zawsze/nigdy" nie mają końcowej ramy czasowej.

22.09.2025 12:44
2
odpowiedz
2 odpowiedzi
GreedFire
40
Pretorianin

A ja zawsze oddycham. I co teraz?

22.09.2025 13:04
2.1
1
Darkuss
60
Pretorianin

GreedFire
A ja zawsze oddycham. I co teraz?
Po swojej śmierci tez będziesz zawsze oddychał?

22.09.2025 16:51
Cziczaki
2.2
Cziczaki
200
Renifer

A skąd wiesz że wiesz jak nie możesz znać przyszłości?

22.09.2025 13:22
Wronski
3
odpowiedz
Wronski
31
Senator

Zauwazylem ze halucynacje u Chatgpt zaleza od tego jak sa sformulowane pytania i w jakim jezyku. Jak do tej pory nie mialem problemu przy podanych odpowiedziach gdyz ta w wiekszosci przypadkow sie pokrywala z prawda, testowalem tez inne AI jak Gemini, Deepseek czy Claude i maja podobne symptomy ale za to widac ze probuja udzielic "prawidlowej odpowiedzi" z informacji ktore sie na siebie nakladaja (kilka zrodel z inaczej interpretowana zawartoscia).

23.09.2025 11:36
4
odpowiedz
1 odpowiedź
asasin24
40
Pretorianin

Winne są po prostu systemy ocen. Skoro sztuczna inteligencja padła ofiarą tego systemu, to co mają powiedzieć ludzie po wszystkich szkołach z pruskim modelem nauczania?

23.09.2025 17:35
Christmas
4.1
Christmas
9
Centurion

To nie jest żadna sztuczna inteligencja tylko sieć neuronowa, którą można wytresować jak pieska. Ale nigdy to samo myśleć nie będzie, To taka ulepszona wyszukiwarka internetowa, którą nakarmiono cudzą pracą. I to nie są halucynacje tylko bugi w kodzie.

23.09.2025 11:47
Widzący
5
odpowiedz
2 odpowiedzi
Widzący
252
Legend

Wystarczy zażądać oceny poprawności przy każdym pytaniu. Z uwagi na potrzebę komercyjnego sukcesu, model językowy ma podobać się użytkownikowi. Ma przede wszystkim udzielać odpowiedzi, ludzi nie bardzo odchodzi probabilistyczny mechanizm działania modelu. Udziela on odpowiedzi o pewnym poziomie prawdopodobieństwa, sam niczego nie wie i nie rozumie.
W dużej części pytań prawdopodobieństwo jest bliskie 100%, ale w pewnej części przypadków nie ma tak różowo. Jeżeli model ma preferować udzielenie odpowiedzi, to w wątpliwych przypadkach będzie halucynował.

23.09.2025 12:47
5.1
LugiaFan9
13
Chorąży

Rozumieją one sporo, a na pewno więcej niż ty. Problemem jest ignorancja tematu u osób takich jak ty. Tak, jest tam sporo matematyki, ale zarzucanie że nic nie rozumieją to wykazanie się brakiem wiedzy, a jeśli masz zamiar zarzucić mi to samo, to na prawdę zalecam spojrzenie w lustro. Dodatkowo, twoje sugerowane rozwiązania też nic nie da, chyba że chodzi Ci o moment trenowania modelu, ale to nawet wtedy, człowiek musiał by sprawdzać odpowiedzi.

23.09.2025 13:23
Widzący
😉
5.2
1
Widzący
252
Legend

Model językowy nie ma intencji, woli i rozumu, dlatego niczego nie rozumie w ludzkim sensie. To wszystko działanie algorytmu, treningu i interakcji z użytkownikiem. Bardzo złożone ale dające odpowiedź na podstawie obliczeń i wektorów. Zatem możesz wyrazić życzenie aby do każdej odpowiedzi model dodawał przedział ufności.
Twoje wycieczki osobiste nic do tego nie mają, tak jest i tyle. Model symuluje osobę, ale nią nie jest.

Wiadomość Naukowcy pokazali, że AI będzie zawsze halucynować i zgadywać „jak uczeń na egzaminie”; winne są systemy oceny sztucznej inteligencji