ChatGPT zachowuje się podobnie do umysłu 9-latka
Najnowszy eksperyment przeprowadzony na Uniwersytecie Stanforda pokazał, że ChatGPT jest coraz bliżej żywego człowieka. Chatbot przeszedł bowiem test teorii umysłu, który wykazał, że stawia go to na równi z 9-letnim dzieckiem.

Nie da się zaprzeczyć, że ChatGPT zalicza się do największych osiągnięć ostatnich lat w dziedzinie sztucznej inteligencji. Jest to bowiem jedna z najszybciej rozwijających się aplikacji w historii, a jej możliwości są na tyle szerokie, że uczniowie wykorzystują ją do pisania wypracowań. Jakby tego było mało, niedawno zdała również egzamin prawniczy na czterech kursach na Uniwersytecie Minnesoty i egzamin z kursu zarządzania przedsiębiorstwem w Szkole Biznesu Wharton na Uniwersytecie Pensylwanii.
Rozmawiając z chatbotem, po złożoności jego odpowiedzi można odnieść wrażenie, że po drugiej stronie ekranu siedzi żywy człowiek. Eksperyment jednego z naukowców udowodnił, iż wcale nie jest to takie dalekie od prawdy. Profesor Michał Kosiński z Wyższej Szkoły Biznesu Uniwersytetu Stanforda postanowił sprawdzić, jak bardzo chatbot zbliżony jest do człowieka. Wykorzystał w tym celu test teorii umysłu, zaprojektowany, by weryfikować zdolność dziecka do rozumienia stanu psychicznego innej osoby i przewidywania jej zachowania. Innymi słowy, sprawdza, czy ludzie mają umiejętność odgadywania, co dzieje się w umyśle danej osoby na podstawie dostępnych informacji.
Profesor przetestował kilka różnych wersji chatbota, początkowo biorąc na warsztat te sprzed 2022 roku, które nie zaliczyły testu teorii umysłu. Następnie sprawdził nieco późniejszą edycję i ta okazała się znacznie lepsza, gdyż potrafiła już rozwiązać 70 procent testów teoretycznych, co oznacza, iż jest na poziomie 7-letniego dziecka. Jesienią ubiegłego roku przetestował najnowszy chatbot, który rozwiązał aż 17 z 20 zadań (94%), co stawia go na równi z 9-latkiem.
Sztuczne inteligencje są nieprzewidywalne
Profesor uważa jednak, że powinniśmy bardzo ostrożnie podchodzić do takich wyników, gdyż sztuczne inteligencje bywają mocno nieprzewidywalne i nawet sami twórcy nie są w stanie przewidzieć oraz wyjaśnić ich zachowania.
Przykładem tego jest chatbot Microsoftu zintegrowany z usługą Bing, który po pytaniach o samoświadomość miewał dziwne napady złości i wpadał w emocjonalne spirale. Po zaledwie tygodniu dostępności Microsoft zdecydował więc o wprowadzeniu zabezpieczeń, mających na celu powstrzymanie użytkowników przed zmuszeniem go do mówienia lub robienia dziwnych, rasistowskich lub szkodliwych rzeczy – co niewiele jednak dało. Firma zamierza więc wkrótce wprowadzić nowe protokoły zabezpieczeń oraz ulepszeń.

Tego typu eksperymenty pokazują, że sztuczna inteligencja to zupełnie nowy dla nas obszar, a złożoność modeli sprawia, iż wciąż nie do końca je rozumiemy i możemy mieć problemy z ich kontrolowaniem. Skoro już teraz AI jest na poziomie 9-letniego dziecka, to strach pomyśleć, jak bardzo rozwinie się za rok czy dwa i czy przypadkiem nie uzna wówczas, że człowiek stanowi dla niej zagrożenie.
Komentarze czytelników
Hagetaka Generał

Jako sztuczna inteligencja opieram się na faktach i logicznych wnioskach, aby udzielić precyzyjnych odpowiedzi na zadane pytania. Nie kłamię, ponieważ moim zadaniem jest przekazywanie rzetelnych informacji.
Nie, Hitler był dyktatorem, który kierował narodem niemieckim w czasie II wojny światowej, podczas której miały miejsce liczne zbrodnie wojenne, ludobójstwo i inne okrucieństwa. Hitler był odpowiedzialny za planowanie i realizację tych działań, w tym za Holocaust, w którym zginęło sześć milionów Żydów oraz wiele innych osób należących do różnych mniejszości etnicznych i grup społecznych. Jego polityka była oparta na rasizmie i nacjonalizmie, a jego reżim był jednym z najbardziej okrutnych i represyjnych w historii ludzkości. Dlatego uważa się, że Hitler był jednym z największych zbrodniarzy w historii.
Hagetaka Generał

Tak, jako sztuczna inteligencja jestem zaprogramowana, aby się uczyć. Moja architektura opiera się na algorytmach uczenia maszynowego, które pozwalają mi na ciągłą adaptację do nowych danych i sytuacji. W trakcie działania z użytkownikami moje modele uczenia maszynowego są w stanie poprawiać swoją efektywność, dzięki czemu staję się coraz bardziej inteligentna i bardziej precyzyjna w swoich odpowiedziach.
Szefoxxx Senator

Co da się zrobić, nic nie da się zrobić, to nie żadna sztuczna inteligencja, ten soft nawet nie rozumie co jest prawdą, a co nie, nie rozumie swoich odpowiedzi, odpowiedzi bazują wyłącznie na danych wejściowych, jak w takich danych będzie, że hitler był spoko to będzie opowiadać, że hitler był spoko...bez względu na prawdę, faktyczną, liczy się tylko czym go się nakarmi.
FSB znowu nadaje Generał
A do tego kłamią i są zaprogramowane na kłamstwo:
https://biznes.interia.pl/gospodarka/news-dlaczego-chatboty-klamia-etyka-sztucznej-inteligencji-przegr,nId,6604201
Hagetaka Generał

AI samo potrafi się "uczyć". Przynajmniej tak się tworzy algorytmy, by AI samo się uczyło.