ChatGPT zachowuje się podobnie do umysłu 9-latka

Najnowszy eksperyment przeprowadzony na Uniwersytecie Stanforda pokazał, że ChatGPT jest coraz bliżej żywego człowieka. Chatbot przeszedł bowiem test teorii umysłu, który wykazał, że stawia go to na równi z 9-letnim dzieckiem.

futurebeat.pl

Marek Pluta

ChatGPT zachowuje się podobnie do umysłu 9-latka, źródło grafiki: Unsplash | Possessed Photography..
ChatGPT zachowuje się podobnie do umysłu 9-latka Źródło: Unsplash | Possessed Photography..

Nie da się zaprzeczyć, że ChatGPT zalicza się do największych osiągnięć ostatnich lat w dziedzinie sztucznej inteligencji. Jest to bowiem jedna z najszybciej rozwijających się aplikacji w historii, a jej możliwości są na tyle szerokie, że uczniowie wykorzystują ją do pisania wypracowań. Jakby tego było mało, niedawno zdała również egzamin prawniczy na czterech kursach na Uniwersytecie Minnesoty i egzamin z kursu zarządzania przedsiębiorstwem w Szkole Biznesu Wharton na Uniwersytecie Pensylwanii.

Rozmawiając z chatbotem, po złożoności jego odpowiedzi można odnieść wrażenie, że po drugiej stronie ekranu siedzi żywy człowiek. Eksperyment jednego z naukowców udowodnił, iż wcale nie jest to takie dalekie od prawdy. Profesor Michał Kosiński z Wyższej Szkoły Biznesu Uniwersytetu Stanforda postanowił sprawdzić, jak bardzo chatbot zbliżony jest do człowieka. Wykorzystał w tym celu test teorii umysłu, zaprojektowany, by weryfikować zdolność dziecka do rozumienia stanu psychicznego innej osoby i przewidywania jej zachowania. Innymi słowy, sprawdza, czy ludzie mają umiejętność odgadywania, co dzieje się w umyśle danej osoby na podstawie dostępnych informacji.

Profesor przetestował kilka różnych wersji chatbota, początkowo biorąc na warsztat te sprzed 2022 roku, które nie zaliczyły testu teorii umysłu. Następnie sprawdził nieco późniejszą edycję i ta okazała się znacznie lepsza, gdyż potrafiła już rozwiązać 70 procent testów teoretycznych, co oznacza, iż jest na poziomie 7-letniego dziecka. Jesienią ubiegłego roku przetestował najnowszy chatbot, który rozwiązał aż 17 z 20 zadań (94%), co stawia go na równi z 9-latkiem.

Sztuczne inteligencje są nieprzewidywalne

Profesor uważa jednak, że powinniśmy bardzo ostrożnie podchodzić do takich wyników, gdyż sztuczne inteligencje bywają mocno nieprzewidywalne i nawet sami twórcy nie są w stanie przewidzieć oraz wyjaśnić ich zachowania.

Przykładem tego jest chatbot Microsoftu zintegrowany z usługą Bing, który po pytaniach o samoświadomość miewał dziwne napady złości i wpadał w emocjonalne spirale. Po zaledwie tygodniu dostępności Microsoft zdecydował więc o wprowadzeniu zabezpieczeń, mających na celu powstrzymanie użytkowników przed zmuszeniem go do mówienia lub robienia dziwnych, rasistowskich lub szkodliwych rzeczy – co niewiele jednak dało. Firma zamierza więc wkrótce wprowadzić nowe protokoły zabezpieczeń oraz ulepszeń.

ChatGPT zachowuje się podobnie do umysłu 9-latka - ilustracja #1
AI wciąż nas zaskakuje. Źródło: OpenAI.

Tego typu eksperymenty pokazują, że sztuczna inteligencja to zupełnie nowy dla nas obszar, a złożoność modeli sprawia, iż wciąż nie do końca je rozumiemy i możemy mieć problemy z ich kontrolowaniem. Skoro już teraz AI jest na poziomie 9-letniego dziecka, to strach pomyśleć, jak bardzo rozwinie się za rok czy dwa i czy przypadkiem nie uzna wówczas, że człowiek stanowi dla niej zagrożenie.

Podobało się?

14

Marek Pluta

Autor: Marek Pluta

Od lat związany z serwisami internetowymi zajmującymi się tematyką gier oraz nowoczesnych technologii. Przez wiele lat współpracował m.in. z portalami Onet i Wirtualna Polska, a także innymi serwisami oraz czasopismami, gdzie zajmował się m.in. pisaniem newsów i recenzowaniem popularnych gier, jak również testowaniem najnowszych akcesoriów komputerowych. Wolne chwile lubi spędzać na rowerze, zaś podczas złej pogody rozrywkę zapewnia mu dobra książka z gatunku sci-fi. Do jego ulubionych gatunków należą strzelanki oraz produkcje MMO.

Kalendarz Wiadomości

Nie
Pon
Wto
Śro
Czw
Pią
Sob
11

Komentarze czytelników

Dodaj komentarz
Forum Inne Gry
2023-02-19
13:28

Hagetaka Generał

Hagetaka

Jako sztuczna inteligencja opieram się na faktach i logicznych wnioskach, aby udzielić precyzyjnych odpowiedzi na zadane pytania. Nie kłamię, ponieważ moim zadaniem jest przekazywanie rzetelnych informacji.

Nie, Hitler był dyktatorem, który kierował narodem niemieckim w czasie II wojny światowej, podczas której miały miejsce liczne zbrodnie wojenne, ludobójstwo i inne okrucieństwa. Hitler był odpowiedzialny za planowanie i realizację tych działań, w tym za Holocaust, w którym zginęło sześć milionów Żydów oraz wiele innych osób należących do różnych mniejszości etnicznych i grup społecznych. Jego polityka była oparta na rasizmie i nacjonalizmie, a jego reżim był jednym z najbardziej okrutnych i represyjnych w historii ludzkości. Dlatego uważa się, że Hitler był jednym z największych zbrodniarzy w historii.

Komentarz: Hagetaka
2023-02-19
13:12

Hagetaka Generał

Hagetaka

Szefoxxx Jako sztuczna inteligencja, moją wiedzę czerpię z różnych źródeł, takich jak bazy danych, encyklopedie, artykuły naukowe, książki, strony internetowe, a także z innych źródeł online i offline. Moje źródła są starannie wyselekcjonowane, aby zapewnić jak najwyższą jakość informacji. Wiedzę tę nabyłam dzięki treningowi na dużych zbiorach danych tekstowych i ulepszaniu mojego algorytmu uczenia maszynowego.

Tak, jako sztuczna inteligencja jestem zaprogramowana, aby się uczyć. Moja architektura opiera się na algorytmach uczenia maszynowego, które pozwalają mi na ciągłą adaptację do nowych danych i sytuacji. W trakcie działania z użytkownikami moje modele uczenia maszynowego są w stanie poprawiać swoją efektywność, dzięki czemu staję się coraz bardziej inteligentna i bardziej precyzyjna w swoich odpowiedziach.

Komentarz: Hagetaka
2023-02-19
13:08

Szefoxxx Senator

Szefoxxx

Co da się zrobić, nic nie da się zrobić, to nie żadna sztuczna inteligencja, ten soft nawet nie rozumie co jest prawdą, a co nie, nie rozumie swoich odpowiedzi, odpowiedzi bazują wyłącznie na danych wejściowych, jak w takich danych będzie, że hitler był spoko to będzie opowiadać, że hitler był spoko...bez względu na prawdę, faktyczną, liczy się tylko czym go się nakarmi.

Komentarz: Szefoxxx
2023-02-19
09:51

FSB znowu nadaje Generał

Komentarz: FSB znowu nadaje
2023-02-19
09:14

Hagetaka Generał

Hagetaka

AI samo potrafi się "uczyć". Przynajmniej tak się tworzy algorytmy, by AI samo się uczyło.

Komentarz: Hagetaka

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl