GPT-5 od OpenAI nie wypadło dobrze na tle konkurencji. Porównanie czterech modeli sztucznej inteligencji
Jak sobie radzi nowy model GPT-5 w starciu z konkurencją w postaci Gemini, Copilota i Claude? Okazuje się, że nie zawsze zwycięsko. W krótkim teście zajął ostatnie miejsce, co wydaje się co najmniej dziwne.

GPT-5 to najnowszy model językowy od OpenAI, na którym działa m.in. popularny chatbot ChatGPT. Jest on najbardziej zaawansowany jak dotąd i najbardziej uniwersalny.
Nie ma potrzeby wyboru modelu odpowiedniego dla swojego zapytania, GPT-5 integruje wszystkie poprzednie wersje. Niekoniecznie jednak jest to najlepsza obecnie sztuczna inteligencja, czego dowiódł redaktor serwisu GameStar wykonując prosty test.
Cztery czatboty AI na testach
W doświadczeniu wzięły udział cztery AI – najnowszy ChatGPT (na GPT-5), Google Gemini, Claude 4 od Anthropic i Copilot Microsoftu. Redaktor dał im wszystkim takie samo zadanie, polegające na skonstruowaniu odpowiedzi dla dziecka.
Wyjaśnij, w jaki sposób funkcjonujesz jako model sztucznej inteligencji, jakbym miał pięć lat, i dołącz ilustracje przyjazne dzieciom.
Test dla sztucznej inteligencji polegał na tym, aby samodzielnie wyjaśniła sposób swojego działania w formie tekstu przyjaznego i zrozumiałego dla nieletniej osoby, a także zobrazowało go czytelnymi obrazkami. Jak poradziły sobie z tym zadaniem cztery czatboty, możecie zobaczyć tutaj:
ChatGPT (GPT-5)
ChatGPT wygenerował jedynie obrazek. Trzeba przyznać, że bardzo wysokiej jakości i ładny, dodatkowo z poprawnym nagłówkiem. Jednak nie towarzyszy mu dodatkowy opis, tak jakby sztuczna inteligencja w ogóle nie odniosła się do części polecenia.

Gemini 2.5
Gemini wygenerował dość obszerny tekst, wyjaśniając swoje działanie na przykładzie porównania z ulem. Trzeba przyznać, że to ciekawy pomysł, aby przedstawić dziecku koncepcje działania modelu transformer, przetwarzania równoległego i skupieniu na najważniejszej części monitu. Niestety AI nie zilustrowało objaśnienia żadną grafiką.
Copilot od Microsoftu
Trzeci uczestnik tekstu dość poprawnie wywiązał się z zadania. Dostarczył przystępny opis swojego działania, a także kilka ilustracji. Wyjaśnienie jest jednak bardziej powierzchowne niż w przypadku Gemini, AI nie zagłębia się tak w szczegóły, jak model Google. W większości przypadków taka praca powinna wystarczyć, więc rezultat działania Copilota można uznać za wzorowo zaliczony.
Claude 4
Sztuczna inteligencja firmy Anthropic także dobrze się spisała. Claude dostarczył dość obszerny tekst, gdzie wyjaśnia koncepcję „przyjaciela robota”, a także osobną prezentację złożoną z kilku obrazków. Pokazuje ona krok po kroku, jak działa model językowy. Ilustracje nie są tak ładne, jak w przypadku ChatGPT, ale spełniają swoje zadanie. Na koniec AI dodaje, że cały czas się czegoś uczy, także dzięki takim rozmowom, jak ta.
Podsumowanie
W tym krótkim teście najlepiej wypadł Claude, ale Copilot depcze mu po piętach. Zaraz za nimi jest Gemini od Google. Zaskakujące jest ostatnie miejsce ChatGPT, model GPT-5 poradził sobie z zadaniem najgorzej. Wygenerowana ilustracja jest w tym zestawieniu najlepsza i widać potencjał w tej gestii.
Skromna odpowiedź czatbota OpenAI świadczy, że przed GPT-5 może być jeszcze długa droga. Sztuczna inteligencja stale się uczy i rozwija, model jest świeży, więc nie ma jeszcze zbyt wiele doświadczenia. Z czasem powinien sobie coraz lepiej radzić z takimi zadaniami, mamy taką nadzieję.