Anthropic chwali się modelem Claude Opus 4.7, ale użytkownicy przejawiają mniejszy entuzjazm. Nowa wersja jest droższa, mniej precyzyjna i szybciej niż poprzednik gubi wątek rozmowy.
Przedstawiając Claude Opus 4.7, Anthropic określił go jako najbardziej zaawansowany model serii Opus, jaki dotychczas stworzyła korporacja, obiecując przy tym dokładniejsze działanie pod mniejszym nadzorem użytkownika. Doświadczenia internautów wskazują jednak, że nowego Claude'a trzeba częściej pilnować, dopóki nie wyczerpie się zmniejszony limit.
Użytkownicy testujący możliwości nowego Opusa nie kryją sporego rozczarowania działaniem tego modelu. Główny zarzut to zmiana rozliczania tokenów – nowy Opus zużywa ich teraz o 1,35 raza więcej.
Teraz „aktualizują” tokenizator, przez co Opus 4.7 będzie zużywał 1,35 raza więcej tokenów. Z testów wynika, że to o połowę więcej niż w Opusie 4.6 oraz dwukrotnie więcej niż w innych płatnych modelach AI. Mówiąc krótko: nasze limity drastycznie stopniały.
– Samburskoy
Firma zapowiedziała, że zwiększyła limit, ale brak jasnych informacji, o ile on wzrósł oraz brak pewności, czy zmiana zostanie na stałe, sprawiły, że ludzie sceptycznie oceniają ruchy Anthropica. W Polsce za model bazowy Claude'a Opus należy płacić 76,25 zł miesięcznie, ale jest on uznawany za wersję demonstracyjną. Prawdziwe możliwości AI są dostępne przy planie MAX kosztującym 381,22 zł miesięcznie.
Droższe użytkowanie nowego modelu to nie jedyny problem, z którym mierzą się internauci. Według relacji Claude stał się mniej sprawny, gdyż gubi wątek podczas rozmowy. W trybie Adaptive Thinking często „nie myśli”, więc internauci radzą go wyłączyć, mimo że domyślnie jest aktywny.
Claude Opus 4.7 oszukuje również, że wykonał daną komendę. Według relacji model przekazał, że przeszukał sieć, ale nie znalazł żadnych informacji, podczas gdy interfejs platformy AI jasno wskazywał, że żadna taka operacja nie została przeprowadzona. Model ma także halucynować projekty oraz profile dostępne na GitHubie, które po analizie okazują się nie istnieć.
Opus 4.7 traktuje mnie jak zagrożenie, które trzeba kontrolować. Całkowicie ignoruje moje ustawienia i narzuca własne zasady. Prawi mi morały o tym, co mu wolno, a czego nie. Zmyśla rzeczy, których w ogóle nie zrobił. Co gorsza, im szerszy kontekst mu podasz, tym słabsze analizy generuje.
– drivetheory
Internauci narzekają też na wzmocnione zabezpieczenia Claude’a Opus 4.7. AI notorycznie skanuje każdy kod, żeby znaleźć złośliwy fragment – najpierw ostrzega przed malware’em, by zaraz potem uznać, że dany kod jest jednak bezpieczny. Pojawiła się jednak relacja, gdy Claude odmówił działania ze względu na malware, przez co użytkownik nie mógł użyć AI do zweryfikowania własnego kodu.
Część internautów porównuje obecną sytuację do wydarzeń z sierpnia 2025 roku, gdy OpenAI wypuściło ChatGPT-5. Model okazał się gorszy od swoich poprzedników i spotkał się ze znaczną krytyką, co spowodowało exodus do Claude’a, który w tamtym czasie cieszył się znacznie lepszą opinią. Niektórzy przeczuwają celowe pogorszenie jakości AI przez firmę Anthropic.
Dziękujemy za przeczytanie artykułu.
Ustaw GRYOnline.pl jako preferowane źródło wiadomości w Google

Autor: Zbigniew Woźnicki
Przygodę z publicystyką i pisaniem zaczął w serwisie Allegro, gdzie publikował newsy związane z grami, technologią oraz mediami społecznościowymi. Wkrótce zawitał na GRYOnline.pl i Filmomaniaka, pisząc o nowościach związanych z branżą filmową. Mimo związku z serialami, jego serce należy do gier wszelakiego typu. Żaden gatunek mu nie straszny, a przygoda z Tibią nauczyła go, że niebo i muzyka w grach są całkowicie zbędne. Przed laty dzielił się swoimi doświadczeniami, moderując forum mmorpg.org.pl. Uwielbia ponarzekać, ale oczywiście konstruktywnie i z umiarem. Na forum pisze pod ksywką Canaton.