AMD na CES 2025 nie pokazało Radeonów 9070XT i 9070. Firmę wyręczyli youtuberzy
Podczas prezentacji AMD w oczy rzucała się jedna rzecz – brakowało Radeonów, które zostały zapowiedziane między innymi przez youtuberów technologicznych.

Problemy Radeonów nie są niczym nowym, a skalę kłopotów pokazały między innymi wyniki finansowe AMD z lata 2024 roku. Niedługo później pojawiły się sugestie, że „czerwoni” mogą skupić się na niższym segmencie kart graficznych. Nieobecność Radeonów na CES 2025 daje poczucie, że AMD faktycznie kończy z próbą stworzenia high-endowych kart graficznych.
Radeony w cieniu Ryzenów na CES 2025
Oglądając prezentację AMD na CES 2025, trudno nie zwrócić uwagi, że zabrakło Radeonów – może poza krótką wzmianką o RDNA 4. Segment gamingu został w pełni poświęcony Ryzenom X3D, w tym nadchodzącemu 9 9950X3D. Wszelkie informacje dotyczące Radeonów pojawiły się albo na portalach technologicznych, albo na YouTube, gdzie przedstawiono informacje przesłane wcześniej przez AMD. Informacji o Radeonach brakuje nawet na oficjalnym profilu w serwisie X.

Między innymi potwierdzono modele RX 9070 XT i 9070, które mają pojawić się w sprzedaży w pierwszym kwartale 2025 roku oraz zdradzono istnienie GPU RX 9060, ale już bez podania daty premiery. AMD przygotowało wykres zestawiający nowe karty graficzne z RTX-ami 40, ale – jak zwrócił uwagę kanał PC Builder – dane nie są dokładne i nie powinniśmy się nimi sugerować (RX 7700 XT powinien być znacznie wyżej nad RTX-em 4060Ti, a RTX 4070 Ti nad RX-em 7900 XT).
Wyjaśniona została także zmiana nazewnictwa. Dzięki przejściu na nowy układ z 9070 i 9060 potencjalnym klientom ma być łatwiej zorientować się, które GPU konkurują ze sobą. Nvidia jednak na CES 2025 zapowiedziała RTX-y 50, przy którym nowe Radeony będą blednąć, jeśli faktycznie wydajnościowo konkurują z RTX-ami 40.
Dlatego najważniejszym czynnikiem będzie cena. Nowe Radeony będą musiały być wyjątkowo przestępne, żeby znaleźli się chętni. Być może zapowiadany FSR 4 okaże się dobrą konkurencją dla DLSS-a. Pytanie tylko, które karty graficzne będą miały do niego dostęp, bo w przypadku DLSS-a 4 Nvidia ogranicza go tylko do RTX-ów 50.
Komentarze czytelników
Vroo Generał

Po komentarzach widzę mental typu: "płacę wam miliony monet (czyli tak naprawdę 200 zł na VPN, albo stówkę na promo po roku), więc WYMAGAM. Już widzę jak kupujecie nowości za >350 zł, yhm, na bank.
Ale do sedna. Pierwszą grą, która wyleczyła mnie z wielkich, otwartych światów było moje 1 największe growe rozczarowanie w życiu: Gothic 3. Świat stworzony chyba w generatorze ctrl+c -> ctrl+v. Żadnych ciekawych postaci, żadnej fabuły, prymitywne questy, mapa obsiana potworami.
Drugą grą, która mnie wyleczyła podwójnie z otwartych światów to Wiedźmin 3. Rany, jak ja czekałem na tę grę, brałem specjalnie urlop. Nawet ten koszmarny dowgnrade mnie nie zniechęcił. I co? Drugie największe growe rozczarowanie w życiu. Szpetna (grałem na premierę na PS4), pusta, powtarzalna. Ciągle jeździć w te we wte na GPSie od znacznika do znacznika, od pytajnika do pytajnika. Obóz bandytów, legowisko potworów, kontrabanda. Rzyg. Treści z Wiedźmina 2 na 25h wrzucili do gry na 150h. Wioski z jednym questem.
No to już chociaż ten Skyrim był wciągający. I właśnie - jak wychodził Skyrim to takich gier praktycznie nie było, więc w jedną można było wsiąknąć, mimo, że po którymś, 50-tych dungeonie człowiek nie mógł patrzeć na te draugry i te same przedmioty. Ale teraz 90% gier musi mieć nudną, wielką i pustą mapę z respawnującymi się przeciwnikami. Osobiście zaczynam omijać takie gry szerokim łukiem, a wisienką na torcie rozczarowań po wspomnianym Gothicu 3 i Wiedźminie 3 była trzecia odsłona współczesnej trylogii asasyńskiej (coś te trzecie części nie mają szczęscia), czyli Valhalla. Borze szumiący, jakie to było gunwo. 140h na liczniku, uparłem się, żeby skończyć, ale jednak poddałem się, bo szkoda życia na takie nudne, powtarzalne czynności.
Ludzie piszą, że nie mają czasu. Ja uważam, że jak gra jest dobra i na to zasługuje, to czas się zawsze znajdzie, bo pójdziesz do roboty niewyspany, ale nockę przy dobrej gierze zarwiesz. Ale w takich przypadkach? Po co? Żeby odhaczyć kolejny, nudny pytajnik?
Mnie się już zwyczajnie nie chce. Nawet takiego Indiana Jonesa musieli dziady rozwlec i nawpychać tam jakichś nieszanujących mój czas pierdół, typu znajdź to, znajdź tamto. Razy 15, razy 25, razy 75. Komu chce się czytać te wszystkie bzdurne wypociny, notatki, zbierać te śmieci? Lepiej pójść z kobietą do knajpy na obiad, albo na siłownię, poczytać książkę, czy zrobić coś sensownego.
mirko81 Legend

Ale to są ułamki sekund. Ok, profesjonalistom czy w multi będzie przeszkadzać. Osobiście jadę na FSR w grach akcji i jako zwykły gracz strzela mi się doskonale np RDR2/Uncharted 4/Sniper Elite 5/Robocop
pawel1812 Generał
W grach, w których klatki sa ważne, ważne nie są klatki, a input lag z nimi związany.
Chodzi o Shootery multi itp. Co Ci z tego, że karta generuje 300płynnych klatek, skoro input lag jest wyższy, niż gdyby ich nie generowała.
Na chłopski rozum chodzi o to, że jak przeciwnik wychyla zza ściany, to przy Frame Generation karta chowa przed Tobą klatkę, w której on już jest widoczny i generuje te międzyklatki, żeby animacje był płynne. Po czym pokazuje Ci tą klatkę z opóźnieniem. I jeśli przeciwnik gdzieś jest pikselem, jest duże prawdopodobieństwo, że nie zauważysz go na tych dogenerowanych klatkach.
No i właśnie dlatego ta technologia jest cudowna w grach, w których klatki są nieistotne. Czyli jaka ta technologia jest ?
Azure Legionista

Dobrze że są na świecie ludzie, którzy nie patrzą na to co było, tylko tworzą innowacje, gdyby tak było żylibyśmy w epoce kamienia łupanego, bo przecież siekierka i kijek to tradycyjne narzędzie, więc po co piła. Zrozum że krzem się skończył i trzeba robić sztuczki takie jak to by osiągać większe kamienie milowe wydajności. AMD to widać zrozumiało, Ty jak widać dalej nie.
mortty Legionista
A po co nie fałszywe i obniżać wydajność jak są praktycznie identyczne. Chyba, że jesteś jednym z tych sadomaso i lupą przy monitorze analizujesz piksel po pikselu ??