Radeon RX 6900 XT, RX 6800 XT i RX 6800 - premiera, cena i specyfikacja
gorące głowy zanim coś napiszą głupiego, lepiej niech poczekają na testy, ot co, fajnie sie dzieje, tylko się cieszyć
gorące głowy zanim coś napiszą głupiego, lepiej niech poczekają na testy, ot co, fajnie sie dzieje, tylko się cieszyć
ciekawi mnie jak rozwiążą swój ray tracing i czy będzie spory wpływa na wydajność ale szczerze jeśli chodzi o modelk za 2700 to słabo wychodzi w porównaniu z taką samą 3070 która ma też dlss i rtx. za 2350
"ciekawi mnie jak rozwiążą swój ray tracing i czy będzie spory wpływa na wydajność ale szczerze jeśli chodzi o modelk za 2700 to słabo wychodzi w porównaniu z taką samą 3070 która ma też dlss i rtx. za 2350"
Za to Radeon/y mają bardziej przyszłościowe 16GB pamięci VRAM co przy tylko 8GB RTXa 3070 wydaje się mało śmiesznym żartem, zważywszy że ta karta celuje w wyższe rozdzielczości niż 1080, gdzie nie rzadko już teraz obecne tytuły potrafią zająć prawie 10GB VRAM, choćby Watch Dogs Legion 9,5GB VRAM ustawienia ultra rozdzielczość 4K na RTX 3080 10GB VRAM patrz test NRGeeka od 5:39 minuty https://youtu.be/L-c6HqRRFVE?t=322
Widzialem te testy, ale widzialem takze test w SOTR z Ray tracingiem, ktory wyraznie mowi, ze RX6800 ma podobny RT co RTX3080
Takze radze sie wstrzymac z wydawaniem opinii do premiery
no pojawiły się nawet na stronie dziś . Zostaje czekać i zobaczyć czy się to sprawdzi. jeśli tak to konkurencja cenowa może wróci .
Pożyjemy zobaczymy, ale nie trzeba być ekspertem, żeby wiedzieć, że 16GB VRAM jest lepsze od 8GB, wspomnisz moje słowa za pół roku, jak 8GB VRAM w karcie graficznej to będzie mało.
Jesli karty Amd okaza sie w recenzjach troche wolniejsze od tych na slajdach, ale beda dostepne to Amd jest wygrane. Ja swoja 3080 zamowilem i oplacilem w polowie wrzesnia mamy koniec pazdziernika, a o karcie ani widu ani slychu. Moze w grudniu dostane swoj egzemplarz, a jak nie to zwrot gotowki i wybiore cos od Amd. To smieszne jest, zeby czekac na zamowiony produkt taki jak karta graficzna kilka miesiecy.
To teraz wystarczy tylko, żeby karty AMD były dostępne w sklepach i tym razem wygrali.
Ale z tym w tym roku może być oczywiście ogromny problem, jak z wszystkim...
Moim zdaniem:
- Bardzo interesująca jest technologia Infinity Cache. Nawet przy dwukrotnie węższej szynie danych te karty są w stanie realnie konkurować z najwydajniejszym produktem konkurencji.
- Śmiało można mówić o najwyższej półce wydajnościowej.
- Na plus zasługuje lepsza efektywność energetyczna
Do wad zaliczyć można:
- Brak jakichkolwiek informacji o technologii Ray Traycingu. Nawet jeśli wydajność jest niższa o 20-30% od NVIDII, to nie powód do wstydu, ani tym bardziej do tchórzliwego chowania głowy w piasek.
- Brak jakichkolwiek informacji o wsparciu programowym. Mam na myśli sterowniki i różne bonusy poprawiające jakość wyświetlanego obrazu.
Nawet jeśli wydajność jest niższa o 20-30% od NVIDII, to nie powód do wstydu, ani tym bardziej do tchórzliwego chowania głowy w piasek.
Ty to wiesz, ja to wiem i oni to wiedzą, ale klient mainstreamowy krzyknie "buahaha, słabo, lecę do konkurencji"
Też brakuje mi tego info :(
Całość wyszła zgodnie z przewidywaniami. Szacunek dla nich że zrobili tak duży postęp. Martwi całkowity brak wzmianki o RT nawet 1 przykładu nie podali. Tak samo ciekawi mnie jak by to całe 16GB Vramu wykorzystać czy ten cache dalej by działał tak wydajnie, nie wiem co oni tam przechowują. Dalej jest więcej pytań niż odpowiedzi testy są potrzebne.
Spodziewałem się że AMD taniej wyceni te karty, widzą że nvidia podażą nie wyrabia to klientów im nie zabraknie.
Sporo osób siedzi jeszcze na pascalach, a dodatkowo każdy z tych graczy może mieć w 4 literach RT i weźmie radka. Sam jakbym miał wybór 3080 z RT za 4k albo bez RT za około 3k to wybrałbym bez RT bo ta technologia mnie nie interesuje. Bardziej mi zależy na DLSS ale mimo braku tej technologii wiele osób i tak zdecyduje się na radka. Wystarczy, że będą tylko dostępne.
Siedzę na Pascalu (GTX 1080) i na dziś karty bez RT bym nie kupił, bez względu na różnicę cenową. ; p
Też bez RT nie kupię.
A naprawdę bym chciał AMD, bo i nad AMD procesorem się zastanawiam i widzę że współpracują ze sobą zagrzebiście.. tylko nie mam alternatywy.
RT fajny bajer, RTX Voice genialna technologia, nie o samą wydajność przy tych kombajnach już chodzi. Nie tylko za dodatkowe FPSy tutaj już płacimy
A o problemach ze sterownikami już nie wspomnę... większość ludzi gdyby nie dostępność wybrała by 3080 w Polsce 200zł nie robi dużej różnicy a co dopiero w krajach które dobrze prosperują gospodarczo.
Jeszcze zależy ile 200zł to procent tej kwoty. A to jest ile, ~8% kwoty całości? Zawsze uważałem że jak się stawia sobie budżet, to jeśli coś jest lepsze a różnica mniejsza niż 10% więcej, warto.
Te 3050 zł za 6800xt to za niereferenta ? czy tylko vat doliczony ? To taki MSi czy Asus za 3500 czyli to samo co RTX 3080.
Czyli ceny jak u Nvidi co to jest 200 zł. Słabo. Lepiej wsiąść nvidie i mieć spokój ze sterownikami i zdecydowanie lepsza kulturę pracy.
O, widzę mocno siedzisz na stereotypach. Ale pozwól, że wyprowadzę cię z błędu:
AMD jest stabilniejsze. Jak byś się nie wydzierał, ile byś łez frustracji nie przelał - AMD po prostu jest stabilniejsze. Tak, AMD ma lepszą kulturę pracy niż karty nVidii. Ale z twojego komentarza wyciągam wniosek, że żyjesz w dosyć szczelnej bańce informacyjnej ;]
Jasne. Kultura pracy na wyżyłowanych kartach z TGP 320W i 350W. Bujać to my, a nie nas.
A ze sterowniami problem był głównie w RX 5700 XT. Co o tyle zorozumiałe, że nowa architektura i swoje bolączki miała. Tak jak pierwsza generacja Zen. Nikt już o tym nie pamięta.
A jak nVidida co chwilę wydaje patche bo coś zwaliła w swoich sterownikach to wszystko cacy i ich sterowniki są OK. Bujać to my, a nie nas. Dopiero co przycinali w sterownikach boost serii 3000 bo karty sypały się piasek z dziurawego worka.
W Turingach sypały się pamięci niczym space invaders na potęgę i 5% szło do RMA. Ale nVidida 'lepsza'.
I tak na kartach Nvidii dało się grać po obniżeniu zegara u AMD problemy są z obsługą oprogramowania a nie z wadą hardwaru.
Też nie rozumiem o co ci chodzi z komentarzem dotyczącym TGP obie karty mają podobne TGP i jakoś Nvidia się nie grzeje wiele mocniej niż RTX 2080TI kultura pracy w przypadku obydwu firm powinna być w porządku bo raczej otwór w niereferentach Nvidii za dużo nie daje.
Te ceny są... chore!
W tym momencie nie widać już praktycznie różnicy między konkurencją... wciąż mówię o cenach.
Intel!!! Nie Śpij!!! Konkurencję zrób tym dwóm nienormalnym firmom.
Powiem tak ze jesli te karty typu 6800 po premierze beda normalnie dostepne w sklepie ,tzn widze ja na stronie dodaje do koszyka i kup teraz to AMD juz wygralo to starcie.Ilez mozna czekac na 3080 ,a dostepnosc 3070 to pewnie bedzie gdzies luty 2021, wiec....no bez jaj.Jak taki 6800 (i to z16 gb ) wydajnosciowo ~ 3070 ,to naewet nie bede sie zastanawial i kupuje AMD ,pierwszy raz .
Ja sobie poczekam na 3080 słabszej nie zamierzam kupić, a już myślałem że pierwszy raz może kupie radeona , ale ze względu na to że cenowo się nie rożni od 6800xt to pozostanę dalej przy GF.
Mam tak samo, pierwszy raz chyba AMD u mnie wleci :) Do tego freesync mamy w każdym monitorze to też na ++ :) A Raytracing ogólnie mi powiewa bo słabe to dla mnie a strasznie duzo wydajnosci zabiera.
Co mi po takiej prędkości bez RT?
Przeciez nowe radeony obsluguja raytracing, tylko nie wiadomo jaka jest ich wydajnosc w tej kwestii. Spekuluje sie, ze jest to poziom turinga.
Słyszałem to przy pierwszej zapowiedzi i od tamtej pory nie dane mi było zobaczyć ani jednej rzeczy związanej z RT u AMD oraz nextgenów.
Crysis ?
demon souls remake, watch dogs legion, devil may cry a bedzie tego wiecej
A ile widziałeś gier z ray tracingiem przy premierze Turinga?
Podpowiadam. 0. Za to przez całą prezentacje słyszałeś o raytracingu. Kupiłeś kota w worku. Po przeszło 2 latach jest z 8 gier z RT, przy czym większość dodana daleko po premierze, jak tytuł już wszyscy ograli i mają w pompce. Aktualnie RT nadaje się do benchmarków, bo do grania się nie nadaje. Co gra to inny efekt, bo wszystkich nie wytrzymują z DLSS x 2.
Nie ma na razie gier z konsol obsługujących RT (a to jest implementacja RT w RDNA2), więc dobrze że AMD nie mydliło oczu czymś czego jeszcze nie ma. Mydlenie oczu zostawiamy Jensenowi, oraz tym co dali sobie zamydlić oczy RT.
Przecież pokazano ray tracing . Każda z 5 pokazanych na pokazie gier ma go wspierać, a w dwóch pokazano na pewno ten efekt. Do premiery kart, czyli do 18 listopada, te gry mają mieć swoje osobne prezentacje, na których zapewne ten efekt zostanie lepiej zaprezentowany. Najbliższa już dzisiaj. Jedyne co martwi to szansa, że pojawią się gry z ray tracingiem AMD Only (mniej prawdopodobne, bo AMD korzysta z ogólnie dostępnych bibliotek) lub Nvidia Only (bardzo prawdopodobne - część twórców gier dla RTX będzie musiało wydać aktualizację , żeby ten efekt zadziałał na kartach AMD). Jedyne czego nie pokazano, to wydajności nowych Radeonów z włączonym Ray Tracingiem, ale tu wytłumaczeniem może być, to co napisałem wyżej, czyli że nie bardzo mieli się do czego porównywać. Inne wytłumaczenie jest takie, że chcą się tym chwali w prezentacjach gier, które niedługo pokażą. Fakt, że z przecieków wynika, że wydajność z Ray tracingiem będzie na Radonach o 20% niższa niż na RTX3080, ale i tak lepsza niż na RTX 2080ti, ale krążą też plotki, że efekt na kartach AMD ma być bardziej widoczny (lepiej dopracowany)
Czy wiadomo jak będzie z dostępnością tych kart? Jeśli karty od nVidii nadal nie będą do kupienia, to może skuszę się na Radeona o podobnej wydajności do 3070, czyli prawdopodobnie 6800.
A ja trochę ostudzę zapał. Radzę czekać na testy niezależne. Wtedy wyjdzie czy nie ma problemów ze sterownikami, czy wydajność jest jak zapowiadana itd. Kibicuję AMD, ale na teraz RTX to bezpieczniejszy wybór. Doceniam jednak progres czerwonych, w następnej generacji mogą już poważnie powalczyć. Nawet w obecnej mogą już solidny kawałek tortu zgarnąć dla siebie.
Ciekawe propozycje, chociaż wydaje mi się, że Nvidia ma ciekawszą ofertę, jeśli już wydawać tyle kasy, to dobrze mieć rdzenie RT w zestawie. Lepiej za to mogą się prezentować karty pokroju 6600, czy 6700, tam Rt nie ma już takiego znaczenia.
Brak parcia AMD w strone raytracingu to dla wielu osob bedzie zaleta, a nie wada bo przyrost jakosci obrazu zawsze tu bedzie odwrotnie proporcjonalny do straty wydajnosci. Ficzer ma sens tylko kiedy dysponuje sie ogromnym zapasem wydajnosci i nie ma parcia na utrzymanie wyzszej plynnosci dzialania gier ale i tez nie zawsze. Wyjda gry na nowa generacje konsol i ludzie aby utrzymac 60 FPS nawet na 3090 zaczna wylaczac RT albo rezygnowac z innych ficzerow. RT to taki sam niewypal jak kiedys physx.
Cieszy mnie, że AMD próbuje konkurować w GPU, bo wymusza to zdrową konkurencję, korzystną dla nas. Tyle że:
"Zestaw narzędzi AMD FidelityFX, który znany jest deweloperom od dłuższego czasu, poszerzy się o nowości pokroju Super Resolution, odpowiednika techniki DLSS."
Jakoś nie wierzę, że ten odpowiednik DLSS, będzie konkurencyjny. Nvidia od lat działa ze Sztuczną Inteligencją, osiągając spektakularne wyniki. A DLSS jest oparty właśnie na SI. A AMD, to jakoś mi nie wiadomo, by prowadzili jakieś działania związane z tworzeniem SI. Dojście do poziomu, tego co osiągnęła Nvidia, może zając AMD kilka lat. Oczywiście mogę się mylić, bo to są tylko moje przemyślania w tej sprawie... ;)
DLSS ma tyle z SI wspólnego co krzesło z krzesłem elektrycznym. Marketingowa papka, DLSS to zwykły upsampling z innym aliasingiem plus parę innych sztuczek. A przy SI to to nie łeżało nawet.
"DLSS ma tyle z SI wspólnego co krzesło z krzesłem elektrycznym. Marketingowa papka, DLSS to zwykły upsampling z innym aliasingiem plus parę innych sztuczek. A przy SI to to nie łeżało nawet."
Ekspert się znalazł. Wiesz w ogóle, od czego jest ten skrót: "DLSS" ;)
Jak dla Ciebie są to proste sztuczki, i zwykły algorytm, to napisz taki, i sprzedaj za grube miliardy $ do AMD. :)))
Ciekawe, ale szukałem w podanych danych na jakich warunkach porównano RX 6900 XT z RTX 3900 i nie znalazłem tych informacji. Wygląda na to, że wszystkie porównania dotyczyły RTX 3800, a mimo to na grafikach podano model 3900.
Zapewne źle szukałem albo... topowa karta nie osiąga wyników konkurencji i... no cóż, nie byłby to pierwszy raz kiedy prezentacja produktu w porównaniu do konkurencji jest, delikatnie mówiąc, naciągana.
Życzę jednak AMD sukcesu, bo chcemy widzieć walkę i bitwę na najniższą cenę - z korzyścią dla nas - klientów.
WTF, jasne ze testowano 3090, obie karty na najnowszej platformie ZEN3
Szukałeś 3090 czy 3900 ?
Swietna informacja. Mam nadzieje ze te karty nie tylko beda rywalizować z Nvidia ale zabiora jej przynajmniej polowe klientow a wtedy bede mogl spokojnie kupic nowa karte Nvidii.
Podobno dobrowolne nadstawianie sie do dojenia jest teraz modne. Tylko to bardziej wirtualne dojenie skoro kart zielonych dalej nie ma i sa fabrycznie zepsute :D No ale misje wykonales. Nalezy Ci sie exp od zielonych za propagande.
No coz taka mam sytuacje, siedze jeszcze na 1080ti i ta karta nadal u mnie daje rade jesli mam zmieniac to interesuje mnie najlepszy RT i DLSS a cena ma mniejsze znaczenie a to ma w ofercie akurat Nvidia tylko ich kart nie ma wiec zycze jak najwiekszego sukcesu sprzedazowego AMD
Cena 999$ Wydajność podobna do RX 3090 czyli co fanboje zielonych dopłacili 500$ za 5 fps więcej.
Wszystkie te karty obsługują sprzętowo RT. Nie rozumiem pisania komentarzy, a tym bardziej narzekania bez sprawdzenia dokładnie informacji. Warto też dodać, że wydajność z włączonym RT jest niższa niż u Nvidii (widać to na wykresach), ale postęp zrobili ogromny. Do tego, jak trafnie ktoś już tutaj zauważył, jeżeli ich karty będą po prostu normalnie dostępne, to już wygrali.
Czas najwyższy, żeby AMD się przebudziło, wyciągnęło rękę z nocnika i zrobiła coś ze swoimi GPU.
Topy mnie nie interesują, są za drogie, to półka cenowa dla przedsiębiorców zarabiających na pracy na tych GPU.
Jako gracz i teresuje mnie półka cenowa do 1500 zł, a najbardziej półka do 1000 zł.
Liczę, że AMD przedstawi godnego następcę RX580, który będzie minimum 2x wydajniejszy w czystej mocy plus nowe bajery w tym odpowiednik DLNSS w cenie do 1000 zł.
W tej chwili NVIDIA olała półkę do 1000 zł, a to rynek kilkuset milionów potencjalnych nabywców i AMD mogłoby właśnie ten rynek przejąć i na nim zarobić w efekcie skali.
Topy to 1% rynku, a GPU do 1000 zł to wg statystyk Steam ponad 50% rynku.
Wystarczy się schylić po darmowy rynek, mam nadzieję, że ktoś w AMD to dostrzega i zdaje sobie sprawę, że bardziej im by się opłacało przejąć 50% rynku GPU na PC niż nic się z 10x większym i bogatszym graczem o 1% userow.
Top już ma wydajne GPU, brakuje zagospodarowanie przedziału 500 (poniżej już lepiej zostań na integrze) do 1500 zł.
Na produktach premium zarabia się najwięcej i to one są najważniejsze dla producentów. - tak jest w wielu branżach. Fabryki i tak pracują na pełnych obrotach - trzeba składać zamówienia dużo wcześniej bo potencjalnych klientów (Apple, AMD, Nvidia, Sony itd.) jest więcej niż mocy przerobowych. Z dostępnością materiałów i podzespołów też jest różnie. Jestem przekonany, że zarówno AMD jak i Nvidia świadomie tak traktują rynek low to mid range. Pomimo większej liczby klientów pieniądze są w droższych kartach.
Liczę, że AMD przedstawi godnego następcę RX580, który będzie minimum 2x wydajniejszy w czystej mocy plus nowe bajery w tym odpowiednik DLNSS w cenie do 1000 zł.
Na takie coś raczej nie ma szans w tej generaccji, 2x wydajność rx580 to okolice RTX 2080. Biorąc pod uwagę to co pokazali to karta o wydajności dwa razy wyższej niż RX 580 to w najlepszym wypadku jakiś rx 6600 xt za ~1500zł, realistycznie coś bardziej w okolicach 2000zł.
Nie podniecać się jeszcze. Geforce pokazał swoje karty pierwszy oczywiście pokazał je w najlepszym świetle testując na tym na czym mu wygodnie. Radeon miał tu jeszcze bardziej komfortowo. Cena, specyfikacja to są fakty natomiast poczekajmy na niezależne testy na różnym sprzęcie w różnych konfiguracjach bo bo nie jest tak, że jak się weźmie 2 karty tej samej klasy to jedna będzie lepsza od drugiej. Wiele zależy na warunki w jakich się je testuje.
Karty wyglądają dobrze dla mnie teraz kwestia to czy AMD będzie mieć lepsza dostępność, pokaże panowie premiera tego i tego i są karty w sklepach fizycznie a nie na stronie. Bo to co robią sklepy z nowymi Rtxami wyglada na niczym Janusza Biznesu, na stronie wszystko ładnie a koniec końców nie wiesz kiedy dostaniesz produkt za rok będzie już na pewno.
Co wy sie podniecacie jeśli chodzi o rx6800. Dzisiaj premiera RTX 3070 jesli cena bedzie oscylować w okolicach 2700 zł to sory RX6800 to żaden konkurent. Cena podana w artykule mówi przeliczeniu z dolarów. Dodajmy marżę sklepu itd. RX 6800 będzie zdecydowanie droższy...
Do tego niepewny RT
A to RT Nvidii jest pewne? Przecież już dziś RTX 3090 to za mało do RT nawet z DLSS - Control nie jest w stanie utrzymać 60FPS z RT i DLSS. Wyjdzie jakaś gra która wykorzysta kilka efektów jednocześnie i nie będzie korytarzowa to wszystkie obecne GPU odpadną.
Właśnie zakupiłem RTX 3070 od MSI w x-kom 2899 zł. Mam nadzieję , że wyjdzie mi to na dobre :)
Po oc nawet 3080 to zapewnia
Nowe Radeony maja osobne jednostki do RT jak karty Nvidi (AMD nazywa je Ray Accelators), ale generalnie RT to takie troche dx11 jak w kartach GTX4xx/Hd5xxx, obie te serie mialy dx11, nvidia byla wydajniejsza w tym.. Tyle, ze wciaz za slaba
RT to może za 5 lat będzie miało sens chyba że wymyślą coś innego i każdy o tym zapomni
"Ujawniono" ugryzę się w paluchy ale autor winien odstawić teorie spisku na jakiś czas...
https://wccftech.com/amd-radeon-rx-6800-rdna-2-graphics-card-ray-tracing-dxr-benchmarks-leak-out/
Jezeli to prawda to Nvidia zostala totalnie pozamiatana
No, jeśli to prawda, to w AMD zdarzył się cud, bo takie osiągi dosłownie znikąd... Niby seria RX5000 już poszła ostro do przodu względem starej architektury, ale taki skok... Ależ jestem podekscytowany!
https://www.purepc.pl/amd-radeon-rx-6000-producent-chwali-sie-wydajnoscia-kart#comment-783015
No to bedziemy mieli nowego krola wydajnosci ;)
Oby AMD nie zwalniało tempa i w przyszlej generacji calkowicie upokorzylo Nvidie
Obecnie sytuacja wyglada tak, ze AMD jest nadal w tym samym procesie co generacje temu, podczas gdy Nvidia zjechala nizej
Wszystko wskazuje na to, ze inifity cache to byl strzal w dziesiatke