AMD ponoć pracuje nad „pogromcą Nvidii" - premiera kart za rok?
Wiem, że niby słyszymy to co roku i dział PR AMD zaraz pewnie ruszy z jakimiś buldożerami czy poor Volta, ale w tym roku Czerwoni pokazali że są w stanie nawiązać walkę z Nvidią. Nadal zieloni są górą, ale AMD sporo lekcji odrobiło i jest coraz lepsze.
Życzę im, żeby się wydarzyło to co na rynku CPU, że AMD nawiąże sensowną walkę z Nvidią i Zieloni poczują oddech na karku. Lepsze to niż karty ze średniej półki po kilka kafli.
Będzie to samo co z procesorami... fajnie fajnie ale jednak kupa. Z tym że będzie podwójna kupa bo bezużyteczna do pracy. Nie mają startu do CUDA od Nvidii :)
Procesory AMD są tak słabe, że obecnie na rynku DIY stanowią 70% sprzedaży. Do tego już ponad 10% rynku data centre łyknęli z epicami. Co do kart to RDNA to architektura do gier, a nie do pracy. Zarówno następca XBOX jak i PS będą korzystały z kart AMD, Samsung w telefonach będzie korzystał z kart AMD, Google Stadia korzysta z kart AMD, także życzę powodzenia w przyszłości z supportem RTX. NVIDIA stoi na skraju krachu giełdowego, bo cena ich akcji jest mocno zależna od bardzo wysokiej marży na ich produkty oraz dodatkowo jest sztucznie napompowana przez rynek data centre i machine learning, tylko że to za bardzo im się nie chce sprzedać. Życzę NVIDII powodzenia, ale czekają ich trudne lata.
@blood, nVidia za swoje praktyki antykonsumencie i antyrozwojowe sobie zasłużyła. Nie ma co im kibicować. Jeszcze na to nie pora. Jeszcze sobie na zaufanie nie zasłużyli, a dobry wizerunek zyskać im nie łatwo przyjdzie. Zresztą to jest podmiot o wiele większy od AMD. Mają zapasy, żeby przetrwać chude lata, nawet gdyby im się przyszło z nimi zmierzyć.
Warto tez wspomnieć ze wcześniej jeszcze nVIDIA nie docenila AMD gdy ktoras seria ich kart była przez nich skrytykowana powiedzmy z brak ray tracingu. Szanse teraz będą się wyrownywac i amd będzie potem znowu przodować w kwesti top układów. Phoenix z popiolow powoli wraca na swoje należne mu miejsce.
Aż się zalogowałem, żeby dać ci minusa, sticky_dude. Dawno większych bzdur nie czytałem.
Trzeba być totalnym ignorantem, aby zaklinać rzeczywistość - AMD nowymi prockami pogoniło kota Intelowi pod względem cena/wydajność, a w segmencie kart graficznych podgryzają NVidię, gdzie oczywiście z topowymi modelami NV nie mają szans na razie.
Niech dadzą pogromce który rozgromi konkurencje pod względem opłacalności a nie tylko wydajności.
Fajnie, szkoda tylko że wtedy na rynku będzie już rtx3080
AMD będzie gromiło haha jak czytam ten ich bełkot od lat to śmiać mi się chce ,AMD nigdy nawet nie dorówna NVIDI ...oni są jak Najman od lat próbują i bardzo by chcieli wygrać ale nie potrafią bo nie mają umiejętności.
Hmm...
Pożyjemy, zobaczymy. Ale nie zakładałbym z góry, że to, co napisałeś, jest niemożliwe.
Zależy w jakim segmencie, w niskobudżetowych są górą, w średnio budżetowych jest wyrównanie, raz jedna strona ma lepszą ofertę, raz druga, natomiast w segmencie wysoko budżetowym Nvidia jest bezkonkurencyjna. Tutaj jest to już kolejna próba wejścia w wysoki segment, moim zdaniem na ten moment zupełnie nie potrzebna, skupiliby się na segmencie średnim i niskim, a dopiero po jakimś czasie, kiedy nadgoniliby trochę NV pod względem popularności, wejść na wysoki. No chyba że faktycznie tym razem im się uda, chociaż mi się nie wydaje.
AMD w przeszłości wielokrotnie wyprzedzało NV, więc nie ma się co dziwić jak i teraz się tak stanie. Gdybyś był w stanie ogarnąć swoim rozumkiem w jakich rozmiarach są chipy nowych kart AMD vs wielkość Turingów i fakt, że Turingi przy przejściu na niższy proces technologiczny nie zeskalują się w dół do tak małych rozmiarów jak RDNA, to byś nie pisał takich głupot. AMD odwaliło z RDNA kawał dobrej roboty biorąc pod uwagę ich niewielki rozmiar. Jedynym powodem dla którego AMD nie ma teraz karty RDNA o wysokiej wydajności jest to, że czekają aż uzysk w 7nm będzie większy, a cena niższa. Dlatego krążą plotki o modelach o większej mocy planowanych na koniec 2019 / 2020 rok.
To samo kiedyś mówili o procesorach, a teraz mamy ryzena o kilka % nizszej wydajności niż i7 2x taniej
Ja trzymam kciuki bo te karty nie są złe, to jest jakość=cena a nVIDIA ma każdego w dupie wyda nie powiem bo dobrą karte ale z tak zawyżona ceną że taki przeciętny kowalski musiałby całe 3-4 wypłaty przeznaczyć na samą karte (chodzi mi tutaj o RTX 2080 ti FE) już nawet o Titan RTX nie wspominając... A AMD daje rozsądną cene, daje swoje układy do konsol, samsungów, google stadia, życzę żeby AMD wypuściło tak dobrą karte że te rtxy i jak wyjdą nowe to też i je zmiażdżyło może wtedy nVIDIA pomyśli jakiego konkurenta mają
Kibicuje AMD kto pamięta swietną kartę HD4870? po za tym po 2021 Raytracing będzie w większośći grach a z tego co wiadomo AMD będzie miało własny sposób na Raytracing więc albo ta metoda będzie gorsza od Nvidia albo lepsza.
hubert43, piwo dla ciebie, rok w rok ten sam bełkot, miałem r9 290 w parze z i 5 2500, czekałem czekałem czekałem aż nastąpi obiecana rewolucja i kupiłem 2070 plus i7 9700k i jestem zadowolony. jasne że nie jest tanio ale z drugiej strony topowy telefon nawet z pod znaku CE (nie mylić z ce mark) też kosztuje około 2k
A po premierze nowych kart gdy okaże się, że niestety jeśli mają być mocne to i będą kosztować podobnie do kart nVidii, a wtedy 50% fanbojów AMD zniknie, a drugie 50% stanie się hipokrytami :)
A dlaczego mieliby być tańsi gdyby jeśliby oferowali taką samą moc? Jak NVIDIA goli frajerów 1200$ za 2080 ti to jest ok, a AMD już nie może?
Bo niektórzy stawiają przed AMD nierealne wymaganie, mają być lepsi pod każdym względem bo inaczej są słabi. NV tak naprawdę jedyne w czym teraz bryluje to czysta wydajność.
Po serii Navi która wyszła przestałem wierzyć w AMD. Co z tego, ze wydajność skoczyła, skoro dali ceny jak Nvidia.
Cena wydajność praktycznie taka sama, a do tego nie wspierają sprzętowo RT, więc jak są tańsze, to tylko z tego względu.
A jak teraz patrze na ceny, to w sumie nie są jakoś specjalnie tańsze.
Nie wiem co myślą. Osobiście nie widzę powodu, by kupować karty AMD.
Pomijam już fakt, że nie widzę powodu kupowania karty za ponad 2000zł.
A ja osobiście nie widzę powodu kupowania karty nvidia. Ani to tańsze ani lepsze, a do tego więcej problemów ze starszymi grami.
W moim przypadku jest własnie na odwrót. Wydajność tych kart jest podobna, ale karty Nvidii maja jeszcze zapas OC i po OC pobierają zauważalnie mniej prądu.
AMD powinna konkurować ceną, a nie konkuruje.
Odpowiednik 2060 Super jest tańszy o 200 zł, a odpowiednik 2070 Super jest tańszy o 400 zł. Mają rozdawać je za darmo Twoim zdaniem? Jeśli chodzi o OC to karty AMD mają równie duży zapas i dystans pomiędzy kartami się nie zmienia po zaaplikowaniu OC po obu stronach, więc nie jest to argument.
.
A po jaką cholerę mają wspierać RT, które jest w zaledwie dwóch grach i ledwo to działa (niesamowite spadki FPS)?
Chcesz to kupuj nvidię, nie ma problemu. Tylko z tym RT to się tak nie rozpędzaj, bo to nie będzie wiodąca technologia w ray tracingu.
Znowu argument z obsługą RT... Jeśli ta technologia się rozpowszechni, to na pewno nie w takiej formie jak teraz, gdzie trzeba kupić co najmniej rtx 2070 super żeby płynnie pograć z włączonym RT. Szkoda pieniędzy na to, lepiej kupić wydajniejsze radeony a zaoszczędzone pieniądze odkładać na kolejny upgrade sprzętu.
Ale chyba lepiej mieć RT niż nie mieć. Jest kilka gier, nie zmienia to faktu, że na takim RTX 2060 Super już pograsz z RT, a na Navi nie.
Tylko jaki sens ma rt na 2060 jak nawet stalego 60fps w fhd nie osiagniesz
Tak, tylko na 2060 Super nie ma to sensu i jest 200zł droższy od odpowiednika AMD, natomiast 2070 Super jest 400 zł droższy od odpowiednika AMD.
Porównuję najtańsza do najtańszej, bo nie ma polskich cen kart AIB. Jeśli chodzi o rynek amerykański to referenty zostały przecenione, natomiast niższe modele kart AIB wskakują w pułap cenowy referentów, więc jest dobrze. Jeśli chodzi o RT, to nie, nie ma sensu za niego dopłacać obecnie kilku stówek. Po pierwsze, na kartach low/mid tier nie ma sensu z powodu niskich FPS, na kartach high-end nie ma sensu, bo to się szybko zestarzeje i za rok będziesz miał dużo wydajniejszą kartę i 2080Ti w porównainu do czegokolwiek co wyjdzie za rok z RT będzie liche, ostatnia sprawa to RT od NVIDII nie będzie standardem rynkowym jeśli chodzi o ray tracing, więc póki co nie wiadomo, czy będzie równie wydajny jak to co zaproponuje AMD ze względu na to, że konsole będą z RT na układach AMD. Inwestowanie w RT obecnie to pole minowe. Jak chcesz to kupuj RTX 2070 super za 2300 zł albo 2080 Super za dodatkowy 1000 zł, tylko za rok nie płacz że RT na tych kartach szybko się zestarzało. NVIDIA wprowadziła tensor cores dla rynku dc i machine learning, a głupki fundują NVIDII wejście na inny rynek.
Zecik, ale na razie sam pleciesz bzdury na temat boskości RT. Nie podałeś żadnych racjonalnych argumentów za posiadaniem karty z RT. Te "crapy" 5700 oraz 5700XT niewiele ustępują, a w niektórych testach konkurują z ray tracingowymi crapami od NV, a kosztują mniej kasy. Ponawiam pytanie - po co AMD ma dokładać się do raczkującej technologii, która wykorzystywana jest tylko przez dwie gry, które i tak nie chodzą płynnie z uruchomionym RT? Jak RT stanie się standardem i AMD opracuje własną technologię RT - wtedy możemy pogadać.
Nie mierz wszystkich swoją miarą - nie każdy gra w gry AAA, zwłaszcza gdy ostatnio gry z triple A nadzwyczajnie posysają. Trzeba naprawdę nie ogarniać tematu, by inwestować w kartę z RT, gdy sama nowinka jest tylko ciekawostką, dodatkiem w grze. Nawet nadchodzący Cyperpunk 2077 będzie miał opcjonalnie RT.
Do indyków to się kupuje tania karcioszke a nie kartę za prawie 2 k
Nie znamy cen niereferentów więc skąd masz info, że ponad 2k?
a za 3 lata mozesz nie zagrac w nowa gre AAA
Ty na prawdę liczysz na to, że będziesz w stanie cokolwiek uciągnąć z RT na obecnych kartach za 3 lata? One sobie teraz nie radzą.
@Zecik871 RX 5700XT bez problemu będzie radzić sobie z grami AAA za te 2-3 lata. Vega 56, która już w momencie premiery nie była kartą z najwyższej półki, ma już 2 lata a nadal wszystkie gry AAA śmigają na ultra/wysokich ustawieniach graficznych na 1080p ze stałymi 60 fps. I co ciekawe radzi sobie obecnie lepiej niż ówczesny konkurent, czyli gtx 1070.
@blood napisał: "Chcesz to kupuj nvidię, nie ma problemu. Tylko z tym RT to się tak nie rozpędzaj, bo to nie będzie wiodąca technologia w ray tracingu."
Jest i pierwszy wróżbita Maciej. :)))
Żadna platforma do gier nie korzysta i nie będzie korzystać z nvidii oprócz rynku DYI PC, więc czego się spodziewasz? Nie trzeba być analitykiem żeby to przewidzieć.
Nie zesraj się z tą cena, żadna karta AIB jeszcze u nas premiery nie miała. Sądząc jakie w Tobie to emocje wywołuje, to Ty jesteś fanboyem.
Crapem to są karty RTX od nvidii. Wpychają na siłę słabo działającą technologię RT do kart graficznych i cieszą się, że ich fanboje to kupują. Zamiast tego powinni wypuścić nowe karty bez tych śmiesznych rdzeni RT po normalnych cenach ale nie zrobią tego, bo takie jełopy ich bronią i nazywają konkurencję crapem. Przykład gtx 1660 ti pokazuje, że mogą zrobić wydajną kartę graficzną w normalnej cenie.
@Zecik871
Karty AMD nie mają żadnych rdzeni RT, to prawda, jednak RX 5700 jest w cenie RTX'a 2060 (jakieś 1600zł), a jest porównywalny z kosztującym prawie 2000zł RTXowi 2060 Super/2070. Jeżeli mam wybierać między lepszą wydajnością w każdej grze, a niezbyt dobrze działającym RayTracingiem w kilku grach, to wolę wydajność.
A tobie, Zecik, płyta się zacięła - tylko crap i crap oraz RT. Zarzucasz Bloodowi brak argumentacji, kiedy sam nic nie dałeś w tej dyskusji. Ot typowy fanboj NV zaślepiony hehe RT.
Ten śmieszny radeonik kosztował mnie nowy 1600 zł w momencie gdy GTX 1080 kosztował 2200 zł i gram we wszystko w 1440p w 144Hz. Żeby mieć do czegoś porównanie to wg Userbenchmark RTX 2070 ma średni bench 128%. Vega 64 ma średni bench na poziomie 121%. Moja karta po undervoltingu i OC wypada na poziomie 141%. Obecnie jedyny poważnie odczuwalny upgrade to byłby dla mnie RTX 2080Ti, ale jeszcze mnie nie posralo żeby tyle za kartę przepłacić. Jeśli chodzi o zużycie prądu to cały komputer bierze 380w w stresie.
.
Przyznaj się wreszcie, ile nvidia ci płaci za pisanie tych głupot na forum? Pytam z ciekawości, może też tak zacznę robić jeśli dobrze płacą.
opinia janusza ktory kupil 2060 i mysli ze zlapal pana boga za nogi, a intela tez amd mialo dogonic za 20 lat :P
Dlaczego AMD:
- Obecnie 5700XT jest 400zł tańszy od 2070 Super, nie ma sensu dopłacać za RT w tym roku
- brak Geforce Experience
- Radeon Image Sharpening jest ostrzejszy od DLSS, działa w każdej grze i nie ma wpływu na FPS
- Anti-lag zmniejsza input lag, NVIDIA nie ma odpowiednika
- mnogość opcji OC w sterowniku
- wbudowany monitoring zasobów systemowych, nie trzeba instalować afterburnera + riva tuner statistic server
- AMD stworzyło API Mantle, zrobili to jako otwarty standard i na tym zostało oparte DX12 i Vulkan
- AMD korzysta z otwartego Freesync/Adaptive sync. Producenci monitorów nie muszą płacić za support tych technologii. Dotychczas zakup monitora GSync to był dodatkowy koszt około 700 zł. NVIDIA wprowadziła certyfikację monitorów free/adaptive sync nie z dobroci serca, a się okazało że dłużej dymać się klientów nie da
- w cyklu życia starych urządzeń pojawiają się często małe podwyżki wydajności
Dlaczego nie NVIDIA:
- rdzenie tensor były zaprojektowane dla data center i machine learning, a nie RTX. NVIDIA wykorzystuje graczy, by wejść na inny rynek.
- konsole, które w jakimś stopniu będą wspierały RT będą oparte na układach Navi od AMD. Ray Tracing w wykonaniu NVIDIA nie będzie standardem na rynku.
- zakup serii 2000 mija się z celem. Nie ma tak na prawdę żadnej nowej karty oprócz 2080 Ti, wszystkie inne poziomy wydajności były już wcześniej. Cena 2080 Ti jest sztucznie napompowana. Wydajność RT z kart 2000 będzie w przyszłym roku śmieszna, za 2 lata żałosna.
- NVIDIA wprowadza własnościowe rozwiązania, które traktowane są jako "czarna skrzynka" np gameworks itp. Producenci gier nie mają wglądu do kodu i co to robi. NVIDIA wykorzystuje to do wprowadzania mechanizmów wykorzystujące słabe punkty architektury AMD, tak jak w przeszłości nadmierne nieuzasadnione wykorzystywanie teselacji, żeby obniżyć wydajność konkurentów
- NVIDIA ma na sumieniu wydawanie sterowników specjalnie przygotowanych pod benchmarki np 3DMark, co sztucznie zawyżało wyniki, bo ich architektura przegrywała
- NVIDIA przekupuje prase, Just Buy It!
To są fakty. Pooglądaj ostatnie testy sprzętu, a co do oskarżeń w sprawie NVIDIA to są filmy opisujące wszystkie te sprawy. Ośmieszyłeś to się niestety Ty, bo widać, że nie jesteś w żaden sposób przygotowany, by przedstawić jakikolwiek argument.
blood - To jest jakiś troll i prowokator, tych żenujących wypocin się czytać nie da.
To tylko kwestia czasu jak zostanie zbanowany, bo robi tylko tu śmietnik na forum.
@blood
Dlaczego nie warto kupować kart z RT dzisiaj?
Mam i5 9600k (OC Genie od MSI) oraz 2070 Super. Z ray Tracingiem w 1080p (gram w 1080p i więcej nie potrzebuję) mam 80-100 FPS w Metro Exodus i Battlefield 5. Bez DLSS. Z DLSS dołóż 15-20 FPS więcej. Dlaczego niby nie warto? 80 FPS z Ray Tracingiem wg Ciebie jest niegrywalne?
Kupiłeś kartę za 2400 zł i grasz w 1080p. Nie wiem czy się śmiać, czy płakać. 80 FPS w 1080p za 2400zł jest godne pożałowania. DLSS jest dostępny w ograniczonej liczbie tytułów i rozmywa obraz, także podziękuję.
No kupiłem by grać w 144 klatkach na 1080p w gry sieciowe, a w gry single od kiedy nVidia g-sync śmiga na freesyncu to mi spokojnie 80 fps na Ultra z Ray Tracingiem wystarcza.. Jak już pisałem. Mi wyższa rozdzielczość nie jest potrzebna (ewentualnie 1440p). Ile tam masz klatek w 4k na tym śmiesznym radeoniku?
Mój "śmieszny radeonik" kosztował mnie 1600 zł w momencie, gdy GTX 1080 kosztował 2200 zł. Bezproblemowo gram we wszystko @1440p 144Hz w przystępnej cenie. Poniżej przykładowe benchmarki z UB:
RTX 2070 Super - średnia 139%
https://gpu.userbenchmark.com/Nvidia-RTX-2070-Super/Rating/4048
RTX 270 - średnia 129%
https://gpu.userbenchmark.com/Nvidia-RTX-2070/Rating/4029
Mój benchmark na starym CPU z Vega 64 z OC i UV - 141%
Kolo wkleja testy z jakiś stron lol.
Nagraj swój film po prostu. Przecież to żaden problem.
Czekam.
Napisz też w co grasz z 144 FPS, a nie Hz bo Hz to tylko odświeżanie monitora.