Labovsky

Labovsky ostatnie wypowiedzi na forum i w komentarzach

26.09.2023 17:03
odpowiedz
Labovsky
43

"Trudno powiedzieć, dlaczego tak się dzieje, być może powodem są limity podzespołów w urządzeniach Nvidii."

Nie, po prostu tylko Radeony obsługują DisplayPort 2.1, który ma odpowiednią przepustowość dla możliwości tego ekranu. GeForce'y obsługują DisplayPort tylko w starszym standardzie 1.4.

post wyedytowany przez Labovsky 2023-09-26 17:05:06
13.09.2023 13:08
1
Labovsky
43

IGG 7800XT wygrywa z 4070, który jest wyraźnie droższy i ma 4GB mniej VRAM. Nie wiem, czy to tak mało. A wydajność w RT wcale nie leży i nie kwiczy, bo to już zupełnie inny poziom niż w serii RX 6000 - często porównywalny lub lepszy niż w RTX 3000 - np. w Resident Evil 4.

25.08.2023 18:11
Labovsky
43

499 i 449. Dla przypomnienia 499 to cena RTX 4060 Ti 16GB. :)

26.07.2023 21:33
odpowiedz
Labovsky
43

Rumcykcyk krytyka Intela była o tyle słuszna, że ta firma początkowo nie przyznała się do tego, że problem jej produktów, tylko stwierdziła, że wszystkich, co było nieprawdą. No i byli powiadomieni pół roku przed ujawnieniem luk i nic z tym nie zrobili.

Tymczasem AMD od początku transparentnie podchodzi do wszelkich luk, nawet tych wydumanych na siłę, które w realnych warunkach nie zaistniały nawet, ale zgłoszono, że teoretycznie istnieją. Tutaj masz kompletną listę: https://www.amd.com/en/resources/product-security.html

20.07.2023 16:00
1
odpowiedz
Labovsky
43

Jeśli uszkodzeniu uległ VRAM, a nie GPU, to prawie na pewno uszkodzeniu uległa karta graficzna nie "od AMD", tylko innej firmy. Analogicznie byłoby z GeForcem, choć wolumenowo u nich więcej jest Foundersów.

29.06.2023 10:58
Labovsky
43

Znubionek Cyberpunk dopiero po pół roku otrzymał FSR 2, a Starfield jeszcze nie wyszedł, a już lament, że nie zapowiedziano DLSS.

Co do Edge of Eternity to odnosiłem się do Twojego stwierdzenia, że implementacja jest tak samo prosta. Nie jest: "The devs said in response that "implementing DLSS was quite complex to integrate into Unity for a small studio". In contrast, adding FSR was "very easy… it only took me a few hours"."

post wyedytowany przez Labovsky 2023-06-29 10:58:58
28.06.2023 15:01
Labovsky
43

Znubionek
2022.06 - premiera FSR 2
2022.06 - mod do Cyberpunk podmieniający DLSS na FSR
2022.11 - patch ze wsparciem FSR 2 w Cyberpunk

Aha, nie chodziło o deweloperów Elden Ringa, tylko Edge of Eternity. Pomyliłem gry. Sorry.

28.06.2023 13:34
Labovsky
43

Szefoxxx "Nigdy nie było tak, żeby nv blokowała coś co amd miało lepsze dla ogółu posiadaczy danej gry."

Już nie pamiętamy afery z GameWorks i znikającego TressFX z serii Tomb Raider? Albo afer z teselacją? Albo z cofaniem zgodności z DX 10.1 do DX 10 w Lost Planet?

"graczy z gpu nv jest więcej, 80%+, więc pojawia się problem braku najlepszej funkcji tego typu dla większości graczy w grze co jest KARYGODNE."

Najwięcej graczy nadal ma GTXy, a nie RTXy, więc dla nich FSR to jedyna opcja.

28.06.2023 13:09
Labovsky
43

micin3 Co do RTX3000/DLSS 2 w Hogwarts Legacy to zwracam honor. Inaczej to zapamiętałem.

"DLSS2 i 3 > FSR2" - nie zawsze: "Pod względem jakości stanowczo zatem wygrywa FSR 2". https://www.benchmark.pl/testy_i_recenzje/hogwarts-legacy-test-kart-i-procesorow.html

HU to nie wyrocznia, więc nie ma co generalizować na bazie 1 testu.

"Co mnie obchodzi, co jest opłacalne dla dewelopera?" - po prostu warto się zastanowić, jak w grze nie ma opcji DLSS, a jest FSR, zwłaszcza że różnice w jakości nie są zawsze tak diametralnie duże, jak sugerujesz. Wiele zależy od implementacji.

post wyedytowany przez Labovsky 2023-06-28 13:09:57
28.06.2023 12:18
Labovsky
43

micin3 "nie ma żadnego powodu używać FSR, jeżeli karta obsługuję DLSS" - deweloper gry w pierwszej kolejności wybierze raczej rozwiązanie, które zadziała na wszystkim. Dodanie czegoś dla węższej grupy odbiorców rozważa się zapewne dopiero wtedy, gdy ktoś jest skłonny to dofinansować. :)

Co do Hogwarts Legacy, to wspominałem o tym, jak to było na premierę. Wówczas użytkownik RTX 3000 nie mógł korzystać z DLSS, tylko z FSR. Nie miał takiej opcji po prostu.

28.06.2023 12:11
Labovsky
43

Fear87 teraz tak, ale ile trzeba było czekać na dodanie FSR 2 do Cyberpunka? Przez pół roku od premiery jedynie mody umożliwiały podmianę DLSS na FSR. Starfield premiery jeszcze nawet nie miało.

Twoja stara 1993 użytkownicy RTX 3000 zawsze mogą kupić RTX 4000 lub użyć FSR rozwijanego przez AMD. Deweloper też ma tego świadomość zastanawiając się, którą technikę najpierw dodać do gry.

post wyedytowany przez Labovsky 2023-06-28 12:12:22
28.06.2023 12:05
Labovsky
43

micin3 jakość to nie wszystko, bo jak gra ma DLSS 3 i FSR 2, to wówczas użytkownik RTX 3000 i starszych też używa FSR 2. Tak było np. w Hogwarts Legacy, ale może już coś się zmieniło od premiery.

28.06.2023 01:08
Labovsky
43

Znubionek cóż, na pewno istnienie modów podważa to, co mówią sami deweloperzy na ten temat. Np. Elden Ringa.

No i mody podmieniające DLSS na FSR też istniały dla wielu gier, które dłuższy czas miały tylko technikę NVIDII. Np. do Cyberpunka. O przekupstwie się wówczas jakoś nie mówiło. ;)

27.06.2023 21:48
Labovsky
43

Możesz się wkurzać na AMD, ale to zwykła chłodna kalkulacja twórcy gry - bez wsparcia finansowego nikomu nie opłaca się wstawiać DLSS tylko dla GeForce RTX skoro FSR działa na wszystkim.

Jak deweloper doda najpierw FSR to nie ma potrzeby dodawać DLSS, zwłaszcza że implementacja tego drugiego wymaga więcej czasu, zasobów i wsparcia, gdy przy FSR zazwyczaj mało albo wcale. Gdy najpierw wstawi DLSS, to nadal opłaca się wstawić FSR dla całej reszty użytkowników.

post wyedytowany przez Labovsky 2023-06-27 21:48:46
16.06.2023 17:21
3
odpowiedz
Labovsky
43

Darkuss Grace Hopper to oddzielne CPU i oddzielne GPU połączone NVLink, czyli w zasadzie nadal coś zupełnie innego niż MI300X, który jest w całości akceleratorem (tylko GPU). MI300A jest opcją CPU+GPU, ale to jest w formie zintegrowanego APU, a nie zupełnie oddzielnych układów jak u Nvidii.

Porównanie MI300X do H100 jest zatem w pełni zasadne, bo to jedyne porównywalne produkty, jeśli chodzi o architekturę, budowę i zastosowanie.

BTW, wkleiłeś wykres nie o GH200 tylko o maszynach DGX wyposażonych w 256 sztuk GH200, które porównano do "klastra" DHX H100 i wykres bazuje na estymacjach Nvidii. Wspominałeś coś o marketingowym bełkocie? ;)

W każdym razie w 1 się zgadzam: warto poczekać na rozwój wypadków, by stwierdzić, jak się to wszystko ułoży, bo produkty AMD i Nvidii do AI są diametralnie różne. Różnice są znacznie większe niż w przypadku Radeonów i GeForce. MI300X to superpoteżny akcelerator, jakiego Nvidia nie ma. Za to Nvidia ma superpotężny zestaw CPU+GPU GH200. Co prawda AMD zaprezentowało takie rozwiązanie już w zeszłym roku - to MI300A, ale jest to APU, więc prawdopodobnie coś względnie "tańszego" i prostszego w produkcji.

25.05.2023 16:34
4
odpowiedz
Labovsky
43

"RX 7600 jest bezpośrednim następcą RX 6600 XT. Jednak karta jest o 70 dolarów droższa – poprzednik kosztował 199 dolarów w dniu premiery, a RX 7600 ma kosztować 269 dolarów (cena europejska – 299 euro)."

1. Nie, RX 6600 XT na premierę kosztował 379 USD, a RX 6600 kosztował 329 USD, więc...
2. RX 7600 jest następcą RX 6600 i to kosztując 60 dolarów mniej (a nie 70 więcej), bo 269 USD na premierę.

Sugeruje to z resztą nazwa modelu. 199 USD na premierę kosztował RX 6500 XT.

Gdyby uwzględnić inflację (12%), to RX 7600 kosztowałby 2 lata temu 232 USD, więc prawie 100 USD mniej niż RX 6600.

18.05.2023 15:30
odpowiedz
Labovsky
43

Jeśli to będzie faktycznie 299 USD, to cena będzie niższa niż RX 6600 na premierę (329 USD) i to pomimo inflacji. Mimo wszystko trend wydaje się odwrotny od tego, co robi konkurencja.

15.02.2023 23:55
Labovsky
43

"Ostatnio było też głośno o nowych sterach AMD które podobno wyłączały ochronę termiczną GPU."

Nic takiego nie miało miejsca. To były tylko spekulacje na bazie jednego serwisowego wideo. Do tego stopnia, że ten sam człowiek opublikował później wideo, w którym wyjaśnia, że uszkodzenie GPU przez sterownik AMD jest niemożliwe.

02.02.2023 21:54
Labovsky
43

Do pierdla za dostosowywanie podaży do popytu? Dobre.

Teza o windowaniu cen to tylko spekulacje, które nie znajdują pokrycia w rzeczywistości. Ceny Ryzen i Radeon spadają od wielu miesięcy. Także tych najnowszych.

02.02.2023 21:51
Labovsky
43

pieterkov nie, GPU to dział "gaming" w AMD. Client to procesory do laptopów i desktopów.

Procne Client, nie consumer, ale reszta się zgadza. :)

02.02.2023 21:48
Labovsky
43

Do tego akurat ceny procesorów Ryzen i kart Radeon od wielu miesięcy sukcesywnie spadają, więc teza o zawyżaniu cen w ogóle się nie klei. Odpalono z resztą promocje z grami gratis, czego nie robi się chcąc zwiększać marżę kosztem dostępności, tylko wtedy, gdy się chce zwiększyć sprzedaż obniżając marżę - gry to także koszt przecież.

23.01.2023 14:44
odpowiedz
Labovsky
43

Dla przypomnienia Radeony to podobno tylko 10% rynku. Tymczasem w Mindfactory, który jest tutaj odniesieniem dla popularności RTX 4070 Ti, Radeony mają jakoś ponad 42% sprzedaży. I RX 7900 XTX sprzedaje się tam lepiej niż RTX 4080. 7900 XT z resztą też.

mastarops "No niestety, AMD dość słabo wyceniło swoje karty, szczególnie xt. XTX w sklepach sporo droższy, XT nie opłacalny. RTX kusi nowymi technologiami i Ray tracingiem."

I dlatego 7900 XTX i XT sprzedają się lepiej od RTX 4080. ;)

post wyedytowany przez Labovsky 2023-01-23 14:45:04
12.01.2023 14:57
odpowiedz
1 odpowiedź
Labovsky
43
Image

"Podczas prezentacji AMD chwaliło się, że nowe propozycje z serii Ryzen 7000X3D będą nawet do 50% bardziej wydajne od konstrukcji Intela."

Kiedy mowa była o 50%?

03.01.2023 19:01
3
Labovsky
43

siera97 dla AMD oczywiście 1 generacja była sukcesem od razu, ale to dlatego, że to był powrót z niebytu, ale w skali całego rynku to było dopiero drgnięcie. W pierwszych miesiącach zwłaszcza. Masz rację, że Ryzen poustawiał rynek, ale trochę to trwało zanim szok mediów i power-userów przeniknął do większej liczby ludzi.

Co do Ryzen 7000 to myślę, że określenie "rozczarowujący początek" jest prawdopodobnie najbliższe "sercu" AMD, ale do "porażki", "przegranej" czy "niewypału" jest daleko. Chodzi mi o to, że AMD zapewne nie ocenia tego w tych kategoriach raptem po 2-3 miesiącach od premiery, a poza tym na pewno nie porównuje się 1:1 ani do Ryzen 5000 ani do Intela, bo też orientuje się w realiach.

Tym bardziej, że za rogiem czekają Ryzen 7000 z 3D V-Cache, a Meteor Lake Intela został chyba przesunięty na 2024 rok.

03.01.2023 17:06
7
Labovsky
43

siera97 1 generacja Ryzen nie była od początku sukcesem. W zasadzie to było dopiero kruszenie lodu i dopiero od 2 generacji zaczął się marsz sukcesu. W 2017 roku nadal sporo ludzi bało się AMD i wybierało 4-rdzeniowe Intel Kaby Lake... na czym się bardzo przejechało, bo platforma zestarzała się bardzo szybko.

AMD nie projektowało Ryzen 7000 ani AM5 tuż przed premierą. Założenia są tworzone kilka lat wcześniej, więc to zawsze jest w pewnej mierze niewiadoma, zwłaszcza np. w perspektywie cen pamięci DDR5 czy sytuacji rynkowej. Zgodność wyłącznie z DDR5 jest prawdopodobnie kluczowa dla długoletniego wsparcia, więc tego nie dało się chyba obejść.

Na pewno AMD wolałoby, żeby Ryzeny 7000 sprzedawały się lepiej. Chodzi o to, że to nie oznacza automatycznie porażki, bo AMD wspierając dalej AM4 i wprowadzając Ryzeny 5800X3D zabezpieczyło siebie (i użytkowników) na taką ewentualność. Poza tym mamy porównanie do konkurencji, która w analogicznej sytuacji w zeszłym roku radziła sobie jeszcze trochę gorzej, a widać, jak się to rozpędziło w kolejnych miesiącach. Przed AM5 dłuższe wsparcie niż przez LGA1700, więc wydawanie wyroków jest dość przedwczesne. :)

03.01.2023 15:56
10
odpowiedz
5 odpowiedzi
Labovsky
43

1. Ceny Ryzen 7000 na premierę były takie same lub niższe niż Ryzen 5000 na premierę, więc to nie jest problem cen procesorów, tylko płyt i DDR5.

2. I to nadal nie aż taki, jak się trąbi, bo Ryzen 7000 sprzedaje się lepiej niż 12 generacja Intela rok temu, czyli gdy Intel wprowadził zupełnie nową platformę, i to pomimo tego, że tamta platforma była wciąż kompatybilna z DDR4, a AM5 jest zgodne tylko z DDR5.

3. Porównywanie z Ryzen 5000 jako dowód na klęskę to nieporozumienie, bo AMD to nie Intel. AMD wiele zainwestowało w długowieczność AM4 i daklarowało dalsze wsparcie tej platformy w kolejnych latach. 5800X3D to najlepszy przykład. Jest to więc ewidentnie wkalkulowane w okres przejściowy między jedną długowieczną platformą a drugą, której wsparcie deklarowane jest przecież aż do 2025+. Dla przypomnienia AM4 miało mieć wsparcie do 2020.

post wyedytowany przez Labovsky 2023-01-03 16:00:38
03.01.2023 13:01
1
Labovsky
43

Herr Pietrus - dokładnie tak i standard zatwierdziło PCI-SIG, do którego należą wszyscy, w tym AMD, Intel i Nvidia, więc to nie jest wina tylko Nvidii. Z resztą Nvidia używa tych wtyczek od RTX 3000 i nie było problemu. Pojawił się dopiero wtedy, gdy wzrósł pobór prądu i karta rozrosła się do monstrualnych rozmiarów, a wtyczka pozostała nadal w tym samym konstrukcyjnie miejscu.

Łosiu - słabe jest jak zmyślasz, bo nigdzie AMD nie zasłania problemu z konstrukcją referencyjną własnych kart problemami z wtyczkami Nvidii. AMD normalnie zaleca zgłaszanie reklamacji w sytuacji, gdy u kogoś karta będzie miała zbyt wysokie temperatury. Niezależnie od skali to bardziej uczciwe podejście niż zwalanie na użytkowników problemu kabli i wtyczek. To trochę jak z iPhone 4, który przecież gubił zasięg, bo ludzie źle go trzymali. ;)

post wyedytowany przez Labovsky 2023-01-03 13:04:26
02.01.2023 17:30
4
Labovsky
43

Samo się nie rozdmuchało:
1. https://www.gry-online.pl/hardware/nvidia-sugeruje-ze-plonace-rtx-4090-to-wina-graczy/z6235ff
2. https://www.gry-online.pl/hardware/jest-pozew-w-sprawie-plonacych-rtx-ow/z4235ee
3. https://www.gry-online.pl/hardware/kolejny-rtx-4090-splonal/z323572
4. https://www.gry-online.pl/hardware/nvidia-przyjrzy-sie-plonacym-rtx-om-4090/z0234fa
5. https://www.gry-online.pl/hardware/rtx-4090-plonie-z-winy-uzytkownikow-niekoniecznie/z32347c

Sprawę zbadano i jakkolwiek skala problemu była niewspółmierna do afery, to "niedociśnięta wtyczka" to znowu spłycanie problemu. PO tej aferze zaczęto zalecać wpinanie wtyczki do karty POZA obudową, bo dociśnięcie jej w obudowie może być trudne i ryzykowne, więc wtyczka chyba nie jest najszczęśliwsza. Poza tym, gdyby nie rozmiary karty i wtyczka na środku, to problem ze zginającym się kablem byłby mniejszy - w wielu obudowach wtyczka opiera się o ściankę, a kabel jest sztywny (i nie wolno go zaginać!) więc domykając można ją niechcący wysunąć.

A co do Radeonów, to czy der8auer nie użył stwierdzenia, że problem MOŻE dotyczyć tysięcy ludzi, a nie już dotyczy? Jest tu subtelna różnica. ;)

post wyedytowany przez Labovsky 2023-01-02 17:34:24
14.12.2022 14:18
Labovsky
43
Image

wooda Nikt nie mówił, że "będzie zawsze 50-70% więcej", tylko że "będzie do 70% więcej" na przykładzie Cyberpunka i kilku innych gier w 4K i 4K z raytracingiem. Z tego, co sprawdziłem, to w największe wzrosty są tam, gdzie Radeony poprzedniej generacji radziły sobie kiepsko, a najmniejsze tam, gdzie radziły sobie dobrze, choć są też wyjątki jak Call of Duty.

14.12.2022 00:56
2
Labovsky
43

FeanorRR3 co Ty pleciesz? Nawet 7900 XT (nie XTX) potrafi deptać po piętach RTX 4080, a XTX potrafi mu odskoczyć czasem na 20%. Oczywiście wiele zależy od gry oraz od procedury, ale średnio wychodzi podobny poziom wydajności. I najlepsze jest to, że w RT też nie jest jakoś dramatycznie gorzej. Słabo to wypada w Cyberpunku (i grach z dopiskiem RTX, ciekawe czemu), który działa bardzo na wyobraźnię, ale w innych grach jest sporo lepiej.

Problem z poborem z wieloma monitorami to akurat coś, co pewnie zniknie przy najbliższej aktualizacji sterownika. Sterownika, które media chwalą pomimo "legendy miejskiej" o ich gorszej jakości.

Demonizujesz też temperaturę i kulturę pracy. Jedno i drugie jest zupełnie OK do momentu, gdy karta nie jest podkręcana. Tak, nie jest bezgłośna, ale za to nie jest wielkim behemotem wymagającym nowej obudowy czy przejściówek. Coś za coś. A jak chcesz behemota, to producenci już zapowiedzieli, że niektóre modele będą tych samych rozmiarów, co ich RTXy.

14.12.2022 00:43
1
Labovsky
43
Image

Mowa była o 4K i 4K z raytracingiem i w tych warunkach wzrosty są średnio 50-procentowe. W Cyberpunku 67%.

28.09.2022 10:30
Labovsky
43

Jest generalnie lepiej niż u Intela. Są gorące piekarniki domyślnie, ale w trybie ECO nie tracą praktycznie nic z wydajności w grach, a w programach raptem kilka procent, a są wówczas chłodniejsze od Inteli.

16.09.2022 14:06
1
odpowiedz
Labovsky
43

Zgadzam się z ogólnym wnioskiem, choć granicę spokojnie przesunąłbym do 3000 PLN, bo nie sądzę, żeby w tym roku pojawiły się karty w cenie poniżej 4000 PLN. Nie przy tej wycenie dolara.

Mimo wszystko sugerowanie dziś zakupu GT 1030 obok RX 6400 to trochę przesada. Pierwsza to staroć, od którego nawet zeszłoroczne integry AMD są mocniejsze. Druga jest mimo wszystko dużo mocniejsza i nowocześniejsza, a kosztuje niewiele więcej.

30.08.2022 11:20
1
Labovsky
43

Jakkolwiek faktycznie bywa oprogramowanie zoptymalizowane pod Xeony, tak w większości softu i tak AMD EPYC i Ryzen Threadripper są mocniejsze. I to dużo. Coraz więcej z resztą programów wykorzystuje dobrodziejstwa platformy AMD, czyli kosmiczną przepustowość pamięci, rdzeni i PCIe. Intel nie wprowadził od ponad 2 lat żadnego nowego mocnego Xeona, a zapowiedziana nowa generacja ma już chyba rok opóźnienia.

Stacje robocze na starych Xeonach odżyły tylko dlatego, że Threadripperów brakowało na rynku przez pewien czas. TSMC nie wyrabiało z produkcją po prostu.

12.05.2022 21:49
1
Labovsky
43

Shars Jest bardzo wiele osób takich jak Ty i przekonanie ich do AMD stanowi bodaj największe wyzwanie, bo tutaj nic racjonalnego nie działa. W każdym razie takie przyzwyczajenia choć ludzkie, to nie służą konkurencyjności na rynku.

post wyedytowany przez Labovsky 2022-05-12 21:49:42
06.04.2022 12:21
odpowiedz
Labovsky
43

AMD zaprezentuje RX 6400 – nowy układ przeznaczony dla… No właśnie, odpowiedź nie jest taka prosta. Skoro RX 6500 XT jest sporo słabszy od RTX 3050 i rywalizuje raczej z GTX 1650, czego można oczekiwać od RX 6400?

Ktoś nie odrobił pracy domowej. ;) RTX 3050 jest w cenie bliskiej dużo szybszego RX 6600, więc co jest dziwnego w tym, że prawie 2x tańszy RX 6500 XT jest mniej wydajny?

A co do pytania głównego: do 1000 zł do wyboru są tylko słabe starocie. Dla kogo może być ta karta...

04.04.2022 13:47
😊
1
odpowiedz
Labovsky
43

Bardzo fajne kompendium, które zbiera większość istotnych informacji i podaje w przystępny sposób. Są tylko 2 problemy:

1. Pominięto fakt, że w kwietniu na rynek AMD wprowadza tańsze Ryzeny + Ryzen 7 5800X3D. To znacznie ważniejsze dla użytkownika niż odległe Ryzeny 7000 (na Zen 4) i przede wszystkim diametralnie zmienia sytuację na rynku.

2. Strona o opłacalności, która w zasadzie pomija aspekt kosztu całości platformy jest oderwana od rzeczywistości. Bo w realu: CPU + płyta po stronie AMD wychodzi dużo lepiej, nie tylko z B450. Płyty B550 są tańsze i lepiej wyposażone w swojej cenie niż B660. Innymi słowy: jak chcesz nowy PC to procesor AMD i płyta AM4 nadal się opłaca, a jak chcesz tylko ulepszyć to nadal lepiej wybrać procesor AMD (bo to cały Twój koszt), bo ulepszyć platformy Intela się nie da. ;)

post wyedytowany przez Labovsky 2022-04-04 13:47:59
22.03.2022 17:24
1
odpowiedz
Labovsky
43

"Do tej pory to raczej Radeony posiadały metkę pobierających sporą ilość energii."

Wystarczy zajrzeć do testów. Już aktualna generacja kart AMD jest bardziej efektywna energetycznie od GeForce.

22.03.2022 17:23
3
Labovsky
43

AMD nic jeszcze nie mówi o Radeonach RX 7000.

22.03.2022 17:22
1
Labovsky
43

RTXy są obecnie lepsze do kopania, bo AMD wprowadziło w Radeonach RX 6000 Infinity Cache, który pozwala zwęzić szynę pamięci bez szkody dla wydajności w grach, za to ze szkodą dla wydajności w kopaniu.

28.02.2022 12:44
1
odpowiedz
Labovsky
43

6500 XT jest dostępny w sklepach praktycznie nieprzerwanie od premiery i sporo się jej sprzedaje, bo alternatywą są stare i gorsze GTX 1650 itp. Innymi słowy taki z tej karty niewypał, że ma stosunkowo dobrą cenę, sprzedaje się i oferuje najwięcej w swojej klasie. Tymczasem RTX 3050, który nominalnie jest droższy tylko o 50 USD jest faktycznie droższy o 1000 zł i znacznie trudniej dostępny.

20.01.2022 16:12
1
Labovsky
43

RX 6500 XT jest znacznie szybszy od GTX 970.

20.01.2022 11:29
2
Labovsky
43

6500 XT jest jednak wyraźnie szybszy od 1050 Ti pomimo tej samej ilości pamięci.

20.01.2022 11:26
2
Labovsky
43

Tak, bo 2 lata temu oszczędzanie na VRAM było bez sensu. Dziś więcej VRAM to automatycznie włączenie się kopaczy do wyścigu po karty i w efekcie jeszcze wyższe ceny.

post wyedytowany przez Labovsky 2022-01-20 11:27:02
20.01.2022 11:23
2
Labovsky
43

Nie. RX 6500 XT ma za mało VRAM do kopania. Do grania na Ultra w gry AAA też jest go zwykle za mało, ale ludzie z tej klasy sprzętem i tak zwykle grają na med/high, gdzie aż tyle VRAM nie potrzeba.

19.11.2021 17:31
2
odpowiedz
2 odpowiedzi
Labovsky
43

Nokaut jest wtedy, gdy konkurencja nie może się podnieść, więc to do rynku mobilnych procesorów słabo przystaje, bo przecież źródło, tj. notebookcheck wyraźnie wskazuje, że już na początku 2022 ma pojawić się nowa generacja procesorów mobilnych AMD. Po prostu przecieków o nich sporo mniej. No i akurat w laptopach efektywność energetyczna ma większe znaczenie niż w komputerach stacjonarnych, więc Cinebench bez info o maksymalnym TDP niewiele mówi graczom. Dla przypomnienia 125-watowy Alder Lake w desktopowych procesorach ma oddzielne TDP dla turbo - 241W.

19.11.2021 17:12
5
Labovsky
43

BlackTone ale zauważyłeś, że mowa o laptopach? Pobór prądu nie ma tam żadnego znaczenia? ;)

13.09.2021 14:48
1
odpowiedz
Labovsky
43
Image

Seria coolerów Wraith pojawiła się w procesorach AMD jeszcze przed Ryzenami, bo dodawano je do FXów i Serii A z rok wcześniej.

30.08.2021 11:44
Labovsky
43

MSPR sobie, a realne ceny sobie. Realnie, w polskich sklepach bez problemu dostaniesz 6600 XT taniej od RTX 3060. Do 3060 Ti jest ponad 1000 zł dystansu, więc mimo cen sugerowanych, nowy Radeon to realnie konkurencja dla 3060.

17.08.2021 16:37
Labovsky
43

quark
dziwna logika. To, że wyprodukuje i wykorzysta te układy nie znaczy, że jest im to niezbędne. Na pewno jednak jest im to niezbędne do tego, żeby zmniejszyć podaż rozwiązań konkurencji.

16.08.2021 14:53
odpowiedz
2 odpowiedzi
Labovsky
43

"Być może firma widzi szansę na zdobycie i utrzymanie jak największego fragmentu rynku w maksymalnym zwiększeniu dostaw podzespołów."

Raczej w maksymalnym ograniczeniu dostaw dla konkurencji. Mają swoje faby, budują megafab, w branży mówi się o ich planach zakupu Global Foundries i jeszcze zajmują moce produkcyjne TSMC... tak, na pewno wszystko jest im bardzo potrzebne ;) Jak produkt konkurencji jest za dobry to się inaczej z nim "konkuruje", jak widać.

05.08.2021 18:27
Labovsky
43

Na jakiej podstawie twierdzisz, że AMD sprzedawało je bokiem do kopalni?

30.07.2021 15:00
2
Labovsky
43

Granie z RT to nadal nie jest nic powszechnego, bo większość raczej nadal preferuje wyższą płynność nad granie z RT.

AMD oferuje od niedawna FSR, z tą różnicą, że w przeciwieństwie do DLSS to otwarta technologia, którą ludzie wstawiają do gier już nawet za pomocą zwykłych modów.

09.06.2021 11:28
1
odpowiedz
Labovsky
43

"Jest to więc kolejny spadek zainteresowania kartami graficznymi AMD."

Nie spadek, tylko wzrost, bo dostawy rosną i wszystkie karty niezależnie od producenta szybko się sprzedają. Po prostu Nvidia procentowo szybciej zwiększa produkcję i dostawy.

01.06.2021 22:52
Labovsky
43

Smart Access Memory działa już na Ryzenach 3000 i daje zwykle wyraźnie lepsze rezultaty niż ReBAR na Nvidii, co tylko pokazuje, że to nie jest tylko zwykła funkcja w BIOSie.

01.06.2021 22:50
😁
1
Labovsky
43

A najśmieszniejsze, że Vulkan wywodzi się z AMD Mantle :D

07.04.2021 13:41
3
Labovsky
43

Tylko że AMD nigdy nie odnosiło się do luk konkurencji... w przeciwieństwie do konkurencji twierdzącej, że jej luki dotyczą całej branży, gdy nie dotyczą :)

I warto odnotować fakt, że źródłem informacji o luce jest samo AMD, a nie firma trzecia, którą przez pół roku się zbywało milczeniem, jak to było przy Meltdown i Spectre.

15.02.2021 15:04
1
Labovsky
43

Domin922 Nie dyskutuję z tym, co Ci się obecnie bardziej opłaca. Raczej chciałem uzupełnić to, co napisałeś :)

15.02.2021 14:38
1
Labovsky
43

"Dożyliśmy czasów gdzie to Intel ma niższe ceny i jest dużo bardziej opłacalny."

Co wynika z presji AMD nie tylko Ryzenami 5000, ale i Ryzenami 3000.

Problem z cenami jest jednak jak zauważasz czysto hipotetyczny dla nowych PC, bo i tak nie ma grafik do kupienia, więc całego PC się nie zbuduje.

Co innego, jak modernizujesz stary, ale tu jak masz już platformę AM4, to nadal zwykle łatwiej, wygodniej i cenowo lepiej jest zakup droższego Ryzena 5000 (sprzedając starego) zamiast wymieniać całą platformę na Intela. Jak się okazuje biznesowo długie wsparcie platformy bardzo teraz procentuje dla samego AMD i to nie był tylko ukłon dla klienta.

16.10.2020 12:56
Labovsky
43

Wtedy mogłeś otrzymać AC Valhalla :)

02.10.2020 11:43
2
Labovsky
43

Trochę tak, trochę nie.

Wykorzystanie procesorów w grach się zmienia, zwłaszcza w nowocześniejszych tytułach korzystających z DirectX 12 i Vulkan. Nowe konsole ten trend pewnie jeszcze pogłębią.

Warto pamiętać, że wiele testów sprzętowych wykorzystuje takie gry jak Assassin's Creed czy Far Cry, nie dlatego, że są popularne (bo raczej nie są), ale dlatego, że dobrze obrazują różnice w wydajności między procesorami. Niestety robią to dlatego, że bazują często na archaicznych rozwiązaniach w silniku, a nie dlatego, że są tak nowoczesne. Obciążenie procesorów rzadko przekracza tam 60-70% i to przy topowych grafikach.

16.09.2020 11:28
Labovsky
43

Chyba tylko rozmiar RTX 3090 budził zaskoczenie, bo karta jest 3-slotowa i długa. RTX 3080 ma całkiem normalne rozmiary, tak jak ten Radeon.

11.09.2020 11:19
1
Labovsky
43

Za 3900X nie przepłacasz, jeśli Twój PC nie służy tylko do gier :)

10.09.2020 22:33
1
Labovsky
43

W benchmarkach z gier, a nie w graniu. To różnica.

W normalnym graniu i ustawieniach, jakie stosuje lwia część graczy, różnice są praktycznie nieodczuwalne, podczas gdy system z Ryzenem jest dużo bardziej responsywny podczas gry i pozwala na obciążenie go w tle innymi zadaniami. To znacznie bardziej odczuwalne.

10.09.2020 12:55
1
odpowiedz
4 odpowiedzi
Labovsky
43

"gracze oczekują od AMD czegoś, co będzie w stanie nawiązać rywalizację z układami Ampere od firmy Nvidia, oferując jednocześnie niższą cenę."

Dla stosunkowo małej firmy obecnie walczącej z dwoma hegemonami rynkowymi (Intelem i Nvidią) to ślepa uliczka. Nie można wiecznie oferować więcej za mniej...

07.07.2020 19:01
Labovsky
43

W Polsce też spadła. Rok temu Ryzen 5 3600X kosztował 1150 zł przy lepszym kursie Dolara.

01.07.2020 12:07
😁
odpowiedz
1 odpowiedź
Labovsky
43

Tak tylko wspomnę, że nie tylko Ryzeny zdobyły nagrody, bo najlepszym GPU został uznany Radeon - Łosiu, gdzie jesteś, żeby się z tego cieszyć razem ze mną? ;)

17.06.2020 10:09
Labovsky
43

Ceny Ryzen XT są dokładnie takie same, jak ceny Ryzen X w momencie premiery. Po drodze tamte potaniały po prostu.

24.04.2020 15:18
Labovsky
43

Ad.3 Z Radeonem Pro kupisz :)
Ad.4 AMD EPYC na rynku serwerowym robi jeszcze większą miazgę możliwościami i wydajnością niż Ryzeny w PC.

08.03.2020 09:23
Labovsky
43

Michał, wymagania w zakresie temperatury się nie zmieniły, a przynajmniej nikt nic o tym nie wspomniał.

Sądzę, że nie ma tu żadnego drugiego dna, jak tylko spełnienie oczekiwań klientów, którzy chcieliby kupić sprzęt referencyjny zaraz po premierze nie czekając na niereferencyjne modele producentów.

08.03.2020 09:15
2
Labovsky
43

Oświadczenia nie było, bo to tylko wariant czegoś, co już dawno jest znane i sposób postępowania jest taki sam, jak wcześniej. Badacze z Grazu na pewno to wiedzieli, ale "brak reakcji" jest bardziej medialny.

Innymi słowy zupełnie chybiony jest wniosek, że Ryzeny się stały popularne i wykryto luki. Te sprawy są znane od dawna, ale nagłośnienie ich teraz jest chyba bardziej na czasie :)

Warto odnotować, że AMD się wcale nie kryje z tematem i od dawna podaje na bieżąco informacje na te tematy na swojej stronie:
https://www.amd.com/en/corporate/product-security

17.02.2020 11:00
Labovsky
43

Łosiu

1. Forum vs dokładnie udokumentowany raport i to forum ma większą wiarygodność? Udokumentowana próba jest większa w raporcie. W sumie ciekawe, że rok temu forum już nie miało takiej wiarygodności, bo na fali postów na Reddicie jakoś nie przesiadłeś się na stabilniejszego wówczas Radeona ;)

2. Z tą "drobną" różnicą, że tu są to DOKŁADNIE te same warunki, w jakich producenci GPU sprawdzają swoje sterowniki pod kątem zgodności z Windows. Coś, co nie występuje w laboratoryjnych testach spalania aut. Jedyne, co tu jest wspólnego to słówko "laboratorium" chyba ;)

3. Od premiery Navi minęło już dwa lata? :O To ciekawe.

16.02.2020 00:27
Labovsky
43

Łosiu

1. Ten raport ma próbę większą niż Twoja, moja i pewnie większości z nas czy nawet redakcji. Łatwo Ci jak widać napisać "to dlatego nie używam Radeonów" na podstawie trudnych do zweryfikowania głosów z forum, ale jak dostajesz profesjonalny raport przed oczy, to wycofać się trudniej...

2. HLK osobliwy? To podstawa w testowaniu sterowników sprzętowych pod Windows, więc jeśli w HLK coś się wysypuje, tym gorzej, bo gry to wówczas na pewno nie wyświetli: https://docs.microsoft.com/en-us/windows-hardware/test/hlk/

3. Wyrozumiałość nie ma nic do rzeczy, bo ona nie należy się nikomu, a o problemach należy mówić niezależnie od producenta. Rzecz w tym, że niektórzy z nas mają po prostu krótką pamięć, bo dużo było podobnych wątków na Reddicie i publikacji w drugiej połowie 2018 roku i z początkiem 2019. Tylko dotyczyły produktów innej firmy...

Podsumowując: nie widzę nic złego w kibicowaniu jednej firmie, jeśli masz taką ochotę. Dziwne tylko, że zarzucasz to innym, gdy też masz swoje dość jasne preferencje :)

post wyedytowany przez Labovsky 2020-02-16 00:29:46
14.02.2020 15:24
Labovsky
43

Łosiu, raport dot. stabilności sterowników sprzed niecałych 2 lat (nowszego nie ma) mówi co innego: https://qaconsultants.com/stabilityaudit/

Stabilność sterowników AMD oceniono wówczas wyżej.

+ to co napisał wooda. Przy czym o większej częstotliwości problemów czytam dopiero od czasu premiery Navi, nie Vegi. To jednak nowa architektura.

14.02.2020 15:14
1
Labovsky
43

"Nieograniczony budżet na dział rozwoju"?

Dochód netto 2019 AMD: 341 milionów USD (0,341 miliarda)
Dochód netto 2019 Nvidia: 4143 milionów USD (ponad 4 miliardy)
Dochód netto 2019 Intel: 21000 milionów USD (21 miliardów)

I dla przypomnienia AMD rozwija równolegle dział CPU i GPU.

22.01.2020 10:15
Labovsky
43

Jeśli kupiłeś swoją kartę za 1060 zł, to chcąc mieć:
- Radeona RX 5600 XT - musisz dopłacić 240 zł (1299 zł)
- GeForce RTX 2060 - musisz dopłacić 340 zł (1399 zł)
- Radeona RX 5700 - musisz dopłacić 440 zł (1499 zł)

Z tym, że RX 5600 XT jest na wydajnościowym poziomie RTX 2060, a RX 5700 jest wyraźnie wydajniejszy. AMD wzięło tego GeForce'a w kleszcze :)

21.01.2020 16:24
Labovsky
43

Kilka linków do premierowych testów RX 5600 XT dla Łosia z pozdrowieniami :)

PCLab.pl - najcichsza w stawce pod obciążeniem, bezgłośna w spoczynku, a przy tym:
"rdzeń karty graficznej nagrzewał się odpowiednio do 62- i 73 stopni Celsjusza. Są to bardzo dobre wyniki, które stawiają tę kartę w czołówce dobrze chłodzonych konstrukcji."
https://pclab.pl/art83139-23.html

PurePC.pl - najcichsza w stawce pod obciążeniem, bezgłośna w spoczynku, a przy tym "całkiem nieźle radzi sobie z temperaturami"
https://www.purepc.pl/karty_graficzne/radeon_rx_5600_xt_vs_geforce_rtx_2060_test_kart_graficznych?page=0,22

A czymże Cię skrzywdził Radeon R9 290? Ich użytkownicy do dziś nie bardzo kwapią się je zmieniać, bo w przeciwieństwie do swoich konkurentów nadal można na nich fajnie pograć :)
Cyk: https://www.purepc.pl/karty_graficzne/test_amd_radeon_r9_290x_vs_nvdia_geforce_gtx_780_retrogpu_2

post wyedytowany przez Labovsky 2020-01-21 16:27:17
20.01.2020 11:40
Labovsky
43

Z miłą chęcią odpowiedziałem. Liczę też na Twoją wypowiedź, gdy sprawa kultury pracy nowych Radeonów wyjdzie już na jaw. No chyba, że masz jeszcze jakiegoś linka, żeby odwrócić uwagę ;)

20.01.2020 11:38
Labovsky
43

Bardzo mocna odpowiedź, dzięki za nią! :)

Ad.1 FreeStyle i RIS to jednak trochę inne rzeczy. FreeStyle wymaga GeForce Experience, czyli dodatkowej aplikacji i rejestracji. RIS działa w panelu sterownika - dużo wygodniejszym i dzisiejszym, jeśli chodzi o interfejs ;) RIS jest dostępny od połowy 2019, nie od końca, a we FreeStyle to działa na bazie filtrów, wiec trochę inaczej. Dlatego też pewnie taki TechSpot porównał RIS z DLSS, a nie z FreeStyle. I wyszło, że RIS lepsze :)

Ad.2 To kompletnie co innego. To o czym piszesz, to bodaj odpowiednik Zero Core Power w Radeonach, który jest tam od 2011 roku. Radeon Chill działa w oparciu o zachowanie gracza w grze i Nvidia nie ma niczego podobnego.

Ad.3 To jest proces TSMC, a nie AMD. Ciepło to nie wypadkowa procesu, ale rozmiaru rdzenia. 7 nm w przypadku Radeonów dał m.in. lepsze upakowanie tranzystorów, wyższe taktowania i lepszą efektywność w porównaniu z poprzednią generacją, więc dał bardzo dużo. Zapewne Nvidii też da, choć pewnie rok później względem AMD.

Ad.4 Nie jedyna, jest więcej, ale to także wypadkowa różnic w podejściu. Nvidia stawia na GeForce Experience i "gamingowe" doświadczenia, a AMD na panel sterownika i bardziej sprzętowe funkcje oraz ułatwia korzystanie z nich. Vide choćby profile ustawień, AMD Link czy jeden wspólny launcher gier niezależnie od przypisanego sklepu.

20.01.2020 09:38
Labovsky
43

Liczę na Twój głos, gdy okaże się, że karty są mimo to ciche i chłodne :)

17.01.2020 13:58
📄
odpowiedz
3 odpowiedzi
Labovsky
43

"do tego bardziej zaawansowaną technologicznie (śledzenie promieni, DLSS)."

To kwestia subiektywna, bo Radeon jest z kolei już produkowany w 7 nm, Radeon Image Sharpening w testach wypada póki co lepiej*, a do tego w oprogramowaniu ma sporo funkcji sprzętowych, których Nvidia nie oferuje, np. Boost, Chill.

* - https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/

post wyedytowany przez Labovsky 2020-01-17 13:59:32
10.01.2020 10:40
Labovsky
43

Vulkan rozwija Khronos Group, ale wyewoluowało to z techniki AMD, czyli z Mantle - AMD to przekazało grupie bezpłatnie i wiele założeń jest podobnych, więc można uznać, że jest to rozwinięcie koncepcji AMD.

24.08.2019 23:38
Labovsky
43

To jeszcze takie info, żeby lepiej pojąć, jakim osiągnięciem jest nawiązanie równorzędnej walki w tym wypadku:

Intel - 4,18 miliarda (4180 milionów) zysku
Nvidia - 550 milionów zysku
AMD - 35 milionów zysku

Dane w USD za 2 kwartał 2019, czyli jeszcze sprzed premiery 3 generacji Ryzen i 2 generacji EPYC. Trzeba mieć przy tym świadomość, że największy zysk jest z laptopów i serwerów, nie desktopów. Innymi słowy: sukces na gruncie desktopów to za mało, żeby konkurencja była wyrównana biznesowo :)

post wyedytowany przez Labovsky 2019-08-24 23:40:43
16.05.2019 17:09
Labovsky
43

"Ja ogólnie nie wierze w plotki. Zobaczymy czy tak będzie jak te karty wyjdą.... AMD zawsze się chwali, a później wychodzi kupa....."

@ TitoX1: Jak dotąd AMD nic o Navi nie mówi poza tym, że będzie, więc kto się chwali? W sieci są tony plotek i spekulacji na ten temat, więc trzeba bardzo uważać, żeby nie uwierzyć w to, co nie ma podstaw.

19.12.2018 11:14
2
odpowiedz
Labovsky
43

Jeśli chodzi o kolejne produkty AMD, to trzeba podkreślić, że firma żadnego z wymienionych w artykule produktów nie zapowiedziała oficjalnie, więc kwestie dotyczące Ryzen 3000 czy Radeon Navi to wyłącznie przypuszczenia. Niestety ostatnio było dużo rzekomych przecieków na ten temat, które nie powołują się na żadne wiarygodne źródła.

A co do luk, to Intel bardzo by chciał, żeby procesory AMD były tak samo umoczone w problemy Meltdown i Spectre, czego wyraz dawał w swoim oświadczeniu, ale fakty są takie, że żaden procesor AMD nie jest podatny na Meltdown, a w kwestii Spectre pomimo prawie roku od wyjścia na jaw tych problemów, to nikt jeszcze tego nie odtworzył na nich. Nie są to zatem problemy, które w równym stopniu dotyczą procesorów Intela i AMD.

post wyedytowany przez Labovsky 2018-12-19 11:17:25
18.11.2018 22:19
3
Labovsky
43

To nie jest dla tych, którzy mają GTX 1060, tylko dla tych, którzy mogliby chcieć go kupić. Jest cała masa ludzi, którzy myślą o wymianie swoich starych GeForce'ów GTX 760 / 660 lub Radeonów HD 7000 / 280 o starszych kartach nie wspominając.

04.09.2018 11:55
odpowiedz
1 odpowiedź
Labovsky
43

Obie firmy inaczej podają TDP, więc to wartości nieporównywalne. AMD bierze pod uwagę najgorszy możliwy scenariusz, a Intel typowy.

14.08.2018 11:54
Labovsky
43

@Przemek - chyba rzeczywiście Ci się śniło, bo jedyne, na co zwracano uwagę to na to, żeby czerpać wiedzę z kilku źródeł, a nie z jednego pasującego do wizji - dokładnie tak, jak teraz :) Dopowiedziałeś sobie, że jakiś serwis jest ukochany, bo ktoś ośmielił się wskazać na alternatywy dla PCLab. O FXach trudno polemizować, gdy to jak ze wszystkim powyżej - wrzucasz zarzut i trzeba to prostować, bo jest wyrwane z kontekstu. Odpuszczam, bo to never ending story - kiedyś mam nadzieję będzie okazja to przegadać osobiście :)

@rastablasta - spiskowa teoria jest pewnie bardziej atrakcyjna, ale to jak w tym kawale o rozdawaniu samochodów na Placu Czerwonym. Nie samochody, tylko rowery. I nie rozdają tylko kradną. Współpraca nie była zerwana, tylko czasowo zawieszona. I nie przez PurePC, tylko przez AMD. I nie z powodu recenzji, tylko naruszenia NDA. Dawno już jest przywrócona, a redakcja zapraszana do testów nowych produktów, co potwierdza, że w alternatywnej wersji tej historii nie ma wiele prawdy. Nie wszystkich oczywiście, ale to dotyczy każdej redakcji, bo jedna specjalizuje się w testowaniu pod kątem gier, a inna w czym innym, a AMD ma produkty dla wielu różnych grup odbiorców.

post wyedytowany przez Labovsky 2018-08-14 11:59:56
13.08.2018 18:40
😉
Labovsky
43

Przemku, tak to wygląda jak zatrzymasz się na drugim zdaniu podsumowania.

To test w grach z nastawieniem na uwypuklenie roli procesora oraz jego udziału w komunikacji na linii API-sterownik (lwia część tego, co robi procesor w grach). Radeon na sprzętowy scheduler, a GeForce programowy i w warunkach DX11 tak to wygląda, a w DX12/Vulkan odwrotnie.

A za "ukochany przez AMD serwis" ktoś mógłby się w PurePC obrazić. Nie wiem po co te wtręty. Rozumiem, że masz swoje zdanie na ten temat, ale jak widać rzecz jest trochę bardziej skomplikowana niż się może wydawać.

post wyedytowany przez Labovsky 2018-08-13 18:40:56
10.08.2018 12:14
😜
1
Labovsky
43

Przemek, to nie jest żadne "ładne rozliczenie", tylko coś, co pasuje do Twojej wizji. Pamiętam, że jeszcze niedawno YouTube nie był dla Ciebie wiarygodny (np. Lipton), a tu proszę ;) Z resztą warto zapoznać się z procedurą testową i doborem gier "zanim zacznie się rozpisywać na forum" :P

Testowanie BF4 w trybie tylko DX11, gdy w grze jest DX12 jest dość dziwne. Podobnie fakt, że połowę procedury stanowią przeszło 3 letnie gry, podczas gdy jest szereg nowszych, ciekawszych i popularniejszych. Gdyby zamiast nich znalazłyby się np. nowy Wolfenstein, Far Cry 5 czy Kingdom Come to te proporcje mogłyby wyglądać zupełnie inaczej.

Wypominasz innym, że są podatni na propagandę, podczas gdy większość testów potwierdza, że GTX 1060 6GB (nie 3GB!) i RX480/580 to karty porównywalne wydajnościowo w zdecydowanej większości gier (raz jedna, raz druga nieco szybsza). Nie da się też zaprzeczyć temu, że w nowocześniejszych API, jak DX12 i Vulkan to Radeony rządzą. Ani temu, że sterowniki AMD są bardziej stabilne (vide badania QA Consultants). Ani temu, że w wielu przypadkach można jeszcze skorzystać na FreeSync w monitorze, który jest wśród modeli dla graczy praktycznie powszechny.

Pytanie zatem, kto tu sieje propagandę tak naprawdę i jakiego ona jest koloru :P

post wyedytowany przez Labovsky 2018-08-10 12:19:41
19.03.2018 09:25
😜
1
Labovsky
43

Tak, jak się już człowiek przyzwyczaił do twierdzeń, że "w grach słabsze od Intela", choć tylko niewielki procent ludzi jest w stanie to odczuć (tj. ma odpowiednio wydajną kartę grafiki pokroju GTX 1080 Ti za 4000 zł)...

post wyedytowany przez Labovsky 2018-03-19 09:26:09
14.03.2018 10:59
Labovsky
43

Niebezpiecznik: "warunkiem koniecznym do wykorzystania podatności są uprawnienia administratorskie albo fizyczny dostęp do sprzętu"

W 3 przypadkach na 4 warunkiem jest jedno i drugie. Tylko w 1 "wystarczy" mieć admina. No i w każdym przypadku potrzebny jest jeszcze dostęp do podpisanego cyfrowo sterownika.

post wyedytowany przez Labovsky 2018-03-14 11:04:23
12.03.2018 09:56
odpowiedz
Labovsky
43

Korzystanie z uprzywilejowanej pozycji rynkowej nie powinno więc nikogo dziwić, bo mogę z czystym sumieniem założyć, że w sytuacji, gdy to AMD kontrolowałoby 2/3 rynku, to właśnie obóz "czerwonych" starałby się przekonać producentów do współpracy w bardzo podobny sposób.

Może tak, może nie. Dziwi mnie natomiast traktowanie takich zagrywek jako normy, gdy wiadomo, że podobne działania ze strony Intela dekadę temu bardzo mocno ograniczyły konkurencyjność na rynku (a tym samym wolność wyboru) i spotkały się z karami regulatorów, a wreszcie stały się przedmiotem ugody, w ramach której Intel wypłacił AMD konkretne zadośćuczynienie.

29.01.2018 10:05
odpowiedz
Labovsky
43

"Na początku roku sieć obiegła informacja o poważnym błędzie w procesorach Intela (choć nie tylko, bo dotyczy to także sprzętu AMD i ARM)"

Biorąc pod uwagę, że procesory AMD (nie wiem jak ARM) są podatne na 1 z 2 błędów i to tylko w 1 z 2 wariantów ataku, to takie uogólnienie jest jednak dość niesprawiedliwe. Tym bardziej, że zamiast zapowiadać procesory pozbawione błędów AMD teraz daje jasne wskazówki, jak sobie z problemami radzić publikując szczegółowy whitepaper na ten temat. Niefajnie jest zatem wrzucać obie firmy do jednego worka skoro widać diametralnie różne podejście i podatność sprzętu.

post wyedytowany przez Labovsky 2018-01-29 10:07:05
02.01.2018 16:13
Labovsky
43

@Duckingman: to pytanie można odwrócić :) Po co sobie gracz ma zamykać drogę do lepszej wydajności w aplikacjach nawet jeśli akurat tej mocy nie wykorzysta, a w grach jest to samo. PC to nie konsola, tylko wszechstronna maszyna i różne rzeczy ludziom mogą z czasem przyjść do głowy. Szkoda byłoby potem musieć sprzęt wymieniać.

02.01.2018 14:25
1
Labovsky
43

@Duckingman: pod względem wydajności w grach Ryzen 5 jest odczuwalnie taki sam jak i5 (pomijając okazjonalny stuttering na i5 :) ). Po prostu takich procesorów nie łączy się z topowymi GPU, na jakich wykonywane są testy. Z grafikami średniej klasy wydajność jest praktycznie taka sama. Za to poza grami to jest różnica klas, a coraz więcej osób poza grami robi coś jeszcze. I nie trzeba być profesjonalistą, żeby sobie renderować wideo czy dłubać w grafice 3D czy programowaniu.

02.01.2018 13:13
Labovsky
43

To jak z zakupem aut niestety. Jeśli ktoś jest przekonany, że nie ma lepszych aut niż niemieckie, wyznaje ideologię "nie samochodom na F" albo zaopatruje się w lokalnych komisach, to na nim oszustwa VAG nie zrobią żadnego wrażenia... i tym samym zachęci firmy do dalszego postępowania w ten sposób.

Dokładnie tak samo jest na rynku podzespołów komputerowych. Pal licho długowieczność, ogólną wydajność, brak sztucznych ograniczeń, popychanie rozwoju gier do przodu przez optymalizację (vide Vulkan), uwolnione technologie (FreeSync, HBM), konkurencyjność skoro w sercu ciągle maj wyidealizowanego producenta ;)

post wyedytowany przez Labovsky 2018-01-02 13:14:31
02.01.2018 12:38
1
odpowiedz
1 odpowiedź
Labovsky
43

"Pozostaje mi chyba tylko życzyć AMD wszystkiego dobrego w 2018 roku – oby Czerwonym przytrafił się hit, którego zdają się naprawdę potrzebować."

Ten hit już się pojawił i to Ryzen, który okupuje najwyższe lokaty w liczbie sprzedanych sztuk w wielu dużych sklepach - choćby w Morele.net, Mindfactory itd.

Niepokojące jest to, że statystyki Steam coraz bardziej rozjeżdżają się z tą rzeczywistością.

Pamiętajmy, że to u nas w Polsce tak wielu polega na PC składanych przez znajomych, przyjaciół czy rodzinę. W innych krajach, zwłaszcza na zachodzie i południu znacznie bardziej polega się na gotowych zestawach. O tyle mniej istotna jest tam kwestia możliwości poszczególnych podzespołów, bo decydujące są umowy integratorów systemów z producentami.

post wyedytowany przez Labovsky 2018-01-02 12:39:23
30.05.2017 17:33
2
Labovsky
43

Raczej kwestia skali. Sądzę też, że o tym, czy ktoś jest do przodu, zadecyduje to, kto wprowadzi określone modele na rynek pierwszy :) AMD opracowywało Ryzeny przez 4-5 lat i mówi o tym od przynajmniej 2 lat. Topowe Core i9 nie wejdą do sprzedaży tak szybko jak pozostałe, co też świadczy o tym, że tak łatwo z tym wyjmowaniem z rękawa nie jest i Ryzen jednak wpłynął na kształtowanie oferty przez hegemona.

05.05.2017 11:53
Labovsky
43

Mówiąc o zamkniętych lokacjach miałem na myśli właśnie miasta. Niekoniecznie jednak widok na całe miasto jest konieczny, żeby mieć gorszą wydajność. Wystarczy przejść się ulicą, gdzie perspektywa jest przecież ograniczona zabudowaniami, a wydajność jest wciąż raczej słaba.

05.05.2017 11:32
Labovsky
43

Największe spadki wydajności w Fallout 4 są w zamkniętych lokacjach właśnie, a nie na otwartym terenie :)

05.05.2017 11:24
4
odpowiedz
10 odpowiedzi
Labovsky
43

Ciekawe, że to już druga optymalizacyjna perełka od Bethesdy, przy której współpracowano z AMD. Poprzednio był Doom. Dla porównania Fallout 4 powstał we współpracy z Nvidią, wygląda słabiej, a działa do dziś... umiarkowanie :)

Ciekawe, jak będzie z Quake Champions.

post wyedytowany przez Labovsky 2017-05-05 11:25:39
23.04.2017 00:06
Labovsky
43
Wideo

W wolnym czasie sobie tu wróciłem, aby kilka spraw wyprostować. Szanuję to, że tego nie przyjmujesz, ale jeśli ktoś tu jeszcze zajrzy, to warto, żeby miał jasność.

Ad.1 Cytat z PurePC jest prawdziwy dla stycznia 2014, ale już nie dla lutego 2014 i kolejnych miesięcy. Mówimy o czymś krótkotrwałym w perspektywie przeszło półtora-rocznego funkcjonowania tych kart na rynku. Wystarczy zajrzeć w historię cen: https://cenowarka.pl/eu/?phist=1048381

Analogicznie w przypadku RX 480 podajesz linka do informacji z czerwca 2016. A ja podam po prostu historię cen: https://cenowarka.pl/eu/?phist=1529707
i z ceneo: https://www.dropbox.com/s/wkw095tk9i2t2od/szafirza1000_ostatnie6m.png?dl=0

Ot rzeczywistość bez sztuczek. Oczywiście były modele droższe niż podane, ale mówimy o możliwości zakupu RX480 za ok tysiaka, co jak widać przez lwią część czasu było możliwe.

Ad.2 Oj nie, zdecydowanie nie tylko pamięć. W samym teście Babel, który linkowałeś, naliczyłem 9 gier, w których 4-gigabajtowy R9 290X odjeżdża o co najmniej 10 FPS nie tylko GTX 780 Ti 3GB, ale i Titan 6GB. Zerknij też poniżej na linki m.in. do poważanych przez Ciebie serwisów - zwróć uwagę na to, że one rozgraniczają pamięć od sprawności architektury.

"Zresztą Radeony do tej pory znacznie lepiej od GeForce'ów przechodziły próbę czasu i prawdopodobnie sytuacja jeszcze się odwróci na korzyść tego RX-a." - http://pclab.pl/art71359-34.html
"Radeon sprawniej radzi sobie w DirectX 12 oraz posiada dodatkowe 2GB pamięci" - https://www.purepc.pl/karty_graficzne/xfx_radeon_rx_480_gtr_black_edition_test_karty_graficznej?page=0,21

Wiem, co uważasz o DX12/Vulkan. 15 gier tylko w zeszłym roku to dla niektórych wciąż niewiele.

Jeszcze Digital Foundry, które wprost mówi, że za sprawą konsol coraz więcej gier działa lepiej na Radeonach właśnie - https://www.youtube.com/watch?v=8iVVMh6MD8M&sf51169862=1#t=2m33s

A co do tego, czy 3GB wystarczy do 1080p to sprawa jest prosta - mając 3GB w wiele gier można grać na maksymalnych ustawieniach. Z 4GB w bodaj wszystkie poza 1 (Mirrors Edge). Różnica, która wraz z kolejnymi grami robi się coraz bardziej odczuwalna. To nie wyrocznia, ale warto się zapoznać: https://www.youtube.com/watch?v=Cm9VJzzl3C0

Ad.3 Kultura pracy zależy od systemu chłodzenia. Najcichszą kartą 2015 roku wg PCLab.pl był Radeon R9 Fury w wersji od Sapphire. Żaden energooszczędny GeForce :) http://pclab.pl/art67610-27.html

Z resztą mam u siebie cały czas R9 290X i to w MiniPC, gdzie z wentylacją jest raczej tak sobie. To model Gigabyte Windforce. W spoczynku bezgłośny. Pod obciążeniem... wpisuje się w trel reszty komponentów, czyli bez dramatu.

Ad.4 Nvidia i AMD dają po prostu różne konfiguracje VRAM i tak się akurat złożyło, że to nie AMD pakuje do kart za tysiaka 3GB pamięci :) U AMD w tym przedziale minimum to 4GB.

Ad.5 Jeśli MoreleTV jest za słabe (to było na serio?), to masz wyżej szereg linków do serwisów, które poważasz.

post wyedytowany przez Labovsky 2017-04-23 00:08:41
20.04.2017 23:07
😊
1
Labovsky
43
Wideo

Łosiu - wskaż proszę, jakich danych/potwierdzeń Ci brakuje, z tego, na co się powołałem, a chętnie uzupełnię linkiem :)

Jakie GTX700 jakie R9 200? Co gdzie i jak? Ja tam widzę, że nie ma problemów -> http://www.babeltechreviews.com/nvidia-forgotten-kepler-gtx-780-ti-vs-290x-revisited/3/

Cytuję słowa z Twojego linka:
2013 - "The newly released GTX 780 Ti was generally faster than the brand new R9 290X"
2016 - "There is no doubt that the R9 290X with its 4GB of vRAM, is a generally faster GPU for today’s games than the 3GB vRAM-equipped GTX 780 Ti although they are still competing in the same class"

A teraz zobaczmy, czy to były karty tej samej klasy 3 lata temu:
1. R9 290X - 2100 zł (X.2013)
2. GTX 780 Ti - 2850 zł (XI.2013)
3. GTX 780 GHz - 2100 zł (XI.2013)

Wygląda zatem na to, że 290X przeskoczył o klasę wyżej w międzyczasie i o tym właśnie m.in. piszę :) Inną sprawą, o które wspominam jest kwestia VRAM, bo od czasu tej publikacji rok temu przybyło trochę gier, które potrzebuje 4GB VRAM nawet w 1080p. Np. nowy Mirrors Edge, nowy Deus Ex, Hitman, Rise of the Tomb Raider. Podrzucam zatem coś świeższego i porównującego karty z tego samego przedziału: https://www.youtube.com/watch?v=tjafGO8pTf4

Robienie problemu ze spraw technicznych, które nie mają znaczenia? O czym mowa? Że 100W więcej to no problem.

Mowa o sprawach rzekomego użycia starych GPU - to jest temat bez znaczenia tym bardziej, że niemożliwy do sprawdzenia na reprezentatywnej próbie. Poboru nie neguję, lecz tak jak wspomniałem na początku, nie uważam tego (opinia!) za gigantyczny problem skoro i tak 450-watowy zasilacz pociągnie taki zestaw z zapasem, a przetestowane dotąd RX500 wypadają w normie pod względem kultury pracy.

... bardzo mocne, drogie..." "Teraz masz to w cenie od ok. 1000 zł w każdym modelu" - a to właśnie clue sprawy -> nie, nie 1000zł, a 1200zł -> https://www.morele.net/komputery/podzespoly-komputerowe/karty-graficzne-12/,,,,,,,,,,8143O1157018/1/. Koło tysiąca masz te, jak to nazywasz "uber-tanie" z 4GB pamięci.

1050 zł - RX580 taktowany 1340/1380 MHz. To Aorus, czyli model premium, bo zwykły Gaming jest za 970 zł :) Żaden RX480 w Morele nie ma nawet zbliżonego taktowania. Nawet te po 1300-1400 zł.
https://www.morele.net/karta-graficzna-gigabyte-radeon-rx-580-aorus-4gb-gddr5-256-bit-dvi-d-hdmi-3xdisplayport-box-gv-rx580aorus-4gd-976901/
https://www.morele.net/komputery/podzespoly-komputerowe/karty-graficzne-12/,,,,,,,p,1,,8143O1107738/1/

post wyedytowany przez Labovsky 2017-04-20 23:09:10
20.04.2017 19:02
👍
Labovsky
43

Labovsky - to co mówisz to fakty, ale problem z tym, że nie świadczą o tym że AMD jest cudowne, tylko o tym jak działa rynek.

Na którym pojawiają się określone produkty AMD, i który reaguje na nie w określony sposób. Poza tym te fakty świadczą nie tylko o tym, jak działa rynek, ale także o tym, jak wyglądają możliwości techniczne danego sprzętu oraz jego przeznaczenie.

Wyolbrzymiane wpływu AMD jest przesadą tym bardziej, że RX 480 i RX 580 nie zawojowały świata (patrz ankiety Steamowe - dobre źródło, bo wolne od wpływu firm sprzętowych).

Dlaczego Steam miałby być bardziej wolny od wpływu firm sprzętowych niż profesjonalne agencje zajmujące się analizami rynku, jak Mercury Research czy Jon Peddie Research? Ostatnio zajrzałem do publicznie dostępnych danych w sklepie Morele i wygląda na to, że Polsce bliżej do danych podawanych przez agencje :) Na ok. 6500 kart za ok. 1000 zł sprzedanych w ostatnich 90 dniach ok. 1/3 to Radeony.

Z resztą nie chodzi o wyolbrzymianie tylko o właśnie wyważone spojrzenie. Jeśli usuniesz z obrazka Radeony, to zostaną Ci przeceny kart GTX 970/980 w połowie czerwca 2016, podczas gdy GTX 1060 wchodził miesiąc później. Sam piszesz niżej, że obie firmy to korpo-rekiny, więc skąd tutaj wiara, że Nvidia dokonała tak po prostu korekt cenowych na miesiąc przed wprowadzeniem swojego nowego produktu? Jakoś Nvidia tego nie robi tam, gdzie nie ma obecnie konkurencji i przykładowo GTX 1070/1080 staniały dopiero przy okazji premiery GTX 1080 Ti.

Co z tego że karty AMD dostały kopa w grach z DX 12 względem samych siebie w DX11 skoro, względem Nvidii różnica jak na razie dla mnie pomijalna.

Może dlatego, że patrzysz na testy w grach robione na topowych procesorach? Różnice się zwiększają w miarę korzystania z procesorów z niższych segmentów. No i 10-20 FPS mniejsze dropy w BF1, 10-20 FPS mniejsze dropy w Doom nawet na topowych procesorach też bywają odczuwalne w grze :)

To o tyle upierdliwe, że AMD od 2 lat siało propagandę o rewolucji jak to karty sprzed 2 lat będą żyły wiecznie. Tymczasem zmiana nastąpi realnie za 2-3 lata, kiedy one wszystkie wylądują w lamusowni. Trzeba będzie kupić nowe.

Powiedz to tym, którzy 3 lata temu kupili GTX 700 zamiast Radeona R9 200 :) Te pierwsze trzeba zmieniać, bo ani w DX12/Vulkan nie dają rady, ani nie mają wystarczająco pamięci do wielu dzisiejszych gier AAA (gry zacinajo!). Te drugie wręcz przeciwnie.

i jak w 2 na 50 tytułów uda się uzyskać dobre rezultaty to zamieniane jest to w szum medialny na który łapią się ludzie. A tego nie znoszę.

Jedno i drugie nie są faktami, tylko Twoją opinią. Fakty są takie, że RX 480/580 wypadają na poziomie GTX 1060 w większości gier DX11, za to odjeżdżają mniej lub bardziej w grach DX12/Vulkan. Innym faktem jest też to, że jeśli spojrzeć na gry z 2016 roku to prawie idealnie po połowie rozkładają się tytuły AAA, w których wypadają lepiej jedne czy drugie karty. Nie jest to zatem 2 do 50 tylko prędzej 8 do 8. Mogę zrobić listę :)

Najlepszym przykładem tej propagandy "zajebistości" jest RX580, który jest po prostu RX 480 w wersji overclocked, na tyle chamsko, że może na RX480 wpakować biosy z RX580 i będzie działać, generując oczywiście więcej ciepła.

Z jednej strony nie znosisz szumu medialnego, gdy mowa jest o realnych sytuacjach rynkowych i wydajnościowych, a z drugiej przyczyniasz się do zwiększania szumu medialnego wokół manipulacji. Bo jeśli ktoś Ci teraz uwierzy, sflashuje sobie RX480 i mu karta umrze, to czyja to będzie wina? Mówisz o tym, jak o pewniku. Jesteś członkiem redakcji Gry-online, więc ma prawo Ci wierzyć :)

Karty, które podobno udało się sflashować, to bardzo mocne, drogie (1300/1400 zł) i niereferencyjne produkty, które zapewne korzystały z selekcjonowanych GPU oraz autorskiej sekcji zasilania. Teraz masz to w cenie od ok. 1000 zł w każdym modelu. Nie ma w tym żadnej propagandy. Propagandą jest za to chyba bardziej robienie problemu ze spraw technicznych, które dla użytkownika nie mają żadnego znaczenia. Z dnia na dzień w cenie ok. 1000 zł można teraz dostać produkty szybsze o 10-15% niż wcześniej.

Pozdrowienia :)

post wyedytowany przez Labovsky 2017-04-20 19:03:53
20.04.2017 17:27
Labovsky
43

@kaszanka9 Nie sterownik, co API, które w przypadku architektury Radeonów jest obsługiwane w inny sposób niż w GeForce. Tego programowo nie można naprawić. Z resztą od czasu wskazanego testu na PurePC wyszło sporo tytułów gier DX12, które lepiej rozkładają obciążenie na wątkach. Sytuacja jest zatem inna dziś niż w lecie ubiegłego roku. Tym bardziej, że jest już Ryzen :)

post wyedytowany przez Labovsky 2017-04-20 17:31:45
20.04.2017 11:09
1
Labovsky
43

@kaszanka9 - nie neguję wpływu GTX 1070 na highend, choć na ceny w okolicy 2000 zł trzeba było chyba tam czekać dłużej niż na RX480 w okolicy 1000 zł ;) Natomiast segment ma olbrzymie znaczenie. Bez RX480 Nvidia nie starałaby się tak bardzo wprowadzić na rynek karty GTX1060 w wersji super taniej, żeby tylko przebić ceny Radeona. Nie wiadomo też, jak kształtowałyby się ceny bez RXa. Coś mi mówi, że nie byłoby takiego ciśnienia na schodzenie do poziomu 1100 zł ;)

@Łosiu, Przemku - ale czy poza tym, że jestem fanatykiem/PR AMD jakkolwiek możesz się odnieść do tego, co napisałem? Ułatwię Ci zadanie, bo na każdym portalu mój login jest ten sam i można to łatwo zweryfikować - z tej strony Filip Straburzyński. Login pochodzi jeszcze z czasów pradawnych, gdy o pracy najpierw jako prowadzący redakcję PCLab.pl, a potem jako wsparcie AMD nie mogłem nawet marzyć. Jeśli chcesz, to możesz mi nawet stosowną etykietę przydzielić, żeby to było widać od razu :)

Pytanie, czy przy tej otwartej przyłbicy jesteś w stanie się jakkolwiek odnieść do faktów, które przedstawiam? Bo póki co to wygląda na to, że sam masz określone preferencje. Zakładam, że nie, ale po prostu na to wskazuje próba zdyskredytowania mnie zamiast moich argumentów, do których się nie odnosisz :(

Faktem są realne ceny RX480 zaczynające się od ok. 1000 zł przez większość czasu funkcjonowania na rynku. Faktem były przeceny GTX970 w przeddzień premiery RX. Faktem jest, że w ciągu roku wyszło przeszło 15 gier z DX12/Vulkan (serio, to nie tylko Ashes). Faktem jest też wydajność RX480, która często przegania karty kosztujące rok temu ok. 2000 zł (R9 390X / GTX 980) - zwłaszcza w DX12/Vulkan. Faktem jest też to, że seria RX500 jest propozycją dla posiadaczy kart starszych niż RX400. Z wnioskami można dyskutować, ale raczej nie z faktami :)

19.04.2017 15:19
1
Labovsky
43

@kaszanka9
Rzecz w tym, że RX480 pojawił się na rynku bez mała miesiąc wcześniej niż GTX1060, więc kwestia cen tego ostatniego to zwyczajna wypadkowa pozycjonowania Radeona :) GTX1080 i 1070 to karty z zupełnie innego przedziału cenowego, więc trudno porównywać, ale i nikt im nie odmawia zasług w swojej klasie.

19.04.2017 15:12
Labovsky
43

@Łosiu - po prostu karty graficzne, żeby bardziej schłodzić GPU muszą obracać szybciej wentylatorami, a tym samym pracować głośniej. Nie ma powodu tego robić, jeśli temperatura 70-80 stopni jest w zupełności bezpieczna.

@Jeyhard - słaba optymalizacja w grze spowoduje prędzej spadek niż wzrost temperatury, bo sprzęt nie wykorzystuje wtedy pełnej mocy zazwyczaj. A co do Twojego GTX 970 to gratulacje dobrego modelu. Jeśli chodzi o to, jak to się przekrojowo kształtuje, to wystarczy zerknąć do testów większej liczby kart. Np.: http://pclab.pl/art68055-60.html

19.04.2017 12:39
Labovsky
43

@Sasori666 większość autorskich kart na rynku, czy to Radeon czy GeForce, pracuje z temperaturami w zakresie 70-80 stopni, bo to po prostu optymalna temperatura dla GPU. Obniżanie temperatury poniżej tego zakresu zwykle wiąże się z istotnym podniesieniem głośności pracy układu chłodzenia i nie ma żadnego praktycznego sensu.

19.04.2017 11:38
4
odpowiedz
Labovsky
43

@Łosiu: Rozumiem, że zapadła Ci w pamięć tylko sytuacja z premiery, ale tutaj warto śledzić rynek przed wyciągnięciem wniosków o "naczytaniu się":

GTX 970 potaniał o ok. 300 zł tuż przed premierą RX 480. Wcześniej kosztował ponad 1500 zł. Przypadek? ;)
RX 480 przegania obecnie często karty R9 390X i GTX 980, czyli sprzęt wypisz wymaluj za ok. 2000 zł jeszcze rok temu.
RX 480 nie był na rynku tylko w dniu premiery, ale także przez kolejne 3 kwartały i jego cena przez większość tego czasu zaczynała się od ok. 1000 zł.
GTX 1060 w momencie premiery miał cenę 1270 zł w raptem jednej wersji i to uber-taniej i to rzuconej na rynek zapewne z rabatami, żeby przebić RX 480. Zwykle różnica cen IDENTYCZNIE wyposażonych modeli MSI, Asus, czy Gigabyte to było co najmniej 100 zł na korzyść RX 480.

post wyedytowany przez Labovsky 2017-04-19 11:38:50
19.04.2017 11:11
1
odpowiedz
15 odpowiedzi
Labovsky
43

RX400 w zeszłym roku przesunęły wydajność dostępną przedtem w okolicy 2000 zł do przedziału cenowego ok. 1000 zł. Co roku taki postęp jest raczej niemożliwy, a przy tym byłby dla dotychczasowych klientów mocno frustrujący. Pobór energii to istotny czynnik, ale też bez przesady - w komputerach stacjonarnych 450-watowy zasilacz to żaden luksus, a już taki swobodnie pociągnie RX580. Wg testów nowe Polarisy nie odbiegają też kulturą pracy i temperaturami od konkurentów (bywają nawet lepsze), więc pobór energii przestaje być istotny nawet w perspektywie grania dzień w dzień po kilka godzin.

No i co by nie mówić, ale Radeony wydajnościowo żyją dłużej, więc nawet jeśli nowa seria nie zachwyca innowacyjnością, to RX500 wciąż pozostają dobrym sprzętem w swojej cenie. Zwłaszcza, jak ktoś chce monitor z FreeSync - w cenie pakietu GPU+monitor konkurencja nie zaoferuje nic o zbliżonych możliwościach.

post wyedytowany przez Labovsky 2017-04-19 11:12:38
22.03.2017 16:13
Labovsky
43

Nihil novi sub sole. http://www.benchmark.pl/aktualnosci/intel-skylake-blad-w-architekturze-procesorow-nadchodzi-poprawka.html

Nowe BIOSy do płyt rozwiążą problem z FMA3.

22.03.2017 16:07
Labovsky
43
Wideo

@Łosiu: nie wiem skąd przeskoczyłeś na "przyszłościowość", gdy wkleiłem tylko ustęp o tym, jak bardzo nierzeczywiste są testy CPU - pochodzący z testu Ryzena (sic!). W większości wypadków to GPU ogranicza wydajność w grach i to również, gdy ma się topowe karty. Innymi słowy - nikt praktycznie nie poczuje różnicy między i7 a Ryzenem w grach, za to poczuje gdzie indziej, jeśli jego PC to nie tylko konsola do gier. No i już pojawiają się ciekawe wyniki np. w BF1 w multi czy w For Honor, gdzie Ryzen oferuje lepszy poziom klatek minimalnych niż wyżyłowany i7. W streamingu też jest lepiej.

"skończymy jak zwykle, czyli z 7-10 grami rocznie z obsługa DX12."

Rzecz w tym, że w samym zeszłym roku wyszło ich 15 (uwzględniając Vulkan API), a biorąc pod uwagę, że DX12 pozwala wykrzesać więcej z XBoxa One, to nie wydaje mi się, żeby producenci tak mieli się kurczowo trzymać DX12 "bo Nvidia". Więcej maszyn do gier ma na pokładzie technologię AMD (uwzględniając konsole), a to rynek gier na konsole mimo wszystko determinuje kształt rynku gier w ogóle. Z resztą Nvidia nie wypada tak dobrze często i w grach, które nawet sama objęła partnerstwem - vide The Division, Rise of the Tomb Raider, Call of Duty Infinite Warfare. To trend, który nawet Digital Foundry zauważyło: https://www.youtube.com/watch?v=8iVVMh6MD8M&sf51169862=1#t=2m33s

A co do "praktyki i doświadczenia", to na zachodzie ukuło się już nawet określenie "AMD FineWine Technology" i piszą o tym wszyscy testerzy sprzętu. Jeśli kupujesz sprzęt na dłużej niż pół roku - rok, to lepiej, żebyś miał Radeona :)

post wyedytowany przez Labovsky 2017-03-22 16:09:25
16.03.2017 09:49
1
Labovsky
43

Łosiu - z tym, że warunki w testach procesorów mają mało wspólnego z realną rozgrywką, gdzie różnic się nie czuje. Cytat z pierwszego testu Ryzena na PCLabie:

"Pamiętajcie, że nasze testy zwykle pokazują najbardziej niekorzystny dla procesora przypadek: niską rozdzielczość, bardzo wydajną kartę graficzną i scenariusze testowe jak najbardziej zależne od wydajności procesora. Ktoś, kogo było stać na tak drogi procesor, zapewne wydał tyle samo lub więcej na kartę graficzną i monitor; wybór Ryzena 1800X do typowych dla niego zastosowań nie oznacza tak wielkiego poświęcenia wydajności jednowątkowej, żeby zniwelować zysk w zastosowaniach wielowątkowych."

01.09.2016 14:25
odpowiedz
Labovsky
43

Przede wszystkim AMD nie wydaje sterowników GameReady, bo Radeony ich nie wymagają. Większość gier już od dłuższego czasu działa optymalnie nawet jak się aktualizuje sterowniki raz na kwartał. W kontekście BF1 to 16.8.3 dodają tylko obsługę crossfire, więc jak ktoś nie ma dwóch Radeonów i nie odczuwa problemów, to nie musi ich instalować.

19.05.2015 13:24
odpowiedz
Labovsky
43

Oczywiście chodziło o serwis Reddit i wpis p.t. "Mark my word if we don't stop the nvidia GameWorks..." - można wyszukać w Google :)

19.05.2015 13:10
odpowiedz
Labovsky
43

Ciekawe kto tutaj mówi prawdę: [link]

Wg informacji z tego linka gra jednak mocno bazuje na PhysX Nvidii i w przypadku kart AMD przerzuca część obliczeń na procesor, co zabija wydajność Radeonów. W przypadku GeForce obliczenia te realizuje karta graficzna. Tego sterownikiem się raczej nie skompensuje.

"So, in short, the entire Project Cars engine itself is built around a version of PhysX that simply does not work on amd cards. Most of you are probably familiar with past implementations of PhysX, as graphics options that were possible to toggle 'off'. No such option exists for project cars. If you have and AMD GPU, all of the physx calculations are offloaded to the CPU, which murders performance."

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl