Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie Odpaliłem Wiedźmina 3 na tanim PC ze zintegrowaną kartą AMD

20.05.2019 08:35
komputer99
1
komputer99
39
Centurion

no kto by pomyślał że się nie uda hmm

20.05.2019 08:40
DanuelX
2
odpowiedz
1 odpowiedź
DanuelX
82
Kopalny

Dzisiaj ugotowałem jajka na miękko a myślałem, że będą na twardo. Smacznego przy rogaliku!

09.08.2019 12:18
VanDust
😉
2.1
1
VanDust
116
Generał

A tak długo gotowałeś, co nie? A one dalej twarde?!? Zaraza!!! ;)

20.05.2019 08:44
BartekTenMagik
3
1
odpowiedz
BartekTenMagik
65
World Owner

Tak samo odpaliłem gta V na pentium core2duo i integrze. Całość podpierało 2gb ramu noname.
Co z tego ze gra nie była płynna? Co z tego ze potem udało się osiągnąć 120 klatek na sekundę co było spowodowane tym ze komputer poddał się i przestał renderować wszystko oprócz postaci?

20.05.2019 10:20
4
odpowiedz
2 odpowiedzi
czmiellu
27
Legionista

Ja jestem szczęśliwym człowiekiem. Generalnie. Bo czasem się boję wdepnąć na wściekłego jeża. Że mi pięta spuchnie.

20.05.2019 10:48
kaitso
😎
4.1
4
kaitso
37
Generał

Po kontakcie z jeżem chorym na wściekliznę spuchnięta pięta może być najmniejszym zmartwieniem

20.05.2019 21:05
4.2
12dura
48
Senator

No to zależy czy był chory czy tylko zdenerwowany

20.05.2019 10:24
Sir Anubis
5
1
odpowiedz
2 odpowiedzi
Sir Anubis
28
Centurion

Nie jest to hate ale pytania zwykłe ;) po co do takiego kompa taka droga płyta? Trochę przesada chyba, ramy tak samo. Cena 900 jest za wersje z CL 14, CL 16 są do kupienia za mniej niż 600. Jak tu obetniemy to akurat starczy na jakiegoś Rx 570, może nawet w 8GB. Dla mnie artykuł ok, może niezbyt potrzebny bo to że da się grać w starocie na integrze chyba większość osób tu wie. Co do konfiguracji jednak sądzę że jest w rozkroku pomiędzy niskim budżetem a wydajnością - da się złożyć o wiele wydajniejszy zestaw w tej cenie, jak i zestaw o tej wydajności o wiele taniej.

20.05.2019 10:47
kaitso
5.1
1
kaitso
37
Generał

Odpowiedzi na Twoje pytania udzielił Lifidator w poście niżej :)

"nie chodziło o budowę konkretnego zestawu, ale o pokazanie, że integry AMD w Ryzenach są na tyle mocne, że da się zagrać w nowe gry"

"dobra opcja dla tych co chcą kupić nowy komputer już dziś, a na GPU dopiero zbierać." - nic dodać nic ująć :)

24.05.2019 10:31
Von Hartge
5.2
Von Hartge
40
Centurion

@Sir Anubis:
W pełni się zgadzam.

@kaitso:
Jest to raczej opcja dla masochistów, zwłaszcza strzelanki sieciowe poniżej 60fps :-)

20.05.2019 10:40
6
3
odpowiedz
4 odpowiedzi
Likfidator
120
Senator
Wideo

Tu przecież nie chodziło o budowę konkretnego zestawu, ale o pokazanie, że integry AMD w Ryzenach są na tyle mocne, że da się zagrać w nowe gry.

https://www.youtube.com/watch?v=d-nmgC0K1gk

Tutaj był podobny test. W zasadzie można powiedzieć, że integry od AMD to poziom Xbox One'a, ale w parze z kilkukrotnie wydajniejszym CPU niż konsolowy Jaguar. Na takim sprzęcie da się grać w 720-900p czyli tyle ile wyciąga Xbox One S. Z tą różnicą, że CPU nie ogranicza, czyli uzyskanie super stabilnych 30 fps czy nawet 60 fps w części gier jest znacznie łatwiejsze niż na jakiejkolwiek konsoli.

Jest to dobra opcja dla tych co chcą kupić nowy komputer już dziś, a na GPU dopiero zbierać.

Choć zastosowań jest znacznie więcej. Na takiej platformie można zbudować tani PC w malutkiej obudowie, czy jako komputer do internetu, czy HTPC pod TV. Komputer, którego gry nie będą głównym zastosowaniem, ale który z grami sobie jakoś poradzi.

20.05.2019 12:08
DanuelX
6.1
DanuelX
82
Kopalny

Jest to dobra opcja dla tych co chcą kupić nowy komputer już dziś, a na GPU dopiero zbierać.
Ogólnie dla mnie jedną z najbardziej uzer-friendli zmian w komputerach osobistych w ostatnich 20 latach to dodanie instrukcji gpu do cpu. Nie ważne czy czekasz na kartę graficzną czy ci się spaliła czy też używasz kompa jako maszyny do pisania - masz wszystko w swoim procku w gratisie.
Ale widocznie to zbyt dobry patent dla klienta bo korpo już zaczyna przycinać procki i każe płacić dodatkowo za "luksus".

post wyedytowany przez DanuelX 2019-05-20 12:11:37
20.05.2019 12:32
6.2
1
Piotrek.K
203
... broken ...

>>> DanuelX
Zapewne okazalo sie, ze 70% 'pcmasterrejsow' to jednak nie 'pisimasterrejsy' tylko uzytkownicy biurowi, ktorzy zorientowali sie, ze juz nie musza kupowac dedykowanej grafiki do neta, worda i okazjonalnych simsow 4 ;D

20.05.2019 14:23
topyrz
6.3
3
topyrz
77
O_O

@DanuelX
Nie bądź naiwny. Zawsze płacisz za dodatki.

20.05.2019 18:26
DanuelX
6.4
DanuelX
82
Kopalny

Nie bądź naiwny. Zawsze płacisz za dodatki.
Oczywiście tylko że w tej sytuacji dopłata za dodatki nadal pozostaje w cenie procka bez tego dodatku a za DLC w formie GPU korpo każe sobie znowu dopłacić.

20.05.2019 12:47
7
3
odpowiedz
8 odpowiedzi
Likfidator
120
Senator

DanuelX, zintegrowanie GPU w CPU to było bardzo antykonsumenckie zagranie, żeby nie powiedzieć monopolistyczne. Intel w ten sposób zdominował rynek kart graficznych wybijając całą konkurencję.

Integry były na rynku PC od dawna. Pojawiły się gdzieś na początku lat 90tych i z biegiem czasu zyskiwały na popularności. Zanim Intel zaczął montować GPU w CPU, na rynku były płyty z kartami VIA, Intela, Ati, Nvidii, S3 czy Matroxa, a w latach 90tych karty graficzne były produkowane przez kilkunastu producentów.

GPU w CPU zabiło całą konkurencję. Producent płyty po prostu wyprowadzał piny z CPU do gniazda DVI czy VGA. Z tym nie dało się konkurować. W ten sposób producent najgorszych kart graficznych zdominował rynek wykorzystując swoją pozycję na rynku CPU.

Kto wie jakby wyglądał rynek kart graficznych, gdyby nie działanie Intela. Wystarczy popatrzeć tylko na mnogość chipów graficznych do smartfonów. Jest wielce prawdopodobne, że te same chipy pojawiłyby się jako integry do PC, a producenci prześcigaliby się w kompatybilności i wydajności.

Wystarczy porównać Vega 8 od AMD do Intel UHD 630. Rozwiązanie AMD jest dosłownie 2x wydajniejsze! Żadne z iGPU Intela nie jest nawet porównywalne do wydajności Vegi 8.

Pamiętajmy też o milionach użytkowników, którzy nigdy z integry nie skorzystają. Może kiedyś zostanie to lepiej wykorzystane, wszak można by wykorzystać iGPU do przetwarzania równoległego np. do AI, czy fizyki w grze, ale póki iGPU są bezużyteczne, gdy mamy dedykowaną kartę.

Ile też miejsca jest marnowane na panelu płyty głównej na złącze VGA, DVI i HDMI. Ja bym zdecydowanie wolał mieć w tym miejscu stare złącze szeregowe RS-232 niż kompletnie bezużyteczne wyjścia wideo. Takie złącze się przydaje, są co prawda adaptery USB - RS232, ale ogranicza mi to użyteczność RS232 tylko do w miarę nowego systemu operacyjnego, który ma do czegoś takiego sterownik.

EDIT: Wydaje mi się, że płyty główne wciąż posiadają piny do złącz RS232, tylko nie ma fizycznych złącz.

post wyedytowany przez Likfidator 2019-05-20 12:49:59
20.05.2019 18:32
DanuelX
7.1
1
DanuelX
82
Kopalny

Jak to dobrze, że jestem stary i jeszcze coś tam pamiętam. Strasznie mieszasz mi tutaj pojęcia, skutki i przyczyny. Intel zaczął dodawać GPU do procków na długo po tym, jak rynek się zmonopolizował. Virge, matroxy i inne wynalazki wymarły jak dinozaury nie przez intela ale nvidię (a trochę wcześnie 3DFX). Nie ma to nic wspólnego z intelem. Przespali po prostu swoją okazję. Nie będę po nich płakał.
Oczywiście, że nikt nie będzie kupował budżetowych kart graficznych produkowanych w chińskim garażu skoro ma wszystko co potrzebuje na procku.

20.05.2019 21:04
7.2
Likfidator
120
Senator

Danuel, patrzysz z perspektywy użytkownika domowego, który kupował w dodatku sprzęt do gier. 3DFX poza grami był bezużyteczny. Nie wspierał nawet normalnego OpenGLa, tylko jego uproszczoną wersję MiniGL. Komputery z układami graficznymi VIA były jeszcze dostępne gdzieś do 2009 roku, może nawet później. Głównie w Thin Clientach, gdzie procesory x86 tej firmy były bardzo popularne. VIA nie mogąc konkurować z Intelem i AMD na wydajność, stworzyła jednostki bardzo energooszczędne, idealne do terminali, których zadaniem jest praca na zdalnym pulpicie.
Matrox robi karty graficzne do dziś. Firma ta słynęła z bardzo wysokiej jakości przetworników w erze monitorów kineskopowych. Cyfrowe złącze DVI zabiło ich główny atut. Dziś specjalizują się w kartach o wielkiej ilości wyjść np. 9 wyjść mini HDMI na jednej karcie. Szkoda, że obecnie są to po prostu Radeony z dodatkowymi chipami Matroxa dodającymi dodatkowe wyjścia.

Zresztą zanim Intel zaczął integrować GPU w procesorach był kilkuletni okres promowania układów montowanych na płytach. Jak to w przypadku umów licencyjnych z Intelem bywa, producenci komputerów czy laptopów nie mieli innej opłacalnej opcji.

Fakt jest taki, że od 2004 roku w górę integra intela zawsze była najtańszą opcją. Za cokolwiek od Ati trzeba było dopłacić 15-20% ceny laptopa, a w przypadku integry Nvidii cena laptopa rosła nawet o 50% względem integry Intela.

W tym okresie można było jeszcze spotkać płyty czy laptopy z VIA Chrome, ale tego nikt nie chciał.

Na rynku mobilnym sytuacja była całkiem odmienna. Pierwsze modele iPhone'ów oparto o chipy PowerVR. Pierwszy iPhone był sprzętowo bardzo zbliżony do Dreamcasta. Sega nawet przeportowała kilka Dreamcastowych gier jak Super Monkey Ball na iOS, bo było to bardzo proste.

Nvidia i Intel mimo starań nie osiągnęli niczego znaczącego na polu urządzeń mobilnych.

22.05.2019 18:54
7.3
1
zanonimizowany146624
131
Legend

Tak czy owak, gdyby nie 3dfx, zamiast 2080ti miał byś kartę na poziomie obecnych integr. To 3 dfx spowodowało głównie, że mamy to, co mamy, bo nVidia wykupiła ich technologię i wiedzę. Dziękuję dobranoc.

22.05.2019 19:17
😜
7.4
Interior666
158
Generał

Jakie dinozaury

23.05.2019 00:18
7.5
Likfidator
120
Senator

Tak czy owak, gdyby nie 3dfx, zamiast 2080ti miał byś kartę na poziomie obecnych integr. To 3 dfx spowodowało głównie, że mamy to, co mamy, bo nVidia wykupiła ich technologię i wiedzę. Dziękuję dobranoc.

Nie przeceniajmy zasług 3DFXa. Oni nie wprowadzili żadnej innowacyjnej technologii. Jedyne co im się udało, to wprowadzić produkt trochę wydajniejszy od konkurencji w trochę lepszej cenie. Nie był to w żadnym wypadku pierwszy akcelerator. Creative 3D Blaster pojawił się na rynku rok wcześniej i miał całkiem niezłe wsparcie w grach. Niestety jego główna zaleta stała się też jego główną wadą. 3D Blaster był przeznaczony dla starzejącej się platformy 486. Dzięki temu akceleratorowi na poczciwej 486 można było uzyskać wydajność na poziomie szybkiego Pentium. Konsument jednak wiedział, że zakup nowego komputera z Pentium ma dużo większy sens, a 3D Blaster z racji funkcjonowania na VLB charakterystycznej dla 486 nie miał przyszłości.

O akceleratorach 3D można by pisać i pisać, ale fakt jest taki, że 3DFXowi przypisuje się zbyt wielkie zasługi. Bardzo szybko doczekał się dobrej konkurencji, a ledwie kilka lat później firma walczyła o życie, bo konkurencja miała po prostu lepsze produktu z innowacyjnymi technologiami.

24.05.2019 10:08
deton24
7.6
deton24
108
Pretorianin

Jest też jeden dodatkowy powód dla którego sam nie lubię rozpanoszenia się integr z CPU Intela.
Wzrost cen procesorów i, raczej też płyt głównych.
W dodatku w HEDT miejsce integry zajmuje np. więcej rdzeni.

post wyedytowany przez deton24 2019-05-24 10:09:22
09.08.2019 12:54
Kaczmarek35
7.7
Kaczmarek35
11
Senator

Likfidator
Nie przeceniajmy zasług 3DFXa. Oni nie wprowadzili żadnej innowacyjnej technologii.

Zakłamujesz rzeczywistość. 3dfx było kartą bardzo wydajną i pierwszą, która wprowadziła akcelerację sprzętową.
To był największym przełom dotyczący gier 3d wprowadzenie tej technologii przy Tomb raider 1996 - wygląd lokacji i postaci w grze 3d wreszcie na miarę 3d z prawdziwego zdarzenia , gdy miałeś Voodoo i dograłeś plik, by mieć akcelerację sprzętową i pozbyłeś się pikselozy. Oczywiście dopiero gry od 1997 roku miały w ustawieniach od razu tą możliwość bez dogrywania już odpowiednich plików z czasopism z CD.
Patrz jak wyglądały gry 3d z lat 1980-1995 przed TR 1.
Z tego co pamiętam na Nvidiach długo nie było możliwości nawet zagrania w TR 1 z akceleracją (przez pierwsze kilka lat).
Voodoo 1 rządziło samodzielnie.
Riva TNT od Nvidii konkurowała już dzielnie z Voodoo 2, a potem RIVA TNT 2 z Voodoo 3. Ale dopiero Geforce 1 w 1999 od Nvidii doprowadził w dużej mierze do pokonania konkurenta.

post wyedytowany przez Kaczmarek35 2019-08-09 12:59:08
09.08.2019 13:58
7.8
Likfidator
120
Senator

Zakłamujesz rzeczywistość. 3dfx było kartą bardzo wydajną i pierwszą, która wprowadziła akcelerację sprzętową.

Nie, nie i jeszcze raz nie. Swoją wiedzę opierasz na tym co czytałeś w prasie o grach lata temu. 3DFX nie był w niczym pierwszy, ani nie miał żadnej przełomowej technologii. Był po prostu tani. Technologia z 3DFXa sięga lat 70 czy 60tych, albo i wcześniej. Wtedy to powstały teoretyczne matematyczne podwaliny pod tego typu technologię, która w latach 80tych trafiła do wojska, by napędzać symulatory lotu, w pierwszej połowie lat 90tych do salonów arcade, a w drugiej połowie lat 90tych do konsol i PC.

Za pierwszy gamingowy akcelerator graficzny uznaje się chip SUPER FX zamontowany w kartridżach kilku gier ze SNESa. To co go wyróżnia, to sprzętowa implementacja funkcji graficznych, a nie dodatkowy procesor na którym przetwarzano algorytmy graficzne.

Jak pisałem wyżej, pierwszym gamingowym akceleratorem dla PC wartym wspomnienia jest 3D Blaster od Creative'a. Odniósł umiarkowany sukces i miał wsparcie w około 20 grach o ile mnie pamięć nie myli, ale jak pisałem jego główną wadą był fakt, że był stworzony pod odchodzącą do lamusa platformę VLB ściśle powiązanej z CPU 486.

Dwa fakty potwierdzają, że 3DFX nie stworzył nic nadzwyczajnego:
1. Bardzo szybko pojawiła się lepsza, wydajniejsza i tańsza konkurencja.
2. 3DFX jest firmą jednego produktu. Voodoo 2 i kolejne to ledwie przyspieszona warianty pierwszej karty.

Voodoo 3 był zwyczajnie przestarzały. Nawet nie chodzi o brak 32-bitowego koloru. Gigantycznym problemem okazał się brak wsparcia dla tekstur o wymiarach powyżej 256x256 pikseli. Konkurencja w tym momencie wspierała 2048x2048. Dlaczego jest to ważne? Otóż duże tekstury pozwoliły na atlasowanie, czyli użycie jednej tekstury dla wielu różnych obiektów. To z kolei oznaczało gigantyczną oszczędność na wywołaniach funkcji draw (bardzo ciężkiej dla CPU, bo trzeba przepchnąć przez szynę wszystkie zmiany stanów GPU).

Co więcej, wszyscy producenci kart graficznych szli w kierunku akceleracji 3D. Już w epoce DOSu były karty z akceleracją np. Mach8 i Mach32 od ATI. Żeby nie wspomnieć o dziwacznym klonie PC Mindset z początku lat 80tych, który posiadał układ graficzny zdolny do generowania prostej grafiki 3D, powstała nawet jedna gra, która robi z tego użytek i trzeba powiedzieć że jak komputer z tego okresu robi gigantyczne wrażenie graficzne.

Później w epoce Windows 95 wszyscy producenci kart graficznych dodali blittera i inne funkcje sprzętowe. Popularne S3 Virge miały już akcelerację 3D i wszystkie efekty z 3DFXa, filtrowanie dwuliniowe, korekcję perspektywy itd. tylko były przeraźliwe wolne.

Zmierzam do tego, że gdyby 3DFX nigdy nie wypuściło Voodoo 1, to inna firma zajęłaby jego miejsce. Już nawet nie wspominam o profesjonalnych kosztujących fortunę akceleratorach OpenGL do PC.

Nie mówiąc o tym, że to nowe konsole 3D tj. PSX, Saturn i N64 wymusiły na rynku PC wytworzenie gamingowych akceleratorów.

Oczywiście doceniam wkład 3DFXa w rozwój gamingu na PC, ale firma ta jest przeceniania. Tak samo jak ID Software jest uznawane za twórcę FPSów, a obok nich Bethesda rozwijała TESa i Terminatory. Z czego to właśnie Terminator Future Shock jest grą, która wprowadziła pierwsze w pełni trójwymiarowe modele postaci jak i w pełni trójwymiarowe mapy, celowanie myszą itd.

W dobie internetu mamy dostęp do gigantycznej ilości informacji. Naprawdę warto trochę pogrzebać i można spojrzeć na wszystko z innej perspektywy.

20.05.2019 14:42
8
odpowiedz
zanonimizowany947165
46
Generał

A tam AMD tylko Nvidia

20.05.2019 14:57
9
odpowiedz
3 odpowiedzi
zanonimizowany1285878
24
Senator

Akurat jestem posiadaczem tego procesora z kartą Vegą. I wiecie co... A niech ją piekło pochłonie. Do samego procesora zastrzeżeń nie mam. Ale z Vegą problemy były od samego początku. Problem ze sterownikami był permanentny, gry crashowały. Pojawiał się komunikat o problem właśnie z kartą graficzną. Nie twierdzę, że jak u mnie było źle to musi być też źle u innych. Ale ja się ewidentnie przejchałem. Chciałem kupić RX 580 lub 590 ale zrażony kartą AMD kupiłem GTX 1660Ti. Wszystkie problemy zniknęły. Zrobiłem to tylko że względu na osobiste doświadczenia a nie ze względu na jakąkolwiek niechęć do AMD.

20.05.2019 15:02
kaitso
9.1
kaitso
37
Generał

U nas w czasie testów żadnych problemów na szczęście nie było - jedynie kilka razy podczas gry w Rainbow Six Siege na laptopie (Vega 8) pojawił się jakiś mały artefakt czy zniekształcenie obrazu :)

20.05.2019 15:13
9.2
zanonimizowany1285878
24
Senator

Artefakty zdarzały się rzadko (Vega 11),wydajność jak dla mnie też była wystarczająca. Nie gram w FullHd więc na spokojnie Vega dawała radę. Ale crahe gier były częste. Sterowniki w nowszej wersji często działamy gorzej niż starsze. Doszło do tego, że używałem stabilnego sterownika z listopad zeszłego roku. No takie cuda jak widzicie :) Nie wiem co tam u mnie nie zagro jak powinno. Teraz już się tym nie martwię :)

post wyedytowany przez zanonimizowany1285878 2019-05-20 15:13:32
20.05.2019 21:03
Maciek_RPG
9.3
Maciek_RPG
70
Centurion

Nigdy nie kupuję kart AMD właśnie przez sterowniki, dwa razy się trochę przejechałem i podziękowałem. Ostatni raz kiedy nie miałem większych problemów z Radeonem to czasy HD 3850, chociaż muszę po prawdzie przyznać, że miałem tylko 4 karty graficzne Ati lub AMD, a problemy dotyczyły wersji na laptopy.

post wyedytowany przez Maciek_RPG 2019-05-20 21:08:37
20.05.2019 15:29
10
1
odpowiedz
1 odpowiedź
edonutd
48
Chorąży

Przecież CS GO przy ~ 50 klatkach jest praktycznie niegrywalny, więc nie wiem skąd te zachwyty.

Szkoda, że nie sprawdziliście The Sims 4. Dużo ludzi gra w tę grę nadal i fajnie by sprawdzić jak ten lapek się sprawdza tutaj.

post wyedytowany przez edonutd 2019-05-20 15:30:02
20.05.2019 21:21
Caine
😃
10.1
Caine
42
Generał

Poproszę też o test World of Tanks.

20.05.2019 20:55
Maciek_RPG
11
odpowiedz
Maciek_RPG
70
Centurion

Każdy laptop z kartą mocniejszą niż geforce 750m (włącznie) uciągnie Wiedźmina 3 w 30 klatkach, nawet na średnich, a te laptopy mają już 4 - 5 lat, a wyjściowo kosztowały ok 3 tys.

20.05.2019 23:11
seraf5
12
odpowiedz
1 odpowiedź
seraf5
77
Pretorianin

ja wiem, że PCMR i w ogóle, ale... serio? 30 fps w BFV to nie jest komfortowa wartość, tak samo 40-80 w Apexie? ludzie, jak się ma laptopa z takimi podzespołami to 30 fps to jest szczyt, a nie niegrywalna wartość! sam przeszedłem wiele, wieeeeeele! gier na 640x480 i 800x600 na poprzednich ziemniakach, często nawet nie sięgając wartości 20 fps - i żyję! 4 lata temu dałbym się pokroić za 30 fps w Wiedźminie 3 czy nawet BF4 na laptopie, a wy wyskakujecie z tekstem, że poniżej 60 fps nie da się mówić o komforcie grania... do tego te teksty, że gry na 1366x768 wyglądają fatalnie. orientujecie się, że jeszcze te właśnie 4-5 lat temu to była standardowa rozdzielczość na właściwie każdym laptopie? sam na swoim gtx 1050 zjeżdżam do tej rozdzielczości w CoDach BO3 i BO4, bo są wyjątkowo niezoptymalizowane i wahają się pomiędzy 40-60 fps, więc dla świętego spokoju daję niższą rozdzielczość, bo4 i tak jest paskudny. fatalnie to wygląda gra na 1024x768 albo 800x600 - na 1366x768 wygląda zwyczajnie znośnie.
swoją drogą napisać o karcie, która spokojnie odpala wszystkie dzisiejsze tytuły na średnich ustawieniach (vide Metro Exodus, Mortal Kombat 11), że jest "słabiutka" (mówię teraz o GTX 1050) to też trochę śmiech na sali. słabiutką kartą to może być nazwana ta testowana przez was Vega - a jednak do czegoś się sprawdza.

21.05.2019 11:06
kaitso
12.1
1
kaitso
37
Generał

Jak się nie ma co się lubi...
Pewnie da się przeżyć granie w 20 klatkach i rozdzielczości HD, ale nie wiem co może być w tym przyjemnego skoro na konsoli za parę stówek masz bez porównania lepsze możliwości, niektóre gry na telefony lepiej wyglądają

21.05.2019 11:40
lordpilot
😉
13
odpowiedz
1 odpowiedź
lordpilot
211
Legend

Ten test miał zapewne udowodnić, że na laptopie za 2500 zł i kompie stacjonarnym za 2700 - 2800 zł.z "integrą" AMD nie da się komfortowo pograć. I udowodnił, to się w pełni udało:)

Nie jest to zresztą specjalnie zaskakujące i nie ma co się pastwić - kompy do pracy, to kompy do pracy, pograć można na nich, co najwyżej w jakieś tytuły sprzed wielu,wielu lat, które dziś ładniej będą wyglądać nawet na smartfonach.

W3, gra czteroletnia, nawet w najniższych detalach ledwie na tych kompach zipie. Ma być tanio i komfortowo? Ps4 slim albo Xbox One S - wszystkie podane tu tytuły będą wyglądać i chodzić lepiej, a kwota wydatków zamknie się w 1100 zł. Tak to wygląda.

21.05.2019 11:47
13.1
mjmo
27
Pretorianin

Raczej udowadnia, że jak grasz okazjonalnie w CS albo Fortnite, to nie musisz kupować kompa z osobna karta graficzną za 1000 zł bo zintegrowane GPU zrobiły duży progres przez ostatnie kilka lat

21.05.2019 15:20
wytrawny_troll
14
odpowiedz
wytrawny_troll
77
Exactor

Szkoda, że nie można powiększyć tego zrzutu z W3. Wiesław wygląda godnie i interesująco. Chyba wyciągnę kilka niepotrzebnych klamotów z blaszaka. I będę grał w podanych przez artykuł ustawieniach. Mega przygoda :-) Zwłaszcza to otoczenie prezentuje się niesamowicie :-)

21.05.2019 15:22
15
odpowiedz
1 odpowiedź
BeF1990
55
Centurion

Dla mnie świetna platforma do emulacji starszych konsol jak i tych nowszych, zamknięta w malutkiej obudowie.

24.05.2019 10:07
15.1
zanonimizowany1287954
0
Pretorianin

Tylko, ze plyty z chipsetem B360 nie obsluguja szybszych pamieci od 2666. Cos Ci sie bardzo pomieszalo.

21.05.2019 23:49
Von Hartge
16
odpowiedz
9 odpowiedzi
Von Hartge
40
Centurion

Tylko po co się męczyć? Można mieć w podobnej cenie jn.:

i3-8100 3,6 GHz 6MB s1151 Box / 549,-
MSI B360M PRO-VD DDR4 1151 / 289,-
HyperX Predator 1x8GB 3000MHz DDR4 CL15 XMP / 229,-
ADATA Ultimate SU650 SSD 480GB 520/450MBs / 235,-
Gigabyte GTX 1660 OC 6GB GDDR5 / 1009,-
SilentiumPC Supremo L2 550 W lub quiet! System Power 9 600W / 250,-
Obudowa / 80,-
Razem: 2641,-

dla oszczędnych:
GTX 1060 Windforce OC 3GB GDDR5 / taniej o 240,-
ADATA Ultimate SU650 SSD 240GB 520/450MBs TLC 3D / taniej o 110,-
Razem: 2291,-

Gramy sobie na takim pudle w Trzeciego Wieśka, nowe Battlefieldy, Assassyny i całą resztę spokojnie w 60-100 fps na wysokich/ultra w fhd. XMP ustawia ram na 3ghz, a 8100 depcze po piętach 2400g, więc większej różnicy nie ma. No i łatwiej kupić później kolejny dysk czy dodatkową kostkę ramu niż wydajną grafę.
Odpowiadając na pytanie ze wstępu - imho każdy, kto myśli o tytułach wymienionych wyżej potrzebuje gpu za 1000, a co najmniej za 750 zł =]

post wyedytowany przez Von Hartge 2019-05-21 23:58:47
22.05.2019 08:29
16.1
1
zanonimizowany1287954
0
Pretorianin

Jak chcesz niby ustawic RAM na 3000mhz na plycie, ktora takich szybkosci nie obsluguje ? RAM na tej plycie nawet jak kupisz szybszy to zejdzie z taktowaniem na 2666. W podobnej cenie jest Ryzen 7 1700 (~600), znacznie bardziej przyszlosciowy procesor.

post wyedytowany przez zanonimizowany1287954 2019-05-22 08:31:31
22.05.2019 14:46
Von Hartge
16.2
Von Hartge
40
Centurion
Image

@Misiuz8710:
Już napisałem wyżej - XMP. Aktywujesz go jednym kliknięciem w biosie i pamięć sama wymusi swoje parametry. Składałem niedawno kompa z i3-8100 na płycie ASUS Prime B350, pięknie łyka ddr 3000 mhz :-) MSI też łyknie.

Edit: Nie skupiałem się na przyszłościowym wykorzystaniu podzespołów, tylko na najtańszej możliwości płynnej gry w fhd w nowe tytuły.

post wyedytowany przez Von Hartge 2019-05-22 14:52:27
22.05.2019 18:32
16.3
zanonimizowany1287954
0
Pretorianin

Na twoim screenie pamiec pracuje w 2666 tak jaki mowilem, wiec co ty piszesz tutaj za glupoty ? Moglbys chociaz edytowac w paincie, zeby mozna bylo sie zastanowic na twoja wpadka. I nie skladales kompa na B350 z i3 8100 bo to chipset od AMD. Kompletnie nie ogarniasz. Ryzen 7 1700 zapewnia plynna gre bardzo tanio w nowe tytuly.

post wyedytowany przez zanonimizowany1287954 2019-05-22 18:36:51
24.05.2019 10:01
Von Hartge
16.4
Von Hartge
40
Centurion

@Misiuz871:
Jestem już tak stary, że nie mam potrzeby imponować komuś kłamiąc w komentarzach :-)

Screen jest z internetów i pokazuje jedynie istnienie oraz umiejscowienie funkcji XMP w biosie MSI. Na screenie jest też na procek i7, ja pisałem o i3 w płycie ASUS. Mała różnica... Fakt, walnąłem literówkę podając chip B350 zamiast B360. Ale to chyba oczywiste.

Co do profilu XMP w pamięciach, to nie chce mi się prowadzić zbędnej dyskusji, w internetach jest wystarczająco dużo informacji na ten temat. Jeśli płyta obsługuje wyższe taktowania, to ram z XMP zadziała (zerknij np. tutaj: pclab.pl/art76735-25.html).

24.05.2019 10:08
16.5
1
zanonimizowany1287954
0
Pretorianin

Tylko, ze plyty z chipsetem B360 nie obsluguja ramu szybszego od 2666. Dlatego widze, ze nie za bardzo wiesz o czym piszesz.

" Już napisałem wyżej - XMP. Aktywujesz go jednym kliknięciem w biosie i pamięć sama wymusi swoje parametry. Składałem niedawno kompa z i3-8100 na płycie ASUS Prime B350, pięknie łyka ddr 3000 mhz :-) MSI też łyknie. " jest po prostu klamstwem, albo kompletna niewiedza.

post wyedytowany przez zanonimizowany1287954 2019-05-24 10:12:52
24.05.2019 10:14
16.6
zanonimizowany1287954
0
Pretorianin

RAM nawet jak kupisz szybszy to zejdzie z predkoscia na 2666 i nic z tym nie zrobisz.

24.05.2019 10:17
deton24
16.7
deton24
108
Pretorianin

Wystarczy że zobaczy w CPU-Z z jaką częstotliwością pracuje CPU, i mu wyjdzie.

Max częstotliwość pamięci nie zależy od płyty, ale CPU, tam jest kontroler.
Z tego co pamiętam, dla Skylake było 2133, potem dla Kaby 2400, a teraz na Coffee 2666.

post wyedytowany przez deton24 2019-05-24 10:17:23
24.05.2019 22:38
16.8
zanonimizowany1287954
0
Pretorianin

Nie. Tu chodzi o chipset na plycie nie procesor.

post wyedytowany przez zanonimizowany1287954 2019-05-24 22:39:22
10.08.2019 12:05
16.9
McMenel
37
Centurion

Bida z nyndzą panie
AMD Ryzen 5 2600 550 zł ( ostatnio widziałem nawet za 500 zł )
MSI B450M BAZOOKA V2 350 zł
GOODRAM 8GB 3000MHz IRDM X Black 170 zł
Reszta taka sama i mamy 6 rdzeni i 12 wątków zamiast 4/4. A różnica w grach ogromna. Przecież ten 8100 to wydajność 7600K.. Pchanie się dziś w Intela to totalny kretynizm.

22.05.2019 04:34
17
odpowiedz
zanonimizowany1207427
41
Centurion

to jest dobra opcja tylko dla ludzi którzy składają nowego PC od zera a nie mają wiele pieniążków, w innym wypadku jest to bez sensu. żeby na apu w coś sensownie pograć trzeba wjebać dużo chajsu w ram żeby było jak najszybsze choć i tak nie ma to podejścia do gddr6. Dobre chłodzenie bo takie procki się bardziej grzeją a stockowe coolery wyją niemiłosiernie

22.05.2019 07:09
18
odpowiedz
zanonimizowany1280997
6
Pretorianin

aczkolwiek było blisko! Jeśli macie w sobie coś z masochisty, przy najniższych detalach i rozdzielczości 1366x768 teoretycznie da się grać…

Moim rekordem, którego się nie wstydzę jest przejście GTA IV w okolicy jej premiery w 14 klatkach i przy notorycznych znikających teksturach i innych problemach z grafiką i wszystkim na low. Mimo to grało mi się fajnie ze względu na wciągającą fabułę. Podobnież raz poszedł mi zasilacz na stacjonarce a że nie miałem specjalnie w co grać, to w podobnych warunkach ukończyłem Risena jedynkę na starym laptopie z również integrą. Da sie? Da się! :)

post wyedytowany przez zanonimizowany1280997 2019-05-22 07:10:31
22.05.2019 20:29
19
3
odpowiedz
1 odpowiedź
zanonimizowany1287954
0
Pretorianin

Ja kiedys przeszedlem gre w 27 FPS na jakims tam laptopie na wyjezdzie, ale ze byly w miare rowne nie bylo az tak strasznie, ale nikomu nie polecam takiej rozgrywki.

post wyedytowany przez zanonimizowany1287954 2019-05-22 20:31:04
23.05.2019 08:33
BartekTenMagik
19.1
BartekTenMagik
65
World Owner

Też nie Polecam... grałem w rozdziałce 640x320 w assassina revelations w 17-27fps i przy 3/4 gry nie dało się już wcale grać nie wiem czemu ale było 5fps. Ogólnie nie polecam próbować

22.05.2019 20:34
👎
20
odpowiedz
1 odpowiedź
zanonimizowany1118678
56
Generał

Rzeczywiście tanim..

11.08.2019 09:01
kaitso
20.1
1
kaitso
37
Generał

Przy tańszej płycie głównej i RAM, mógłbyś podobny zestaw złożyć za 1400-1500 zł - tutaj zastosowaliśmy drogie podzespoły żeby wykrzesać maksa z Vega 11.
Inna sprawa - jeśli komp za 2000 zł nie jest dla Ciebie tani to wolę nie pytać, jaki jest

post wyedytowany przez kaitso 2019-08-11 09:01:30
24.05.2019 10:19
deton24
21
odpowiedz
deton24
108
Pretorianin

Kiedyś już pisałem, ale dla ultra budżetowców do grania w niskich FPS wypuszcza fajne configi Ragnos1997.
Bardzo wiele gier obsługuje. Również Wieśka.

post wyedytowany przez deton24 2019-05-24 10:19:17
24.05.2019 22:52
Crod4312
22
odpowiedz
Crod4312
150
Legend

Panie ja tam grałem w Wiedźmina 2 pół roku po premierze w rozdzielczości 640x480 i absolutnym minimum w mniej więcej 15 klatkach patrząc na oko. Mimo wszystko świetnie wspominam ten etap bo gra mi się niesamowicie podobała.

29.05.2019 08:30
Grift88
23
odpowiedz
3 odpowiedzi
Grift88
6
Legionista

Możesz walnąć cienką GTX 1050 2GB lub GTX 1050 ti 4gb - który pozwala na odpalenie w full detalach płynnie najnowszych tytuły

29.05.2019 10:38
23.1
3
zanonimizowany1287954
0
Pretorianin

Beznadziejne karty. W tym przedziale tylko RX 570, ktory je zjada na sniadanie. Reszta to nieoplacalny szmelc.

23.07.2019 10:02
kaitso
23.2
1
kaitso
37
Generał

Jakbym miał dzisiaj kupować któregoś z GTX 1050 albo GTX 1050 Ti to wolałbym już tą integrę AMD :P

post wyedytowany przez kaitso 2019-07-23 10:03:16
09.08.2019 10:59
/|\
23.3
/|\
8
Konsul

Jako użytkownik 1050 Ti mogę powiedzieć jedno:

"odpalenie w full detalach płynnie najnowszych tytuły"
Bez żartów.
1050 jest ok ale zdecydowanie brak jej mocy.

09.08.2019 10:57
/|\
24
1
odpowiedz
/|\
8
Konsul

Ciekawy i dobrze napisany art.

09.08.2019 11:34
25
odpowiedz
4 odpowiedzi
zanonimizowany1027056
59
Generał

Mam GTX 750 Ti 2 GB, 8 GB RAM oraz sześciordzeniowy AMD 3,9. Pogram spokojnie na średnich?

09.08.2019 11:42
25.2
zanonimizowany1027056
59
Generał

Dziękuję.

09.08.2019 12:20
kaitso
25.3
kaitso
37
Generał

Skoro masz, to spróbuj :D i podziel się wrażeniami z gry

09.08.2019 12:38
25.4
zanonimizowany1027056
59
Generał

Rozumiem, że to sarkazm?

09.08.2019 13:04
kaitso
25.5
kaitso
37
Generał

Nie no serio sprawdź, bo generalnie GTX 750 Ti jest niby mocniejszy niż Vega 11, ale też nie jakoś bardzo - jestem ciekaw czy będziesz miał zadowalającą liczbę FPS.

post wyedytowany przez kaitso 2019-08-09 13:17:03
09.08.2019 12:20
VanDust
26
odpowiedz
2 odpowiedzi
VanDust
116
Generał

Czy PC MASTER RACE to jakaś kasta?

09.08.2019 13:15
Dawko062
😊
26.1
1
Dawko062
100
Pora umierać

Yhym.

Może uda mi się nawet Ciebie wkręcić ;)

post wyedytowany przez Dawko062 2019-08-09 13:15:24
09.08.2019 21:09
VanDust
26.2
VanDust
116
Generał

Ja się tak bujam po jej obrzeżach.... :)
Gram w full detalach/60fps ale zaledwie 2K :]

09.08.2019 12:43
KobyBryant
27
odpowiedz
8 odpowiedzi
KobyBryant
23
Chorąży
Image

Ja nie wiem co wy macie z tym wiedźminem 3. Ja przeszedłem całego mając około 30 klatek na intel core 2 duo i geforce gtx650 i na ustawieniach w większości wysokich, niektóre były na średnich a inne jak np. antyaliasing albo rozmycie wyłączone. Gra jak dla mnie działa płynnie i wygląda ładnie, ale jest jeden minus, że co jakiś czas, czasem co 5min czasem co 30min, jest freeze gry na parę sekund i potem działa wszystko jak wcześniej i tego nie mogę zniwelować bo to samo dzieje się na ustawieniach najniższych. (Robię sobie powrót do całej serii i jestem już na wiedźminie 3 na skellige i gram na tych samych ustawieniach graficznych)
I serio 30-40 klatek to niekomfortowe granie? Ja wiele gier przechodzę mając małą liczbę fpsów zwłaszcza w tych od 2014-2015 i jakoś żyję. Jakoś je przechodzę mając grafikę ładną dla oka lub przyzwoitą i pozwalającą normalnie grać. W sumie jak się zastanowić to jak ktoś ciągle gra w gry mając 50+ fpsów i ładną grafikę, to potem nawet spadek na te 40fpsów będzie dla niego odczuwalny i zmiana prędkości gry, więc dla was to już może być niekomfortowe granie.

post wyedytowany przez KobyBryant 2019-08-09 12:52:46
09.08.2019 13:06
kaitso
27.1
kaitso
37
Generał

Sam sobie odpowiedziałeś :) Jak już się człowiek do 60 przyzwyczai to ciężko wrócić do 30 FPS :P
A tak bardziej na serio - przeżyłbym 30 klatek gdyby to było równe i niezmienne 30 klatek, właśnie takie freezy i dropy są najbardziej bolesne i psują mocno przyjemność z grania

09.08.2019 14:07
KobyBryant
27.2
KobyBryant
23
Chorąży

Racja że takie freezy i dropy psują imersję i radość z gry najbardziej ale szczerze coś takiego tylko w wieśku 3 mi się zdarza nigdzie indziej, a poza tym gra się dobrze. Jakby na najniższych ustawieniach znikał ten freez to jeszcze, ale on jest na każdych więc musiałem się do niego przyzwyczaić choć dalej irytuje.

10.08.2019 00:31
WolfDale
😊
27.3
WolfDale
74
Sztuczny Wytwór Forumowy

Do wszystkiego można się przyzwyczaić i prawda taka że zejście z sześćdziesiątki na trzydziestkę przeszkadza tylko przez pierwsze kilka minut. Sam jak grałem na słabszej maszynie próbowałem słabszych detali z większą ilością klatek i maksymalną jakość z blokadą na trzydzieści. Przez pierwsze pięć minut było mocno zauważalne i trochę irytujące, a po chwili całkowicie o tym zapomniałem.

11.08.2019 00:35
27.4
yetiszon
37
Centurion

ja mając rwane 40-50 wolę obniżyć do stałych 30
i zwiększa się komfort gry, a i pecet nie dostaje tak w kość
z drugiej strony 30fpsów na 60Hz monitorze to znacznie lepsza opcja niż 40 czy 50

11.08.2019 11:13
JeRRy_F3D
27.5
JeRRy_F3D
9
Legionista

Serio? Są i tacy, co wcale nie przeszli W3 i... "jakoś żyją".

Co to za argument?

Po prostu nie wiesz, o czym mówisz - i nie wiesz (co gorsza) ile tracisz grając tak, jak grasz.

11.08.2019 13:20
Crod4312
27.6
Crod4312
150
Legend

Yyyy nic nie traci....Po prostu gra w 30 klatkach zamiast w 60 i w sumie tyle. Co to za głupia moda, uważanie, że jak ktoś gra w mniejszej ilości klatek to jest jakiś inny i traci nie wiadomo co. Nie, doświadczył dokładnie tych samych emocji, przeżył tą samą fabułę i wykonywał te same questy co Ty, ja i miliony innych graczy. Grałem na PC w 60 klatkach i na PS4 w 30 i wiesz co? Na konsoli grało mi się przyjemniej.

11.08.2019 22:06
27.7
MewsoNs
61
Generał

Ja przeszedłem pól gry na starym gtx 460, 25-40 fps i śr detale. Po zakupie gtx 1060, ta gra zmieniła się o 180 stopni. Sam wygląd ( przez to immersja< ta gra ma naprawdę ładny świat ) poprawił się mega i komfort gry, wszystko na ultra po 60+, no i to był całkowicie inny komfort gry, tak że screen z artykułu to jakiś masochizm gracza, jężeli tak chciałby przechodzić tą grę z takim fps i grafą.

ps: nie spodziewałem się, że ta gra może tak tragicznie wyglądać....

post wyedytowany przez MewsoNs 2019-08-11 22:07:52
11.08.2019 22:35
WolfDale
😊
27.8
WolfDale
74
Sztuczny Wytwór Forumowy

Napisałem immersja i już mam +10 do bycia fajniejszym, a do tego mam maksymalne detale i 60 klatek.

Ograłem masę gier na najniższych detalach w 30/60 klatkach, a często po wielu latach czy po krótkim czasie znów miałem taką przyjemność w maksymalnych detalach i bardzo płynnej rozgrywce. I szczerze wtedy jak i potem czerpałem taką samą radość i przyjemność, po prostu drugi raz podziwiałem grafikę i nic więcej. Tak byłoby chociażby z Prey (2017), którego wymęczyłem demo na Pentiumie i GF 730/1030. By potem ograć pełną wersję na maksymalnych detalach na laptopie. I szczerze efekt ten sam co powyżej, po prostu podziwiałem grafikę ale cała reszta pozostała bez zmian.

09.08.2019 13:19
adam607a
😊
28
odpowiedz
adam607a
50
Centurion

Ja przeszedłem Wiedźmina 3 we wszystkimi dodatkami na słabym laptopie, ASUS AMD A6-3400m 1.4ghz 8GB RAM 1GB AMD RADEON HD 7670M. W niskich ustawieniach graficznych, ok 15-10 klatkach na sekundę.

10.08.2019 00:02
Janczes
😃
29
odpowiedz
Janczes
188
You'll never walk alone

teraz pykam w Wieśka 3 na sprzecie:
AMD Athlon 3.21 Ghz, (2 rdzenie, zalecane sa 4)
8 gb ram (jeszcze niedawno mialem tylko 2 gb wiec nawet nie pro bowalem instalowac)
Geforce 730,

dziala plynnie ale musze uzywac apki bes 1.7.7 i uruchamiac ja za kazdym razem i w tle i blokowac by gra nie zżerala jakichs tam zasobów.. ale mimo to dziala plynnie na tym sprzecie ;-)

10.08.2019 09:36
😁
30
1
odpowiedz
Dasim
10
Legionista

Na jakiejś aukcji dorwałem Ryzena 5 2400G + budżetową płytę Gigabyte GA-A320M-S2H. Dorzuciłem 2 x 8GB G.Skill Aegis 3000 mhz . Jako grafikę użyłem mojego starego GTX 970. Gram na monitorze full hd więc nie widziałem potrzeby w inwestowanie w nowszą kartę grafiki i z tego zestawu jestem bardzo zadowolony.

11.08.2019 00:33
31
odpowiedz
1 odpowiedź
yetiszon
37
Centurion

Test jest dość słabo przeprowadzony. Występuje tylko jedna konfiguracja sprzętowa, a do tego integra z tego AMD jest porównywalna do GTX 570, który jest już stary, ale wciąż jest to karta z końcówką 70. Takiego samego komfortu grania nie można zobaczyć przy procesorach Intela. Integry tego producenta mogą co najwyżej film odpalić czy coś z pakietu Office, ale na pewno nie gry.

11.08.2019 08:59
kaitso
31.1
kaitso
37
Generał

Skoro postanowiliśmy sprawdzić możliwości integry Vega 11 to ile mieliśmy tych konfiguracji przygotowywać? Ideą artykułu jest pokazanie, że na upartego nie potrzebujesz budżetowego GPU, bo Ryzen 2400/3400 z Vegą 11 dają radę

11.08.2019 11:28
32
odpowiedz
zanonimizowany1037485
13
Konsul

Oszczędzając na ramie i płycie głównej można było dodać rx 570 i wydajność byłaby znacznie większa. Ale integra amd też sobie radzi, szczególnie jak ktoś chce ograć gry sprzed kilku lat albo mniej wymagające tytuły. Taki intel hd od konkurencji to nie jest w stanie nawet utrzymać 60 klatek w morrowindzie.

11.08.2019 13:13
👎
33
odpowiedz
1 odpowiedź
ButellaGG
1
Junior

Wy jesteście głupi w kompie za 2 tysiące dawać takie ramy 8 GB by starczyło za 219zł lub najtańsze 16GB które mają taktowanie 3200Mhz to 389zł, ale nie za 900zł !
Uważam że ten test jest bez sensu

14.10.2019 10:54
kaitso
33.1
kaitso
37
Generał

Ten test ma pokazać ile da się maksymalnie wyciągnąć ze zintegrowanej karty graficznej, stąd zastosowanie droższych podzespołów - jest to wytłumaczone w tekście

11.08.2019 13:14
34
odpowiedz
ButellaGG
1
Junior

A i jeszcze lepiej nie kupować chipsetu B350 bo się psuje (resetuje komputer, bluscrenuje itd. ) lepiej kupić najtańszą płytę z B450

Technologie Odpaliłem Wiedźmina 3 na tanim PC ze zintegrowaną kartą AMD