Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie AMD deklasuje Intela w wielu największych sklepach

02.05.2020 12:08
😊
2
11
odpowiedz
zanonimizowany1246095
30
Generał

Cóż, po wielu wyboistych latach przyszły lepsze, jeśli nie złote, czasy dla AMD.

02.05.2020 11:59
mubio1888
1
mubio1888
106
Generał

Jakoś nigdy nie miałem zaufania do Amd, zawsze procesory odstawały od intelowskich a radeony od geforców, raz tylko zdecydowałem się na kartę od amd, r9 280x przeważnie były problemy ze sterownikami, i karta w większości gier zdecydowanie przegrywała z odpowiednikami nvidii, często zdarzało się tak że na nvidiach gra chodziła dobrze a na mojej karcie była niegrywalna, po 3 latach się spaliła, wymieniłem wtedy na gtx 1060 6gb, jak komputer składałem to zawsze tylko intel+geforce, teraz podobno różnice się zatarły i procesory jak i karty są na tym samym poziomie co u konkurencji a nawet może i ciut lepiej i taniej, ja natomiast ciągle nieufny w stosunku do nich, może przyszły komputer jak będę składał to coś z amd złożę

02.05.2020 12:08
😊
2
11
odpowiedz
zanonimizowany1246095
30
Generał

Cóż, po wielu wyboistych latach przyszły lepsze, jeśli nie złote, czasy dla AMD.

02.05.2020 12:08
3
odpowiedz
zanonimizowany1244756
9
Legionista

Ja jestem pozytywnie nastawiony na setting AMD + Radeon. Ostanie 2 komputery, które składałem to Intel+ Nvidia. Myślę, że warto dać szanse konkurencji tym bardziej, że cenowo i wydajnościowo AMD mocno plusuje. Zobaczymy czy poprawi sie sytuacja u Radeonow.

02.05.2020 12:09
mrgiveman
4
4
odpowiedz
18 odpowiedzi
mrgiveman
103
inżynier niczego

zawsze procesory odstawały od intelowskich a radeony od geforców

Co to znaczy zawsze?

02.05.2020 12:29
Thorus121
4.1
Thorus121
26
Pretorianin

"zawsze" w grach miało być chyba

02.05.2020 13:22
4.2
8
wooda
96
Konsul

mrgiveman mubio1888 po prostu nie ma pojecia o historii ani kart graficznych ani procesorow, skoro pisze, ze zawsze odstawaly na tle intela czy nvidii.

02.05.2020 13:38
elathir
4.3
elathir
97
Czymże jest nuda?

Dla niektórych widać 10 lat to już zawsze ;P

02.05.2020 14:56
4.4
3
zanonimizowany767782
113
Senator

Pamietam, ze jak mialem pierwszy komputer to wtedy królowały Athlony, Durony i Pentiumy nie mialy startu do tych pierwszych, a Celerony do drugich.
Natomiast karty graficzne to najczesciej byly Radeony 9xxx, które robiły miazge z GeForce FX 5xxx, ze o 4MX nie wspomne

Były to lata 2003-2004
Jak dobrze pamietam to Radeon 9800 XT byl swego czasu zdecydowanie najlepsza karta, lepsza od GF 5900 Ultra
Pozniej byl Radeon X800 XT i on był ciut wydajniejszy od GF6800 Ultra, ale nie mial Shaderów 3.0, to byla po prostu architektura R9800 tyle ze jeszcze wydajniejsza
X1900 XTX czy pozniej X1950 z łatowscia pokonywały GF 7900GTX, Nvidia wtedy nawet wydała dwurdzeniowa grafike 7950Gx2 zeby przegonic rywala, ale wiadomo jak to z takimi kartami jest. Nvidia wygrywała jednak w obu seriach bo miala lepsze karty ze sredniej polki, GF6600 byl bardziej oplacalny od X700/X600 i mial shadery 3.0, a GF7600 pokonywal X1600

Prawdziwa wtopa byla pierwsza karta po przejeciu AMD czyli HD2900 XT, pozniej wydali 38xx ktore walczyły w sredniej polce, ale tu juz sie nie bede rozpisywal..
W kazdym badz razie HD7970 to ostatnia karta AMD, ktora rzadziła na rynku bo pokonala najwydajniejsza karte NV w swoim czasie czyli GTX680, a bylo to 8 lat temu, cala seria bardzo udana z reszta

Tak naprawdę tylko AMD FX i HD2xxx to nieudane produkty od AMD/ATI, reszta jest niezla, dobra a niekiedy bardzo dobra, wiele zalezy od ceny rzecz jasna, ale te produkty nieudane nawet z dobra cena nie byly zbyt oplacalne

02.05.2020 15:34
4.5
3
Yosar
27
Pretorianin

Nawet nie 10 lat, 7-8 lat. Kiedy ukazywał się HD 7970 to była najszybsza karta na rynku, nVidia wtedy wypuszczała grzejniki z których się powszechnie śmiano. To samo R 290X w niczym nie ustępował kartom nVidii. Dopiero od generacji Kepler nVidia się rzeczywiście przesuneła do przodu w stosunku do AMD.
Ale był to okres kiedy AMD walczyło o przetrwanie i musiało się skupić na jednym. Postawili na architekturę Zen. Z perpektywy czasu okazało się to dobrą decyzją, dzisiaj mogą skupić się z powrotem na układach graficznych, bo nie muszą walczyć o przetrwanie firmy.

02.05.2020 22:08
RMK_99
4.6
RMK_99
25
Pretorianin

wooda: no to chyba ty masz bardzo słabą pamięć bo AMD zawsze robiło mniej wydajne konstrukcje ale za to tańsze. Jedynie Barton i Venice było wydajniejsze w grach od Intela, ale to były zamierzchłe czasy.

02.05.2020 22:18
RMK_99
4.7
RMK_99
25
Pretorianin

Yosar: naciągasz prawdę od początków raz ATi/AMD miało ciut wydajniejsze karty a za chwilę nVidia wydawała nową generacje i deklasowała Radki. Jedynie od 9generacji (980Ti) AMD nie jest w stanie nawiązać rywalizacji z topowymi kartami zielonych.

02.05.2020 22:35
4.8
zanonimizowany767782
113
Senator

Ogolnie to Athlony byly poza konkurencja w swoim czasie, dopiero jak Intel wydał C2D to zaczelo sie zmieniac, Phenom I byl sredni, Phenom II juz lepszy i AMD jak dobrze pamietam walczylo cena. FX to porazka na calego i dopiero od Zen znowu wrócili do formy z czasów Athlonów

Tak naprawdę nowa architekture się wypuszcza raz na pare lat, dlatego sie tak wydaje ze AMD nic nie znaczylo nigdy..

post wyedytowany przez zanonimizowany767782 2020-05-02 22:41:03
02.05.2020 22:39
RMK_99
4.9
RMK_99
25
Pretorianin

Trzynaście: które Athlony ? mów precyzyjnie bo jak mówisz o Bartonie i Venice to były wydajniejsze ale tylko w grach. A samo AMD niebyło w stanie konkurować z Intelem od Core2Duo aż do pierwszej generacji Ryzen. PS: przestań edytować co chwile post.

post wyedytowany przez RMK_99 2020-05-02 22:41:32
02.05.2020 22:55
4.10
1
wooda
96
Konsul

RMK_99 Sam sobie zaprzeczyles. Najpierw piszesz, ze amd zawsze robilo wolniejsze procki od intela po czym zaraz dodajesz, ze bartony i venice byly szybsze od intelowskich procesorow.

03.05.2020 03:08
RMK_99
4.11
RMK_99
25
Pretorianin

Bo bartony i venice to jedyne wyjątki i były lepsze tylko w grach.

03.05.2020 09:20
4.12
2
wooda
96
Konsul

RMK_99 Nie byly tylko szybsze w grach to raz. Dwa ich odpowiedniki cenowe u intela odstawaly pod wzgledem wydajnosci.
https://www.anandtech.com/show/1745 link do recenzji z anandtecha potwierdzajacy, ze nie masz racji mowiac, ze procesory amd byly szybsze tylko w grach.

post wyedytowany przez wooda 2020-05-03 09:35:40
03.05.2020 16:54
RMK_99
4.13
RMK_99
25
Pretorianin

wooda dobra może żle sprecyzowałem ale porównujesz bardzo dawną historię gdzie Barton i Venice zasłynęły z tego że były wydajniejsze od Pentium 4 głównie w grach za to Pentium 4 wypadał lepiej w kodowaniu wideo a prawda jest taka że AMD było tańsze i ciut wolniejsze od Intela od samych początków i od czasów Bartona i Venice do Ryzena, AMD było mocno w tyle za Intelem ba dopiero Ryzen 3600x/3700x dogoniły i5 9600k. Ale co kto lubi są zwolennicy Intela i będą zwolennicy AMD.

03.05.2020 17:01
RMK_99
4.14
RMK_99
25
Pretorianin

x

post wyedytowany przez RMK_99 2020-05-03 17:02:27
03.05.2020 23:09
4.15
1
wooda
96
Konsul

RMK_99 Patrze na test z linka, ktory podalem, i na zakladce kodowania audio/video wyraznie widac, ze procesory amd sa wydajniejsze od intela na tym polu.-

04.05.2020 02:14
Mqaansla
4.16
Mqaansla
34
Generał

>> Zawsze procesory odstawały od intelowskich a radeony od geforców
> Co to znaczy zawsze?

Mubio1888 to 100% troll ewentualnie janusz. Najpierw pisze o tym jak to intel/nvidia zawsze byly lepsze - a potem przyznaje ze z produktow AMD (nieznanego producenta GPU) mial tylko ta r9 280x ~ ktore niby mialo bledy ktorych nie mialy karty NVidia tylko skad o tym wie jak siedzial na r9'ce? Dodatkowo co to za porownanie r9 280x vs. agregat najlepszych cech z wszystkich produktow konkurencji, cena GT710, wydajnosc GTX2080Ti, a przy porownywaniu stabilnosci wybiesz sobie karte ktora akurat dzialala...

Facet g* wie (zero kompetencji w zakresie sprzetu o czym sam napisal) i nie widzi powodow dla ktorych to stalo by na przeszkodzie w wyglaszaniu tego typu "sądow" ...

04.05.2020 02:35
Mqaansla
4.17
Mqaansla
34
Generał

RMK_99
Po kiego grzyba sie wypowiadasz jak nie znasz sie na rzeczy?

Oczywiscie, ze mozna tak wybrac testy ze intel wypadnie lepiej - nawet w przypadku tego cyrku z agregatem chlodniczym (nie tak dawno temu) patrzac tylko na wyniki wybranych benchmarkow mozna nazwac go sukcesem...

W rzeczywistosci sprawa wyglada tak: wciskajac intelowi kase garsciami mozna bylo generalnie dostac produkt o zazwyczaj lepszej wydajnosci patrzac pod niektorymi wzgledami. Ale zawsze placiles frycowe intel-tax, a dodatkowo intel dy* cie gdzie tylko jeszcze sie dalo: patrz i7 w mainstreamie, w 2017! rok: 2 rdzenie 4 watki w laptopach, 4 rdzenie 8 watkow w desktopach.
Do tego wiekszosc profesjonalnych funkcjonalnosci byla mocno poobcinana w wiekszosci modeli i trzeba bylo za nia placic ekstra (patrz do niedawna: AVX, AES, Virtualizacja - jak sie z Pentium 4 przesiadalem na pierwsze Core, to sie okazalo ze na nowym wydajnym procku nie odpalisz ani programow do grafiki 3d ani do virtualizacji).

Co do ludzi ktorzy musza miec wszystko "naj" 0 w czasach Pentium 4 nie bylo wyzwaniem znalesc cos wydajniejszego niz to cudo wlasnie, obecnie Ryzen jest realistycznie wydajniejszy i faktycznie sa workloady/gry ktore lepiej dzialaja na intelu tylko ze zazwyczaj jest tu jakies "ale" i to nawet pomijajac kwestje wydajnosci/ceny... Z tego co kojarze sytuacja byla podobna (z jakimis zastrzezeniami) w czasach pierwszych athlonow.

post wyedytowany przez Mqaansla 2020-05-04 02:37:45
04.05.2020 02:57
Mqaansla
4.18
Mqaansla
34
Generał

RMK_99
Natomiast najwazniejsze - wydaje mi sie ze nie do konca rozumiesz idei tego postu. Tutaj nie chodzi o to kto jest faktycznie wydajniejszy lepszy, tylko o to ze znajduje to odzwierciedlenie w sprzedarzy!
Co nie jest oczywista zaleznoscia patrzac na "fanatykow marki" czy rozne nieciekawe (moralnie, legalnie?) zachowania niebieskich (zielonych zreszta tez) z przeszlosci bardziej lub mniej odleglej.

Na przestrzeni ostatnich 20+ lat mialem a czasem tez supportowalem wiele produktow zielonych/niebieskich/czerwonych i generalnie niebiescy (zieloni zreszta tez, troche tylko mniej) napsuli mi naprawde sporo krwi, a amd potrafil czesto pozytywnie zaskoczyc. Bulldozery niby niewiele odstawaly od phenomow ale w programach/grach wykorzystujacych wiele rdzeni i AVX czy SSE4.2 (chyba?, ten nowszy w kazdym razie) potrafily rozwinac skrzydla. Natomiast akceleracja wideo z radeonow nie spowalniala do "pełzu" reszty interfejsu. Dodatkowo radeony byly znacznie bardziej wydajne obliczeniowo.

Ale tak wyglada fanatyzm wyznawcow intela czy nvidi ---- ktorzy maja gdzies rzetelna ocene, dobieraja sobie fakty tak jak im wygodnie i usiluja wciskac ludziom rozne idi*zmy, tak jak fanatycy jablka zarzucali ludziom ze zle trzymaja telefony...

02.05.2020 12:22
SerwusX
😁
5
3
odpowiedz
19 odpowiedzi
SerwusX
90
Marszałek

Premium VIP

mubio1888
Przez ostatni rok w kilku miejscach w Internecie widziałem praktycznie identyczny post. Czy to Intel płaci za szkalowanie AMD?

02.05.2020 12:41
5.1
lee32147
62
Konsul

AMD jest porównywalny z Intelem dopiero od kiedy przeszli na 7nm, czyli ostatnie 3-4 lata. Jak ktoś nie pamięta wcześniejszych procków AMD to się nie dziwię, że teraz bez żadnych oporów stają po stronie AMD. Wcześniejsze były często wadliwe i bardzo mocno się grzały. Dodatkowo AMD wprowadza nowe rozwiązania później niż Intel (zresztą te rozwiązania bardzo często biorą od Intela; podobnie AMD wprowadza rozwiązania stworzone przez nVidię, tylko lekko przerobione). Jedyne w czym byli dobrzy (i dalej w tym są dobrzy) to pakowanie coraz większej liczby rdzeni i wątków. Nie znam żadnej rzeczy, którą AMD wymyśliło i nie było jej odpowiednika wcześniej u konkurencji.

02.05.2020 13:03
5.2
zanonimizowany1232347
31
Generał

SerwusX To jest akurat dość ciekawe. Zauważyłem że w kwietniu zrobił sie wysyp ludzi(przynajmniej tutaj) którzy piszą jak to procesory AMD są awaryjne, np. lee32147 pisał że miał kilka procesorów AMD które mu się paliły i nagle magiczny intel działa bezproblemu.

02.05.2020 13:09
kAjtji
5.3
2
kAjtji
104
H Enjoyer

Nie znam żadnej rzeczy, którą AMD wymyśliło i nie było jej odpowiednika wcześniej u konkurencji.
Wspomnę chyba o najważniejszym co zrobiło AMD, czyli x86-64 (nazywana też AMD64) czyli udoskonalona, 64bitowa architektura procesorów, na tym opierają się teraz wszystkie procesory AMD i intela (choć wiadomo, oryginalne x86 nie jest autorstwa AMD).

No i teraz role trochę się odwracają, na tyle, że intel do testowania własnych dysków na PCIe 4.0 musi używać procesorów AMD, bo tylko Ryzeny to wspierają.

Wcześniejsze były często wadliwe i bardzo mocno się grzały.
Nie wszystkie, były czasy, gdzie to AMD wygrywało z intelem, a były też czasy pierwszych FXów. Buldozery były okropne, ale ich poprawione wersje już nie.

Prawda jest taka, że przez długi czas AMD był tylko "tańszą alternatywą dla intela", procesorami, które kupowałeś, bo były tanie i dobre, jak na swoją cenę. Dopiero teraz zaczynają też konkurować pod względem wydajności, a wygrywają pod względem rdzeni/wątków.

post wyedytowany przez kAjtji 2020-05-02 13:13:24
02.05.2020 13:24
5.4
lee32147
62
Konsul

MałyOgr Ciekawe też jest to, że ostatnio coraz częściej mówi się o AMD, jakie to ono nie jest wspaniałe i nie ma żadnych wad. Czyżby AMD wam za to płaciło? Może po prostu ten wysyp fanów Intela jest reakcją na wysyp fanów AMD?
kAjtji W podanych przez Ciebie przypadkach dalej wynika, że AMD wzięło gotowe rzeczy i je ulepszyło.
Intel obecnie dostaje zadyszki, bo stara się przejść na mniejszy proces technologiczny, a ostatnie nieudane próby ich spowolniły. Do tego jeszcze starają się wprowadzać wsparcie dla nowych rzeczy, jak właśnie PCIe 4.0.

02.05.2020 13:28
5.5
8
wooda
96
Konsul

lee32147 Po prostu twoja wiedza na temat procesorow czy kart graficznych jest mizerna, stad brak znajomosci rzeczy, ktore opracowalo amd a pozniej bylo wykorzystywane przez innych producentow.
Umieszczenie kontrolera pamiecia wewnatrz procesora, opracowanie 64-bitowej architektury, tesselacja, mantle ktore stalo sie podstawa vulkana i zmusilo microsoft do opracowania wlasnego niskopoziomowego api, uniwersalne shadery w kartach graficznych i wiele innych rozwiazan.

post wyedytowany przez wooda 2020-05-02 13:29:20
02.05.2020 13:41
5.6
6
wooda
96
Konsul

kAjtji Jak to Amd zaczyna dopiero konkurowac pod wzgledem wydajnosci? Amd juz pod wzgledem wydajnosci zostawilo intela w tyle. Intel moze sie pochwalic jedynie lepsza wydajnoscia swoich procesorow w grach i to nieznaczna. Wydajnosc/cena, wydajnosc/wat to wszystko obecnie jest po stronie Amd.

02.05.2020 13:50
5.7
lee32147
62
Konsul

wooda 64 bit opisałem wyżej, teselacja i uniwersalne shadery zostały stworzone przez ATI, które później zostało wykupione przez AMD, Mantle powstało przy współpracy z EA DICE (ale fakt, AMD to opublikowało). Oczywiście nie zajmuję się dokładnie każdym podzespołem komputera i wszystkimi technologiami, które są w nich zastosowane, więc wszystkiego nie wiem (nikt nie wie wszystkiego dokładnie).
AMD zostawiło w tyle Intela pod względem stosunku wydajności do ceny i mocy, a nie pod względem samej wydajności. To, który procesor jest wydajniejszy zależy od zastosowania procesora. W jednych programach wygra jeden, w innych wygra drugi, w grach podobnie. Tak samo w operacjach jednowątkowych/wielowątkowych. Nie da się stwierdzić, że dany procesor od danej firmy jest najlepszy do wszystkiego, bo tak nie jest. Jak na razie AMD jest do przodu przez to, że ich procki są w 7nm, a Intel ciągle ma problemy z przejściem z 14nm na mniejszy proces technologiczny.

02.05.2020 13:57
5.8
6
wooda
96
Konsul

lee32147 Amd zostawilo intela w tyle pod wzgledem samej wydajnosci rowniez, nie ma wydajniejszego procesora od 64 rdzeniowego Rome i threadrippera. Oczywiscie to prawda, ze w jednym programie lepiej spisuje sie jeden procesor a drugi w innym. Ale w wiekszosci programow ryzeny wypadaja lepiej od intela w stosunku do ceny. Ati jest czescia amd, a wiec ich wlasnosc intelektualna rowniez do nich nalezy. Intelowi przypisuje sie wiele rozwiazan, ktore opracowlay inne firmy a ktore intel wykupil.

post wyedytowany przez wooda 2020-05-02 14:01:17
02.05.2020 17:10
kiera2003
5.9
6
kiera2003
102
Senator

Ciekawych rzeczy się dowiadujemy. Architektura x86-64 to zasługa producenta kart graficznych :)

W dodatku dowiadujemy się, że cała seria procesorów Athlon 64 i wcześniejsze to były ślimacze niewypały które się przegrzewały i psuły.

Szkoda tylko, że to wszystko nieprawda, a powolne i przegrzewające się buble to miała konkurencja w postaci Pentium 4.
Ale cóż, nie mam rzeczowych argumentów, to trochę skłamię i ponaginam rzeczywistość, co nie Panie lee32147?

post wyedytowany przez kiera2003 2020-05-02 17:11:47
02.05.2020 22:43
RMK_99
5.10
RMK_99
25
Pretorianin

"Przez ostatni rok w kilku miejscach w Internecie widziałem praktycznie identyczny post. Czy to Intel płaci za szkalowanie AMD?"

Raczej AMD lub Fan-boye AMD płacą za utrzymywanie dobrego wizerunku produktów AMD.

02.05.2020 23:18
5.11
2
zanonimizowany1232347
31
Generał

RMK_99 A co jest nie tak z AMD że muszą płacić za utrzymanie dobrego wizerunku?

03.05.2020 11:48
5.12
2
Procne
67
Generał

Zabawny temat. Ludzie wyliczają która firma w czym była pierwsza i rozwodzą nad historią.

Podczas gdy jedyne co się liczy to to, że obecna generacja procków AMD jest wydajniejsza i tańsza od intela. I nie wymaga nowej płyty głównej. I należy się z tego cieszyć.

Przez ostatnie kilka lat CPU praktycznie stały w miejscu, a teraz coś się zaczęło ruszać, ceny spadać itp.

Także proponuję zdjąć szaliki i przestać toczyć wojnę w obronie honoru swojego klubu, bo naprawdę żaden z nich na to nie zasługuje :D

03.05.2020 16:40
RMK_99
5.13
RMK_99
25
Pretorianin

Procne czy AMD jest tańsze od Intela Tak, ale czy jest wydajniejsze to Nie. Porównaj 9900K z 3700x i 9700K z 3600x.

03.05.2020 16:45
5.14
1
zanonimizowany1232347
31
Generał

RMK_99 Równie dobrze można porównać i3 9100 z R9 3950x.

03.05.2020 17:02
RMK_99
5.15
RMK_99
25
Pretorianin

MałyOgr i pokazujesz typowy tok myślenia zwolenników AMD co z tego że Intel jest wydajniejszy o 10 czy 15fps w grze X przecież to nic, ale jak znajdzie się tytuł gdzie AMD jest szybszy o błąd pomiarowy czyli 1 czy 2 fps to już fani AMD psioczą na Intela i chwalą się jakie to AMD jest super. Zestawia się procesory z tej samej pułki klasowej a tu 3700x przegrywa z 9900K a 3600x przegrywa z 9700K. No i zapominasz o dużo gorszym kontrolerze pamięci obecnym u AMD słabszym i OC u AMD.

post wyedytowany przez RMK_99 2020-05-03 17:03:36
03.05.2020 17:53
5.16
2
Procne
67
Generał

RMK_99
Hmm mówisz o porównywaniu w grach, po czym porównujesz 9700k z 3600x, podczas gdy 3600 jest równie wydajny w grach co 3600x

Mówisz o porównywaniu w tej samej półce cenowej (przynajmniej tak rozumiem półkę klasową) podczas gdy 9700k to 1800 zł, a 3600x to 950 zł (a 3600 to 800 zł).

Tak, topowe CPU intela są nadal ciut wydajniejsze w grach od wszystkiego co AMD ma do zaoferowania, ale w innych zastosowaniach AMD ma dużą przewagę. Więc ogólnie tak, nadal twierdzę, że CPU od AMD są zarówno wydajniejsze ORAZ tańsze

03.05.2020 22:22
eyehategod
5.17
1
eyehategod
57
Pretorianin

RMK_99 .. dopiero Ryzen 3600x/3700x dogoniły i5 9600k - hahahah ty sobie chyba jaja robisz porównująć tego całego 9600k do Ryzena 3700X. Ryzen 5 3600 juz potrafi pogonić to intelowskie badziewie 9600k. Przestań zakrzywiać rzeczywistość intelowski fanboju

04.05.2020 03:09
Mqaansla
5.18
Mqaansla
34
Generał

lee32147
Jak juz ci napisano (amd64 - obecna architektura procesorow / systemow, gdzie czyste x86 czy intelowskie 64 bitowe itanium (sie to chyba nazywalo) dawno wyladowaly w piachu).

O jakich wadach piszesz? Co do grzania sie - rdzenie na kotach (bobcat, jaguar, puma) praktycznie sie nie grzaly i pod wieloma wzgledami bily Atomy z ktorymi konkurowaly... Odnosnie "sciagania" od NVidii, tez kolejna wierutna bzdura i glupota bo patenty by ich zjadly. Pozatym ktos jescze nie slyszal o Vulkanie czy masowym wykupywaniem radeonow do obliczen?

Tak wlasnie wyglada "dyskusja" z fanatykami niebiesko-zielonych, ABSOLUTNY BRAK PODSTAWOWEJ! WIEDZY TECHNICZNEJ CZY HISTORYCZNEJ skutkujacy "wyciaganiem z d*" totalnych bzdur i id*zmow...

post wyedytowany przez Mqaansla 2020-05-04 03:11:59
04.05.2020 19:33
5.19
lee32147
62
Konsul

Mqaansla
Nigdzie nie "wyciągam danych z d*", bo wszystko możesz sobie znaleźć w Internecie i przeczytać, chociażby na Wikipedii. O Vulkanie też napisałem, nie zaprzeczyłem, że wydało go AMD (chyba że chodzi Ci o coś innego, to o niczym więcej nie wspomniałem). O Radeonach napisałem, że od kiedy się pojawiły, są porównywalne z Intelem. A stosunek cena/wydajność w Radeonach jest bardzo dobry na korzyść AMD.
Nie mówię o całkowitym zgapianiu od nVidii, ale o braniu od nich nowych, dużych pomysłów. Widać to chociażby teraz po ray tracingu.
Nie wiem dlaczego od razu zaliczasz mnie do fanatyków Intela. Jak mam urazę z przeszłości do AMD, to czy to od razu oznacza, że jestem fanatykiem Intela? Dlaczego niemal wszyscy na GOLu (Ty również, nawet to zaznaczyłeś) traktują innych w kategorii 0-1: albo za jednym, albo za drugim? Dlaczego dla nich nie ma niczego pomiędzy, chociaż tak naprawdę wszystko jest pomiędzy, a nic nie jest 0-1? Nikt nie zaprzeczy, że Intel w ostatnim czasie ma problemy (chociażby z przejściem na 10 lub 7 nm) i praktycznie nic nowego nie zrobił. Do tego obecnie stosunek cena/wydajność u Intela jest gorszy niż u AMD. Ja również temu nie zaprzeczałem. I nigdzie nie pisałem, że Intel jest najlepszy i bezkonkurencyjny.
Na GOLu zdecydowana większość ludzi jest niemal wyłącznie po stronie AMD i niemal całkowicie przeciwko Intelowi. Dla nich każde wspomnienie, że Intel jest dobry, kończy się minusowaniem i długimi wywodami jakie to AMD jest bez wad i że Intel ma same wady. A każda firma i każdy produkt ma wady. I widzę jedynie jedną czy dwie osoby na GOLu, które o tym wspominają, i prawie nikt się z nimi nie zgadza (patrząc na liczbę łapek), chociaż jest po stronie AMD.
Nie da się dyskutować z osobami, które widzą tylko i wyłącznie zalety jednego produktu i wady drugiego produktu. A taka jest "dyskusja" z niemal każdym fanem AMD na GOLu.

02.05.2020 12:47
6
odpowiedz
5 odpowiedzi
zanonimizowany1305675
6
Konsul

Cóż z tego, skoro Intel w tydzień zarabia więcej niż AMD w pół roku.
Niestety gamingowe PC to mniej niż 1% rynku PC, najwięcej kasy jest w biznesie.
A w serwerach dominuje Intel tak samo jak w komputerach dla firm.
Jeszcze nigdy nie widziałem slużbowego laptopa czy Thinkpada stacjonarnego z czymkolwiek od AMD.
Zawsze Intel, u Della to samo.

02.05.2020 13:08
Szaku
6.1
1
Szaku
167
El Grande Padre

U nas kupują dla firmy z AMD Ryzen 3gen od HP i są zadowoleni. Także rynek ulega zmianom.

02.05.2020 13:35
02.05.2020 13:45
elathir
6.3
1
elathir
97
Czymże jest nuda?

W serwerach intel dominuje bo tam jest wolniejsza inercja wymiany sprzętu. Jednak obecnie intel nie ma żadnej oferty serwerowej trzymającej się kupy. Tam jest wielokrotnie większa przewaga AMD niż w segmencie PC, bo tam wielordzeniowość jest podstawą.

Zyski intela mają 3 źródła:
1) intel to nie tylko procesory ale wielość rozwiązań biznesowych, kwestii związanych z płytami głównymi itd.
2) rynek jest nienasycony i zarówno AMD i intel sprzedają wszystko jak leci
3) intel ma masę średnio legalnych a na pewno nieetycznych omów na wyłączność z producentami sprzętu od Appla po producentów laptopów.

02.05.2020 15:32
Sasori666
6.4
Sasori666
186
Korneliusz

Z lapkami jest tak, że producenci podpisują jakiś rok przed wypuszczeniem konkretnego modelu.
W 2021 spodziewaj się masy modeli z Ryzenem 4000. Seria 3000 była ok, ale specjalnie nie czarowało, więc zamawianie 4000 to było trochę ryzyko.
Asus zaryzykował i ma 14 calowy model z CPU o wydajności topowego Intela, który zjada 2 razy prądu od AMD.

Z serwerami kontrakty podpisuje się na dłużej, więc tu nie można sobie kupić serwera od AMD na drugi miesiąc.

03.05.2020 13:00
6.5
hvast87
5
Legionista

Zauważ, że około 150 mln konsol które się sprzedały do tej pory jest na układach od AMD tak jak następna generacja zresztą będzie.

02.05.2020 13:10
7
3
odpowiedz
1 odpowiedź
Twoja stara 1993
45
Generał

AMD ma świetne dodatkowe oprogramowanie w kartach ładny interfejs mimo że przesiadłem się z rx470 na Gtx1070 to trochę mi brakuje tego oprogramowania dodatkowego.

02.05.2020 15:45
7.1
Yosar
27
Pretorianin

Owszem. Sam byłem w lekkim szoku jak zainstalowałem sterowniki od AMD (bo przesiadałem się w drugą stronę z nVidii na AMD), że może być w tym oprogramowaniu coś przydatne dla mnie. A nie masa śmiecia.
No i okazuje się, że jest. Zamiast podkręcania karty z epoki króla Ćwieczka via MSI Afterburner, to mam profile dla każdej gry, i tam gdzie potrzebuje to automatycznie mi podkręca kartę, a tam gdzie nie potrzebuję nie ruszam, albo wręcz undervolutuje. Raz ustawione dla każdej gry/programu i po ptokach.
W MSI musiałbym ręcznie ustawiać przed każdym odpaleniem gry.

02.05.2020 13:14
Thorus121
8
odpowiedz
2 odpowiedzi
Thorus121
26
Pretorianin

Dziwi mnie to że zamiast R5 1600AF burgery przepłacają i kupują R5 2600 (przecież to to samo a drożej).

04.05.2020 00:46
8.1
Gholume
75
Generał

To nie są te same procesory.

04.05.2020 01:04
8.2
zanonimizowany1232347
31
Generał

To są te same procesory tylko 1600af ma niższe taktowanie.

02.05.2020 13:17
kęsik
😒
9
odpowiedz
2 odpowiedzi
kęsik
148
Legend

r9 280x przeważnie były problemy ze sterownikami, i karta w większości gier zdecydowanie przegrywała z odpowiednikami nvidii, często zdarzało się tak że na nvidiach gra chodziła dobrze a na mojej karcie była niegrywalna

Przecież to niemożliwe. R9 280x spokojnie ciągnie najnowsze gry więc to niemożliwe aby kilka lat temu na nim jakieś gry były niegrywalne nawet jak odpowiednik NV wygrywał...

post wyedytowany przez kęsik 2020-05-02 13:20:21
02.05.2020 20:28
9.1
JKbooo
4
Junior

On nie ma pojęcia o czym pisze. W latach popularności tej karty sam składałem kompa. R9 280x konkurował z GTX 770. Był od niej ciut wydajniejszy i miał 1GB VRAMu więcej. Zdecydowałem się na radka i od 6 lat bezproblemowo mi służy, a po latach dodatkowy gigabajt vramu okazał się kluczowy.

02.05.2020 22:22
RMK_99
9.2
RMK_99
25
Pretorianin

Tak miałem dwie karty R280x i na obydwu miałem te same problemy bo był tak niestabilny fps tzn. terring że wolałem jechać na zmodowanym GTX 670, ale chwalę sobie karty HD6950, HD4870 oraz 9800Pro.

02.05.2020 13:17
10
odpowiedz
10 odpowiedzi
zanonimizowany1044195
49
Generał

Jakoś nigdy nie miałem przekonania do AMD. Musiał bym sprawdzić na własnej skórze jak się gra na takich prockach.

post wyedytowany przez zanonimizowany1044195 2020-05-02 13:19:38
02.05.2020 13:24
rebornnarsil
10.1
1
rebornnarsil
96
Krytyk

Powiem Ci jak - gry działają, można je zainstalować, włączyć i przejść :) A wydajnościowo to patrz już po benchmarkach. O dziwo wg mnie wady AMD nie leżą w procesorach a np. w niepraktycznym montażu AM4, albo w wiatraczkach na nowych płytach X570. Procki są bardzo gites.

02.05.2020 15:37
10.2
zanonimizowany1044195
49
Generał

No właśnie bardziej o wydajność mi chodzi. Po za tym jednak sam bym wolał to przetestować.

02.05.2020 16:01
10.3
1
Yosar
27
Pretorianin

W tym samym przedziale cenowym dostaniesz wydajność podobną do intela. Jasne jak porównasz R5 3600X z i9-9900K to intel będzie przeważnie szybszy (ale bez szału, poza tym są gry w których AMD już bije intela), tylko ta kilkukrotna różnica w cenie.

Wpływ procesora na wydajność zależy od kilku czynników. Po pierwsze od karty graficznej, po drugie od rozdzielczości w jakiej grasz. Im wyższa rozdzielczość tym wpływ procesora coraz mniejszy, a częstio wręcz pomijalny. Tutaj bottle neckiem jest po prostu karta graficzna. Procesor nie musi się napracować. To on czeka na to aż karta da radę. A w mniejszych rozdzielczościach wszystko zależy od karty graficznej, jeśli grasz na RTX 2080TI w rozdzielczości 1080p, to różnica będzie (znowu bez szału, a poza tym kto gra na RTX 2080Ti w rozdzielczości 1080p), jak masz dużo słabszą kartę graficzną to różnica się zdecydowanie zaciera, bo znowu to twoja karta jest bottle neckiem, nie procesor.

Dlatego patrzenie na benchmarki np 1080p dla karty RTX 2080Ti o ile szybszy jest procek intela/AMD to prosta droga do przepłacenia za procek. Kupując słabszą kartę graficzną automatycznie te benchamrki dla ciebie nie znaczą nic. Nie mówią nic, czy rzeczywiście będziesz miał więcej fps i o ile kupując dany procek.
Ale robi je się po to żeby pokazać co by było jakby nie było bottle necków w torze sprzętu. Kto byłby szybszy.

02.05.2020 16:19
10.4
zanonimizowany1044195
49
Generał

No właśnie każdy piszę że podobną. Obecnie posiadam i5-4690k i odpowiednik od AMD będzie słabszy. Przynajmniej tak to rozumiem.

02.05.2020 17:06
Herr Pietrus
10.5
4
Herr Pietrus
224
Ficyt

W stosunku do tego zabytku, co go masz, źle rozumiesz.

post wyedytowany przez Herr Pietrus 2020-05-02 17:07:16
02.05.2020 22:30
RMK_99
10.6
RMK_99
25
Pretorianin

Procki AMD mają ten sam problem że w większości gier 3600x i 3700x konkurują jedynie z 9600K ale trafiają się gry gdzie wydajność Ryzenów jest sporo niższa nawet od 9600K. dlatego jak ktoś bierze RTX 2080/2080Ti to szczytem idi****mu jest branie Ryzena. Tym bardzie że kontroler pamięci nadal mocno kuleje u AMD.

02.05.2020 22:36
RMK_99
10.7
RMK_99
25
Pretorianin

Yosar a kto normalny gra w zabytkowym 1080p ? sam przesiadłem się na 21:9 1440p i 9700K jest sporo wydajniejszy w tandemie z RTX2080Ti i DDR4 3733MHz CL14 od Ryzena 3600x/3700x. Oczywiście jak ktoś celuje w RTX2060/2070 to dużej różnicy nie będzie po między 9600k a 3600x co nie zmienia faktu że nawet przy RTX2060, 9600k okaże się ciut wydajniejszy.

02.05.2020 22:47
10.8
zanonimizowany1232347
31
Generał

trafiają się gry gdzie wydajność Ryzenów jest sporo niższa nawet od 9600K
Jedyną grą w której intel mocno odstaje to Far Cry New Dawn. W większości nowych grach nawet po oc jest równo lub różnica to max 5fps dla i5, ale są też gry w których Ryzen wygrywa.

02.05.2020 23:36
10.9
zanonimizowany1232347
31
Generał

Ale prawda jest taka że testy nie są do końca miarodajne. Bo są one przeprowadzane na czystych systemach, a wiele osób ma zazwyczaj w tle włączone kilka launcherów + youtube/twitch co obciąża procesor.

post wyedytowany przez zanonimizowany1232347 2020-05-02 23:36:34
03.05.2020 18:17
elathir
10.10
elathir
97
Czymże jest nuda?
Wideo

Jak nie robisz OC a na kompie chodzi coś więcej niż gra, to w tej samej cenie Ryzen będzie wyraźnie wydajniejszy.

Jak nastawiasz się na pro granie i wyłączasz wszystko poza grą oraz bawisz się w OC to porównując zestawy w tej samej cenie wydajność będzie zbliżona (no OC, oc wymaga lepszego chłodzenia i droższej płyty).

Jak na patrzysz na koszta i jesteś gotów wydać dużo więcej dla trochę więcej FPSów to intel będzie ciut wydajniejszy.

https://www.youtube.com/watch?v=xPY3_lQMqRw

Tylko, że Ryzen 3600 to 850zł, a za 10% więcej fps musisz zapłacić za procka samego (płyty tez są droższe) 2 450 zł.

Nie ma takiego zestawu za te same pieniądze, który w wykorzystaniu praktycznym (jak już ktoś wspomniał, jakiś chrome w tle, kilka launcherów itd.) oferowałby sytuację, w której Ryzen by przegrywał.

post wyedytowany przez elathir 2020-05-03 18:19:47
02.05.2020 13:28
11
1
odpowiedz
zanonimizowany1299868
16
Senator

mubio1888
Ciesz się, że Intel i NVIDIA mają konkurencję i nie będą mieli 100% monopol na rynku.

Jeśli Intel i NVIDIA nie sprzedają produkty wystarczające dużo przez długi czas z powodu AMD, to będą zmuszeni do wcześniejsze ulepszenie produkty, albo ... obniżyć ceny, a my na tym skorzystamy. Więc lepiej będzie dla nas, jak AMD nie spoczywa na laurach i będzie dalej się rozwijać, by móc ich przewyższyć.

post wyedytowany przez zanonimizowany1299868 2020-05-02 13:37:20
02.05.2020 13:52
Toxicator
12
2
odpowiedz
Toxicator
115
Pretorianin

Jako sceptyk amd, który 2 razy przejechał się na kartach graficznych, na opiniach znajomych uznałem że spróbuję ich linii procesorów bo intel siedzi na laurach od 6 lat i nic się nie zmienia. i7-4790 ciągle odpalał nowe gry z obciążeniem streamu choć było widać bottleneck że w więcej niż 120fps już będzie ciężko pograć. Złożyłem sobie piecyk teraz na ryzen 3900x i jestem w szoku jak dobrze śmiga, oc do 4.2ghz, niemal ciągle wykorzystuje wszystkie rdzenie, grzeje się do około 60 stopni, tylko na vr widzę bottleneck w niektórych grach na unity a tak to mega, warty swojej ceny.

02.05.2020 14:18
blood
😂
13
3
odpowiedz
7 odpowiedzi
blood
241
Legend

zawsze procesory odstawały od intelowskich a radeony od geforców

Nie znasz się, to się nie wypowiadaj. Przez WIELE lat CPU i GPU AMD były dużo lepsze od konkurencji. Ostatnie FX to po prostu niewypały. Gdyby AMD odstawało od konkurencji, to intel nie musiałby się uciekać do przekupowania HP, Della i innych vendorów, żeby nie sprzedawali zestawów z AMD, a NVIDIA nie musiałaby oszukiwać w benchmarkach.

02.05.2020 15:05
Fear87
13.1
Fear87
87
Generał

Dokładnie, wystarczy wspomnieć o serii XP i 64X2.

02.05.2020 15:07
13.2
lee32147
62
Konsul

Gdyby AMD produkowało lepsze, to nie musieliby okłamywać klientów o liczbie rdzeni w swoich prockach. I AMD również zostało oskarżane o oszukiwanie w benchmarkach.
Jak się zagłębisz w historię Intela i AMD to wtedy zauważysz dlaczego Intel walczył z AMD. Kolejny akapit jest na podstawie angielskiej wersji Wikipedii o AMD.
Zaczęło się od tego, że IBM chciał kupować procesory Intela, ale postawił warunek, że Intel znajdzie drugiego producenta dla swoich procesorów. Padło na AMD i Intel udostępnił im całą dokumentację i licencję na tworzenie swoich procesorów 8086, 80286 i 80386. AMD zaczęło produkować procesory x86 dla Intela, ale jednocześnie zaczęło tworzyć pełno klonów ich procesorów (na podstawie dokumentacji Intela) i wydawali je jako swoje.
Nic dziwnego, że Intel chciał jakoś zatrzymać AMD, które legalnie wypuszczało klony procesorów Intela jako swoje własne. Chyba każda firma w takiej sytuacji postąpiłaby podobnie. Gdyby nie chęć współpracy Intela z IBM, to AMD pewnie dalej produkowałoby mikroprocesory, a nie procesory i karty graficzne.

post wyedytowany przez lee32147 2020-05-02 15:16:54
02.05.2020 15:56
😂
13.3
zanonimizowany1246095
30
Generał

lee32147 - AMD nie kłamał w sprawie rdzeni - 8-rdzeniowe procesory były podzielone na moduły po 2 rdzenie, które współdzieliły jednostkę zmiennoprzecinkową. I nie, nie działały jak czterordzeniowce. W międzyczasie Intel zaś dokładał do rdzeni jak leci.

Intel i AMD miały podpisaną umowę, którą Intel sam zerwał przed czasem, bo się okazało, że AMDowskie kopie są dużo lepsze pod każdym możliwym względem niż Intelowe oryginały. Oczywiście nie możemy zapomnieć o tym, że Intel przerżnął wszystkie możliwe procesy sądowe z AMD o procesory, nazewnitwo itp. itd.

I nie zgodzę się, że AMD bez licencji Intela produkowałby dalej mikroprocesory - prędzej czy później uzyskaliby możliwości lub po prostu skopiowaliby patent Intela jak zrobił to Chips and Technologies, których 386 była nawet szybsza o ~40% i jako jedyna miała pamięć cache.

post wyedytowany przez zanonimizowany1246095 2020-05-02 16:01:38
02.05.2020 16:15
13.4
lee32147
62
Konsul

Darth_Tusken AMD kłamało. Te "rdzenie" były podzielone na 4 pary, ale na jednej parze nie dało się jednocześnie przeprowadzać dwóch różnych obliczeń. Na dwóch normalnych rdzeniach tak się da. W sumie działały jak 4 rdzenie, tylko na każdym z nich można było jeszcze dzielić obliczenia. Dlatego to nie było 8 rdzeni i AMD kłamało.
Intel nie zerwał umowy, bo procki AMD były lepsze. Zerwał umowę, bo AMD ją obeszło i zaczęło robić legalnie klony na bazie oryginalnej dokumentacji Intela. Intel przegrał rozprawy, bo AMD robiło to zgodnie z umową podpisaną pomiędzy Intelem a AMD, więc nie było mowy o łamaniu prawa, a jedynie o wykorzystaniu dziur w umowie przez AMD.

02.05.2020 19:45
13.5
zanonimizowany1246095
30
Generał

lee32147 - no jak sam zauważyłeś, 8 rdzeni było połączone w 4 moduły (twoje pary) po dwa rdzenie. Ale każdy moduł miał po dwa elementy:

1. Integer Scheduler - dla każdego rdzenia osobny, zajmuje się operacjami stałoprzecinkowymi, które są wykonywane w, no nie wiem, takim Cinebenchu na przykład - wtedy działa wszystkie 8 rdzeni.

2. FP Scheduler - tutaj już ma się inna sprawa, bo ten element jest właśnie wspólny dla obu rdzeni/jednego modułu i on wykonuje operacje zmiennoprzecinkowe, które występują najczęściej w grach. I w tej sytuacji faktycznie procesor "wyglądał" na czterordzeniowca. Tak na marginesie, procesory generalnie bardzo rzadko wykorzystują wszystkie rdzenie w grach, więc AMD właściwie miało dobry zamysł, ale już wykonanie leżało, choć nowsze modele już lepiej sobie poradziły.

I nawet nie wiem jakbyś zakłamywał rzezywistość, AMD nigdzie nie kłamało w sprawie rdzeni, a o "kłamstwie" gadali ci, co nie mają pojęcia na czym polega architektura procesorów FX/Bulldozer.

No to już był problem Intela, który udostępnił AMD licencje na własne procesory z tytułu współpracy z IBM. Przynajmniej dzięki temu powstały lepsze jednostki 386 i 486, własna architektura AMD oraz mamy konkurencję na rynku procesorów. A i jeszcze - czemu nie czepiasz się VIA, Cyrix czy Chips and Technologies za klepanie swoich klonów intelowskich procesorów, na które licencje też im sprzedał Intel? I jak sam zauważyłeś - wszystko było na legalu, więc o co to całe sranie żarem?

post wyedytowany przez zanonimizowany1246095 2020-05-02 19:56:47
02.05.2020 22:52
RMK_99
13.6
RMK_99
25
Pretorianin

Fear87: nie mów ogólnie XP i 64X2 bo były różnie rdzenie i tylko Barton i Venice byłe lepsze od Intela i to głównie w grach.

03.05.2020 10:13
13.7
lee32147
62
Konsul

Darth_Tusken Co z tego, że elementy były osobne w każdym z 8 "rdzeni", skoro nie można było korzystać z nich jednocześnie? AMD reklamowało je jako pełne 8 rdzeni, które zawsze miały działać jak 8 rdzeni. A tak działały w niewielu przypadkach. To, że architektura wyglądała tak a nie inaczej, nie oznacza, że AMD mogło kłamać. To, że jeden element mógł działać w każdym "rdzeniu" z osobna nie oznacza, że całość tak działała. I choćbyś się zaklinał, że AMD nie kłamało, to fakty są inne, a te procesory nie miały pełnych 8 rdzeni, jak zapewniało AMD.

post wyedytowany przez lee32147 2020-05-03 10:16:55
02.05.2020 15:09
Soulcatcher
14
odpowiedz
2 odpowiedzi
Soulcatcher
268
Dragons Dogma 2

Premium VIP

Proponuję technologicznie zapoznać się z prawdziwym znaczeniem słowa „deklasuje”.

02.05.2020 16:59
14.1
3
pan1cz
35
Centurion

Tutaj odnosi się to do sprzedaży. A nie osiągów czy rozwiązań technologicznych. Bez sensu więc propozycja.

03.05.2020 21:42
Soulcatcher
14.2
1
Soulcatcher
268
Dragons Dogma 2

Premium VIP

pan1cz jeżeli nawet to celem sprzedaży jest zysk, a tu nic o zyskach nie ma. To że ktoś sprzedaje więcej tanich produktów, ni znaczy że więcej na tym zarabia. Celem firm jest zarabianie pieniędzy a nie sprzedawanie taniej.

Słowo deklasować oznacza „osiągać rezultat znacznie lepszy niż przeciwnicy”.

Prawda jest taka ze Intel deklasuje AMD od lat prawie pod każdym względem, a teraz zmieniło się tyle ze AMD udało się nawiązać w miarę równorzędną walkę o rynek.

Nie odnoszę się do merytoryki tylko do beznadziejnego tytułu newsa.

02.05.2020 15:49
Raiden
15
odpowiedz
Raiden
140
Generał

AMD wymusiło na Intelu zmiany w gen. 10 - bardzo dobrze, że Intel dostosowuje się do AMD liczbami rdzeni oraz wątków + ceną. Konkurencja będzie nam wszystkim na rękę, a stracą tylko ci, którzy zakupili Intele 9 generacji (w sumie już stracili).

02.05.2020 15:56
16
1
odpowiedz
zanonimizowany1310513
3
Pretorianin

Kiedy jeszcze czytałem KŚ to w testach było coś takiego jak "jakość" i "cena/jakość". Od niepamiętnych czasów AMD było o wiele tańsze i niewiele gorsze.

post wyedytowany przez zanonimizowany1310513 2020-05-02 15:56:41
02.05.2020 17:07
17
1
odpowiedz
2 odpowiedzi
mamut_mamutek
36
Chorąży

Co tam się wydarzyło w 2006 roku, że AMD zaczęło tracić z roku na rok ? :o

02.05.2020 17:34
marcing805
17.1
1
marcing805
186
PC MASTER RACE

Intel odrobił zadanie domowe po Celeronach i Pentiumach i powstało Core2Duo. Bardzo wydajne i energooszczędne dwa rdzenie. AMD w tym czasie ciagle operowało na starzejących się Athlonach. Choć to był raczej 2007 rok, dokładnie nie pamietam. Intel rozwijał swoją technologie a AMD pogubiło się w swoich buldożerach. To były czasy, kiedy o prockach AMD pisało się, że potrzebują elektrowni atomowej w zestawie. Teraz znowu sytuacja powoli się odwraca.

post wyedytowany przez marcing805 2020-05-02 17:34:38
04.05.2020 04:34
Mqaansla
17.2
Mqaansla
34
Generał

marcing805
"To były czasy, kiedy o prockach AMD pisało się, że potrzebują elektrowni atomowej w zestawie."

Nigdy sie tak nie mowilo. A architektora core tez miala swoje 130W (intel zawsze byl optymista) kwiatki.

Pomijajac krecone procesory nie jakos przecudownie ale tez nie tragicznie - natomiast wielu narzekajac (niespecyficznie) na temperatury wygodnie pomija kwestie tego ze procesory mialy OC odblokowane w standardzie...
Bulldozery i Piledrivery mialy duze pobory mocy by byly mocno wyzylowane. Jesli chciales kultury pracy wystarczylo spuscic zegary/napiecia do Opteronowego poziomu. I praktycznie zawsze wieksze zuzycie pradu (max, bo optymalizacja w idle byla chyba lepsza niz u intela) bylo rownowazone "znacznie" nizszymi cenami.

02.05.2020 17:11
18
odpowiedz
firebird18
62
Pretorianin

Intel goni swój ogon...każda generacja na innej podstawce i do każdego procka inna płyta główna.Mają farta ,że podpisali długoletnie umowy....z MSI i innymi gigantami bo szybko by zdechli,a tak będą zdychać powoli....

02.05.2020 17:23
marcing805
19
1
odpowiedz
2 odpowiedzi
marcing805
186
PC MASTER RACE

No i pozytywnie, że AMD daje radę. Przypominają się czasy Athlona 3200( chyba tak się nazywało). Tak przełom 2005/06. Wtedy Intel( ze swoimi Pentium D) gonił AMD. Odbili się dopiero przy Core2Duo. Szkoda, że nie mają takiej ofensywy na Nvidię.

02.05.2020 17:27
19.1
1
zanonimizowany1314550
7
Pretorianin

Szkoda, że nie mają takiej ofensywy na Nvidię.
Jak najbardziej mają, ich nowe karty są świetne. Problem w tym że nvidia też ma świetne karty i nieustannie się rozwija oraz wprowadza innowacje, jak choćby DLSS 2.0 czy ray tracing.

02.05.2020 20:06
19.2
laki2217
126
Generał

Kiedy intel spał to jednak nvidia uznała, że nie warto osiadać na laurach.

02.05.2020 17:31
20
1
odpowiedz
mbwrobel
34
Centurion

mubio1888 - albo bardzo młody jesteś, albo masz krótką pamięć, albo jesteś na garnuszku Intela. Swego czasu Athlony z serii XP wycierały ówczesnymi Intelami podłogę. Nie dość, że Intele w porównywalnych cenach wydajnościowo nawet nie podchodziły do Athlonów, to jeszcze procesory AMD bajecznie się kręciły. Dopiero seria Dual Core od Intela odwróciła sytuację.

02.05.2020 20:33
😂
21
odpowiedz
piotrkefas
11
Legionista

Jak to się stało, że AMD przy teoretycznie mniejszych zyskach i udziałach rynkowych wyrównało jakość intela przy cenach niższych o 50%? Chyba myślenie wygrywa z pazernością. Jednakże również warto zaznaczyć, że GeForce czy i9 intela wciąż dają te 3fps do 5fps więcej w pórównaniu do AMD. Jak widać różnice to czemu nie rzucić te 2000 czy 3000pln wiecęj za odpowiednik tego samego modelu (?) Sarkazm

02.05.2020 23:03
Wujek Władek
22
odpowiedz
4 odpowiedzi
Wujek Władek
39
Niczburukjebiwdenko

Intel w przedziale cenowym od 500 do 1000 pln w Polsce nie istnieje, a ludzie potrafią liczyć.. Ryzen 5 1600AF 6/12 to obecnie masakrator jeśli chodzi o cenę/jakość/wydajność, za ok 500pln mamy proc który ogarnia najmocniejsze karty graficzne i wydajnościowo jest na poziomie i5 9400 przy czym jest ponad 300 pln tańszy i nie trzeba zmieniać płyty głównej

Wyniki sprzedażowe (ostatnie 3 miesiące) najpopularniejsze kupowane procesory przedział od 500 do ok1000pln
Sklep Morele Net
i5 9400F --- 1300 osób
i5 9600K--- 759 osób
Ryzen 5 1600Af --- 2400 osób
Ryzen 5 3600--- 2950 osób

Sklep Komputronic
i5 9400F --- 1424 osoby
i5 9600K--- 812 osób
Ryzen 5 1600AF --- 3031osób
Ryzen 5 3600 --- 2849 osób

post wyedytowany przez Wujek Władek 2020-05-02 23:07:38
03.05.2020 13:31
Kajzerken
22.1
Kajzerken
64
Konsul

Warto też wspomnieć, że ryzen 1600af startował z ceną 420zł, ale wirus zawyżył, także wspaniałość amd i tego procesora nie ma granic.

03.05.2020 18:36
22.2
Child of Pain
179
Legend

To sa jakies smieszne ilosci procesorow ktore kupuja osoby same skladajace komputery, pewnie prywatne nie jakies dzialalnosci czy firmy do sprzedazy. Zerknij co stoi w serwerach, laptopach i stacjonarkach ktore masowo kupują firmy, no moze z serwerami powoli cos sie dzieję jednak Intel mocna trzyma partnerow za jaja.

04.05.2020 00:58
22.3
Gholume
75
Generał

"Zerknij co stoi w serwerach, laptopach"

Hold up, wait a minute. To jest bardziej skomplikowana sprawa. W serwerach akurat coś się dzieje, AMD zyskało wielu naprawdę dużych partnerów. To już nie jest sytuacja typu, że AMD coś tam klepie, ale prawie nikt nie korzysta. Intel został na tym rynku faktycznie zraniony (choć zarabia nadal ogromne kwoty, jednak Intel ma wiele źródeł finansowania).
W laptopach właśnie AMD wprowadza procesory, które wycierają Intelem podłogę przy zachowaniu energooszczędności. No i pojawia się też kwestia ceny, laptopy z Ryzenem są tańsze. Więc prędzej czy później też tam zyskają znacząco.

05.05.2020 19:34
22.4
Child of Pain
179
Legend

Wiec zobacz co jest dostepne w sklepach. Z serwerami podobnie, teraz moze ktos kupuje a jaki procent rynku ma intel?

03.05.2020 07:27
NightBosman
😈
23
1
odpowiedz
NightBosman
80
Konsul

To nawet nie tyle cieszy że Amd zyskuje co to że Intel traci. Za ten cyrk jaki teraz odstawiają należy im się i to bardzo.

03.05.2020 10:06
Xsaroth
24
odpowiedz
6 odpowiedzi
Xsaroth
84
Pretorianin

Jak ktoś powiedział: AMD ma karty dobre i tanie, Nvidia ma karty bardzo potężne ale i zarazem bardzo drogie.

03.05.2020 10:21
24.1
Astral Persecutor
11
Centurion

No nie wiem jak z kartami graficznymi AMD obecnie, niemniej NV trochę ściemnia - rtx2080ti pracuje w temperaturze 80C i jest tak głośny jakbym był w maszynowni okrętu (zotac przynajmniej). Przy wymagającej grze w porównaniu z gtx1080ti jest może max 15% wydajniejsza więc cena nie jest już adekwatna do możliwości. Dawno mnie już tak NV nie zawiodła jak z ostatnimi kartami.

03.05.2020 13:38
Kajzerken
24.2
Kajzerken
64
Konsul

zotaców nie kupuje się (najlepiej wcale) w wersji innej niż najwyższa bodaj amp! extreme.

post wyedytowany przez Kajzerken 2020-05-03 13:38:46
03.05.2020 16:26
Xsaroth
24.3
Xsaroth
84
Pretorianin

Astral Persecutor 49% wydajniejsza od 1080Ti. Na podstawie danych zebranych average users w benchmark (138k użytkowników 2080 Ti i 489k użytkowników 1080 Ti).

04.05.2020 06:50
24.4
Astral Persecutor
11
Centurion

Xsaroth

GTX 1080ti był przeznaczony do max 1440p gdzie miał zapewniać płynne (60FPS) granie (pojedynczy egzemplarz, nie SLI). RTX 2080ti jest przeznaczony do 2160p gdzie ma zapewniać także płynne (60FPS) granie (pojedynczy egzemplarz). Są to więc graniczne najwyższe możliwe rozdzielczości gdzie karty te zapewniają stabilne 60FPS (lub przynajmniej powinny).

Jeśli chcesz porównywać karty tylko w rozdzielczości 4K, to z pewnością RTX 2080ti jest dużo więcej jak 15% szybszy (realnie od 20% do 55% w zależności od gry) - tyle, że porównanie wyłącznie jednej rozdzielczości nie ma sensu, gdyż GTX 1080ti nie był przeznaczony dla 2160p jako karta mająca w niej zapewnić stabilne 60FPS.

Co więcej, jeśli porównasz szybkość działania w rozdzielczość 1080p jednej i drugiej karty (GTX 1080ti i RTX 2080ti) to okazuje się, że RTX 2080ti jest zaledwie niewiele więcej jak 5% wydajnieszy od GTX 1080ti.

Pisząc 15% oceniałem najwyższe osiągi obydwu kart w maksymalnych rozdzielczościach zapewniających stabilne 60FPS (pojedyncze egzemplarze) dla jednej i drugiej karty. Innymi słowy, na GTX 1080ti grając w 1440p uzyskujesz wyniki najwyżej 15% niższe jak współcześnie na RTX 2080ti w 2160p. Przecież nikt o zdrowych zmysłach nie kupował pojedynczej GTX 1080ti do grania w 2160p chcąc cieszyś się stabilną ilością FPS więc porównanie tylko jednej rozdzielczości nie jest wymierne dla oceny gdyż dopiero RTX 2080ti dał taką możliwość (piszę cały czas o pojedynczych kartach oczywiście, tytany pomijam w swej wypowiedzi).

Grając na RTX 2080ti w 2160p wcale nie mam dużo płynniejszej grafiki jak na GTX 1080ti w 1440p, a po ustawieniu wszystkich parametrów wyświetlanego obrazu (w grze i sterownikach) na max obie karty podlegają tym samym spowolnieniom. Różnica praktyczna jest tylko taka, że GTX 1080ti pracował cicho a RTX 2080ti jest najgłośniejszą kartą z jaką miałem do czynienia abstrahując od faktu, że nawet ilość pamięci jest taka sama w obydwu kartach.

https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html
https://www.trustedreviews.com/news/nvidia-rtx-2080-ti-vs-gtx-1080-ti-3536639

04.05.2020 08:37
Xsaroth
24.5
Xsaroth
84
Pretorianin

Astral Persecutor Kto w obecnych czasach (a w sumie kto normalny) kupuje 2080 Ti aby siedzieć na jednym monitorze i to w full HD... ? To jakby ktoś kupił i wmontował silnik Buggati do fiata....
Już nawet przy dwóch monitorach 1080Ti traci bardzo dużo na wydajności niż 2080Ti - nie sugeruj się tą tabelą porównawczą rozdziałek full HD. To jest bez sensu, tak jak kupowanie w tym celu karty do minotora HD.

Patrz na ogólne osiągi. Czy to renderowanie wizualizacji w softach 3D, czy granie na wyższych rozdziałkach niż full HD i praca na przynajmniej 2 monitorach itd (dla mnie to istotne bo w konkretnie wymienionych rzeczach korzystam). W ogólnej punktacji 2080 Ti jest zdecydowanie lepsze i wydajniejsze (pomijam Raytracing).
Odnośnie głośności - nawet w twoim przytoczonym linku (w sumie na innych źródłach też) masz podane, że nowsze karty są cichsze średnio o ok. 10 dB (ciśnienie akustyczne) - ty po prostu kupiłeś kartę która ma pewnie wadę fabryczną związaną z wentylatorami - zdarza się - ludzie wtedy odsyłają w ramach gwarancji i dostają nową.

08.05.2020 04:00
24.6
Astral Persecutor
11
Centurion

Xsaroth
Sorry za opóźnioną odpowiedź, ale od wtorku piłem wódkę i dopiero wróciłem do +/- normalnego stanu świadomości -)

Owszem, rtx 2080ti nie jest przeznaczony dla rozdzielczości 1080p o czy też sam wcześniej napisałem. Niemniej przyrost prędkości (w stosunku do gtx 1080ti) jest żenujący (w tej rozdzielczości oczywiście).

Jeśli chodzi o grę na PC podłączonym pod więcej jak jeden monitor 4K - jak dla mnie - mija się to z celem. Zasadniczo najmniej musiałbyś mieć 3 monitory (gdy masz dwa to patrzysz centralnie w przerwę pomiędzy wyświetlaczami). Zdecydowanie lepszym rozwiązaniem jest wtedy gra na konsoli w 4k, na wyświetlaczu UHD 50"+ czy nawet 60"+ (sam gram na 55", niemniej średnio mi odpowiada gra na padzie, wiem mogę podłączyć klawiaturę, tylko jest to jeszcze gorsze granie na konsoli niż korzystając z pada).

Wada produkcyjna powodująca wysoką temperaturę pracy (a co za tym idzie włączanie wentylatorów na max. obroty) jest pierwszą rzeczą, która przyszła mi do głowy. w 10 dni po zakupie rtx'a reklamowałem go. Myślałem, że trafi do zotac'a w celu naprawy, ale nie, dostałem nową kartę - która działa idealnie jak ta pierwsza. Myślę, że problemem jest wersja extreme, która ma wyśrubowane taktowanie. Kiedyś kupiłem (była to 780 lub 980) wersję amp2 extreme i problem wyglądał bardzo podobnie. Co więcej w przeciągu ostatniego roku znalazłem wiele podobnych opinii w temacie tej karty (wysoka temperatura pracy i głośna praca wentylatorów) więc "dałem za wygraną".

Tak, tylko uwaga odnośnie 10% cichszej pracy dotyczy kart produkcji NV a nie ZOTAC więc nie ma zastosowania do producenta, którego produkty kupuję.

03.05.2020 11:50
25
odpowiedz
Wiarołomca
85
Senator

Super oby tak dalej, Intel niech skiśnie że swoimi dziurawcami które powinny być 2x tańsze. I jeszcze ich poroniona polityka płyt głównych...

03.05.2020 12:08
Selman
26
odpowiedz
Selman
169
Legend

Sam ostatanie dwa komputery wybralem wlasnie z amd, intel sie najzwyczajniej nie opłaca.

03.05.2020 13:33
Barklo
27
odpowiedz
5 odpowiedzi
Barklo
114
Generał

AMD jest dla biednych ludzi którzy liczą każdą złotówkę . Intel natomiast dla ludzi którzy cenią sobie jakoś , prestiż i osiągi i nie patrzą na cenę .

03.05.2020 13:52
elathir
27.1
2
elathir
97
Czymże jest nuda?

Jasneeeee

03.05.2020 14:52
kęsik
📄
27.2
1
kęsik
148
Legend

Ludzie którzy cenią sobie jakość i prestiż to właśnie biorą AMD. Intel (ale także Nvidia) są dla tych którzy lubią przepłacać.

post wyedytowany przez kęsik 2020-05-03 14:53:34
03.05.2020 16:32
27.3
zanonimizowany767782
113
Senator

Obecnie AMD + NVIDIA = najlepsze polaczenie, ostatnio tak bylo w czasach AMD Athlon i GeForce 6600/6800 (wtedy Radeony podobne wydajnosciowo nie mialy SM3.0, teraz nie maja dx12 ultimate, raytracing)

03.05.2020 20:40
27.4
firebird18
62
Pretorianin

Prestiż????Intel????Jest 2020 a ich zintegrowana grafika dalej nie potrafi się "dogadać" z systemem MSu
Inna sprawa,że ich budżetowe procesory Celeron od lat są bezawaryjne i nie do zajechania.Tak jak ja katowałem kilka swoich laptopów z Celeronem to podejrzewam że będą chodzić i na księżycu i na marsie i w środku wulkanu

04.05.2020 03:36
Mqaansla
27.6
2
Mqaansla
34
Generał

"AMD jest dla biednych ludzi którzy liczą każdą złotówkę . Intel natomiast dla ludzi którzy cenią sobie jakoś , prestiż i osiągi i nie patrzą na cenę."

Co swietnie widac po cyrku w postaci Management Engine, regularnie aktualizowanych listach nowych dziur, sprzedawaniu latami go* w sreberku jakim byly 4 rdzenie w desktopach, czy obcinaniu podstawowych funkcjonalnosci zeby skroic profesjonalistow ekstra gdzie tak sie rozpedzili, ze kupa ktora sprzedawali nie potrafila juz nawet odpalic windowsa...

Jako osoba z doswiadczeniem w IT powiem tak: jesli chcialem miec pewnosc ze wszystko bedzie dzialac na moim kompie jak powinno, to tylko AMD, bo u intela zeby miec tego typu *pewnosc* trzeba bylo kupic rozwiazanie dla firm i zaplacic za nie "biznesowe" pieniadze.

Natomiast co do wyzywania ludzi od biedakow - fornicatio sui pediculus pubis

post wyedytowany przez Mqaansla 2020-05-04 03:38:43
03.05.2020 13:34
Kajzerken
28
odpowiedz
10 odpowiedzi
Kajzerken
64
Konsul

Zara będzie sklepowa 10 gen intela. Tyle samo c/t, a o wiele wydajniejsze rdzenie, szczególnie do gier także ostatnie tchnienie amd i król wraca mordeczki na udoskonalonym do perfekcji 14nm.

03.05.2020 13:57
elathir
28.1
elathir
97
Czymże jest nuda?

Jak na razie się nie zapowiada. Intel nie wyrobił się z implementacja PCIE 4 w tej generacji i kilkoma innymi drobiazgami, w rezultacie to tylko zapychacz, taka ciut podrasowana poprzednia generacja. Wszystko zależy od realnych cen detalicznych procków ale tez i nowych płyt głównych. Na chwile obecną wygląda to słabo (zwłaszcza jeżeli plotki o TDP są prawdziwe).

Może następna generacja coś postawi niebieskich na nogi.

03.05.2020 14:48
Kajzerken
28.2
Kajzerken
64
Konsul

No potrzebne mi jest pcie 4.0 mocno jak rtxy ledwo wykorzystują potencjał 3gen. Plotki o tdp i poborze mocy wiadomo były od początku, że wyssane z palca. i9 10gen nieco cieplej od poprzednia nie biorąc nie wiadomo ile więcej, gdzie doszły rdzenie i zegary. Zobaczymy jakie będą koszta platform. Jak dostanę do 1,5k i5k z płytą to przesiadam się z od razu z ryśka 3600.

03.05.2020 16:16
kAjtji
28.3
kAjtji
104
H Enjoyer

Za niedługo też będzie Zen3, które też ma być sporym skokiem. Więc może nas czekać teraz "odbijanie piłeczki" lepszy jest intel, dopóki nie będzie nowego AMD, które jest lepsze, dopóki nie będzie lepszego intela.

03.05.2020 16:29
Maniek9012
28.4
Maniek9012
62
Pivot to Profit

Cztery rdzenie są wystarczające do grania.

03.05.2020 17:09
elathir
28.5
1
elathir
97
Czymże jest nuda?

Skąd wiesz, że te przecieki o TDP to bajki? Jakieś źródło? Dotychczasowe recenzje potwierdzają te doniesienia.

A PCIE 4 to pod dyski bardziej w tej chwili będzie robić różnice.

Do tego jak na razie zapowiada się na kosmiczne ceny nadających się do czegokolwiek płyt głównych. Ale wiadomo, jak na razie producenci promują raczej te z kategorii PRO i nie ogłosili jeszcze płyt budżetowych.

Według cpu-monkey i5 10600k na wydajność zbliżona do Ryzena 5 3600X zarówno na multikorze jak i single w Cinebenchu, tylko, że 3600X kosztuje ~950zł + mamy tanie dość płyty główne a ta i5 ma sugerowaną cenę w USA na poziomie 1100zł (262$), więc u nas z podatkiem i wszystkim pewnie cena osiągnie 1400 zł. W połączeniu z droższymi mobo i koniecznością dokupienia chłodzenia da to prawie dwa razy więcej za niemal identycznego procka. I tak wiem, w niektórych grach będzie 5% fpsów więcej. Tyle, że w tej cenie wpakuje sobie 3700x (droższy proc, ale oszczędność na chłodzeniu i płycie głównej).

post wyedytowany przez elathir 2020-05-03 17:46:13
04.05.2020 07:51
Kajzerken
28.6
Kajzerken
64
Konsul

Zobaczysz, to już wiem z własnych źródeł w intelu. Będzie troche cieplej i nieco więcej prądu do wzięcia, absolutnie adekwatnie przy dołożeniu rdzeni. Po regulacji napięć nikt nie będzie o tych plotkach pamiętał.

Pod dyski czyli wcale. To co oferuje sata 3 obecnie wystarcza większości mainstreamowych userów i graczy. Z obecnych, pełnych możliwości nvme nadal korzysta mało kto.

Nie sądzę aby płyty wystartowały w obecnie przedstawianych cenach. Przede wszystkim trzeba poczekać na testy co która płyta potrafi, a dopiero potem zestawić ceny, które imo będą odpowiednio regulowane, bo jeżeli najtańsza płyta pod oc będzie chodzić po naszych 700zł to nikt się za tym nie obejrzy i producenci płyt dobrze o tym wiedzą. im też te mobasy zalegają już trochę, a pitos musi byc w obrocie. Jedyne co wiemy w tym temacie to to, że dla tych dzbanów użycie radiatorów żeberkowych dalej jest technologią ponad możliwości ludzkości i spotkamy je tylko w topowych konstrukcjach. Czyli czeka nas selekcja płyt, która lepiej wytrzyma temperatury na odlewach z gównolitu.

Nie rób takich obliczeń na 10600k, tylko na 10600kf, wtedy dopiero będzie sprawiedliwie bo oba procki nie będą posiadać igpu. Wtedy cena golas to 948dolopów a reszta to wielka niewiadoma jak będzie wyglądać kwestia podatkowa w czasach pandemii i jaka będzie marża janusza, świadomego wzrostów cen i mocnej konkurencji ze strony amd. Biorąc także pod uwagę marne oc na ryzenach 3gen może warto by było do obliczeń wprowadzić niepodkręcalną jednostke intela, czyli 10600. Ta też pójdzie bezproblemowo na najtańszej płycie. Wszystko ostatecznie rozbije się o wydajność - cena platformy, a to co my teraz robimy to gdybanie, które jest stratą czasu, bo wchodzi tu za dużo zmiennych których nie jesteśmy w stanie przewidzieć.

post wyedytowany przez Kajzerken 2020-05-04 07:59:15
04.05.2020 09:03
elathir
28.7
2
elathir
97
Czymże jest nuda?

Zobaczysz, to już wiem z własnych źródeł w intelu. Tiaaa, jasne.

Wiesz, w latach 2010 do 2012 nawet tam pracowałem. Chociaż oddział w Gdańsku zajmował (i z tego co wiem od kumpli) dalej zajmuje się raczej rozwiązaniami bezprzewodowymi, sterownikami od GPU i rozwiązaniami serwerowymi. Kiedyś siedzieliśmy jeszcze na płytach głównych, sam pracowałem choćby przy USB 3.0, ale tego już nie ma w PL. Tak więc musiałbyś znać kogoś z Izraela, bo to oni w kwestiach TDP i ogólnie power managmentu siedzą. Więc kogo znasz i od kogo masz te przecieki?

Z obecnych, pełnych możliwości nvme nadal korzysta mało kto.

Ja korzystam do pracy. Ale co ważniejsze PS4 będzie korzystać z dysku SSD własnie po PCIE 4. A co z tym idzie jak się PS4 sprzeda to takie rozwiązanie zacznie być szeroko wykorzystywane. Bo nie oszukujmy się, to konsole popularyzują wiele rozwiązań, gdyż to one stanowią sufit dla większości producentów, do którego ci się dostosowują.

bo jeżeli najtańsza płyta pod oc będzie chodzić po naszych 700zł to nikt się za tym nie obejrzy

Skąd ta pewność? W ostatniej generacji tak na premierę było, ceny spadły dopiero po pewnym czasie.

Nie rób takich obliczeń na 10600k, tylko na 10600kf

Wiem, że 10600kf będzie miał wydajność 10600k. Tyko, że nigdzie nie ma jego testów bo do tych udostępniono 10600k a nie chce opierać się na przypuszczeniach. A cena sugerowana na UE, wiadomo, że u nas będzie wyższa, to obecnie 283,62 euro czyli 1 286,07 zł. To sa ceny dla Holandii. U nas VAT ciut wyższy + podatek Januszowy więc 1350zł (może gdzies dadzą 1300 przy odrobinie farta) to będzie cena wersji KF najpewniej. Wersja K pewnie pod 1500 podejdzie.

https://www.purepc.pl/intel-comet-lake-s-znamy-ceny-wszystkich-nowych-procesorow

W rezultacie procek + mobo + chłodzenie pod OC wyjdą jakieś 2200. Ryzen 3600 z płytą dający może z 10% FPSów mniej wyjdzie około 1200 na płycie bez fajerwerków, 1400 na wypasie. Za tego prawie tysiaka różnicy kupię sobie o tyle lepsza kartę graficzną, że spokojnie da mi dwukrotność różnicy w FPSach ze względu na procesor. Ergo intela opłacać się będzie dopiero jak będziemy prać 2080ti do kompa. Przy każdej karcie poniżej Ryzen bardziej się opłaca.

post wyedytowany przez elathir 2020-05-04 09:07:58
04.05.2020 10:24
Kajzerken
28.8
Kajzerken
64
Konsul

Wiem, że wtedy pracowałeś, ja zresztą też.
Tak jak mówię, zobaczymy jak rozbiją się ceny. Gdybać nie ma sensu, bo za dużo rzeczy niemożliwych do przewidzenia. Nie co roku mamy pandemie. Jak napisałem wyżej, dostane i5k do 1,5k-1,6kpln z płyta - przesiąde się. Jeśli nie no to niestety zostane na ry śku. Wszystko jest możliwe. Osobiście podejrzewam, ze to z nonk 10600 zrobią konkurencje dla r5 3600.

04.05.2020 10:56
elathir
28.9
elathir
97
Czymże jest nuda?

9600KF na premierę u nas kosztował około 1100 zł (teraz idzie po około 900zł) przy sugerowanej $237 i korzystnym kursie dolara (około 3,80). Cena wynosila tyle co koszt sugerowany * kurs dolara + 20% podciągnięte w gorę do jakiejś okrągłej liczby.

https://www.anandtech.com/show/14941/intel-announces-price-cut-for-9th-generation-f-and-kf-processors

10600KF ma sugerowaną $266 i mamy znacznie gorszy kurs dolara (4,16). Tak więc zaporowa cena nie jest zagadką. Zresztą mamy już przecieki cen z Czech, Holandii i kilku innych krajów w UE. Tanio nie będzie bo stosujac typowy przelicznik, który się sprawdza wychodzi nam 1327 zł, więc pewnie zaokrąglą do 1349 zł albo 1333 zł. I to jest warian optymistyczny.

post wyedytowany przez elathir 2020-05-04 11:01:41
04.05.2020 12:03
Kajzerken
28.10
Kajzerken
64
Konsul

No i płyta pod oc 600 także 2k za taką platformę to ciut za dużo. Ja jestem człowiekiem nadzieii i wierzę, ze intel nie zawiedzie i do 1,5k takowego proca przytulę z płytą.

03.05.2020 18:27
szczupasia
29
odpowiedz
2 odpowiedzi
szczupasia
70
sympatycznie

Wszystkim bredzącym jak to AMD jest wolne, nieopłacalne, niszczone przez Intela, itd. polecam zerknąć do aktualnie polecanych zestawów komputerowych umieszczanych na stronkach technologicznych, np. PurePC, PCLab czy u TechLiptona - wszyscy opłaceni przez AMD, biedny Intel ofiarą :(

A w ogóle jakie siano trzeba mieć w głowie, żeby bronić jakiegokolwiek producenta, który sprzedaje drożej praktycznie to samo, byle wyciągnąć więcej hajsu od naiwniaków xD

03.05.2020 22:58
😂
29.1
zanonimizowany767782
113
Senator

To jak coś jest powszechnie polecane to znaczy, że ktoś sypnął hajsem? Lol

04.05.2020 03:23
Mqaansla
29.2
Mqaansla
34
Generał

To jak coś jest powszechnie polecane to znaczy, że ktoś sypnął hajsem? Lol

Takis madry? Patrz - tu jest napisane ze g* wiesz:

www.theverge.com/2014/6/12/5803442/intel-nearly-1-and-a-half-billion-fine-upheld-anticompetitive-practices

"Intel has lost a challenge against a record 1.06 billion euro ($1.43 billion) fine that it was handed in 2009 for anticompetitive behaviors in Europe. Intel paid the fine after it was levied by the..."

03.05.2020 22:08
30
odpowiedz
3 odpowiedzi
zanonimizowany146624
131
Legend

Dobrze, że w prockach, bo w grafach już cienko. AMD było zajebiste, póki....nie było AMD, tylko ATi. Czytaj - ostatnią dobrą kartą był radeon 5850-70. Seria 6 należała już do AMD (a 5 była ostatnią serią ATI) i to widać.

03.05.2020 22:33
😁
30.1
zanonimizowany767782
113
Senator

Tak dlatego Radeony HD 7xxx pokonały GTX 6xx

Pierwsze nieudane Radeony to HD2xxx, ATI już wtedy należało do AMD, ale te karty były opracowywane jeszcze przed przejęciem
6xxx to było to samo co 5xxx, tylko że wydajniejsze
Tak samo jak gtx4xx i 5xx

Także twoja teoria jest z tyłka, ATI nie udała się jedną architektura (r600 czyli HD2xxx) więc potem były cięcia i walczyli głównie w srednio-wysokim segmencie
Dopiero GCNem czyli hd7xxx pocisneli NVIDIA, niestety potem nastał czas kotletów i się przejechali na tym

post wyedytowany przez zanonimizowany767782 2020-05-03 22:46:24
04.05.2020 06:54
30.2
Astral Persecutor
11
Centurion

Dokładnie - ostatnia karta z ATI (niemniej już z nazwą AMD) to chyba jakiś początek 2010 czy koniec 2009 roku - później zaczęły się problemy i znowu trzeba było wrócić do NV.

04.05.2020 08:49
30.3
zanonimizowany767782
113
Senator

Problemy to były z Radeonami 2xxx

Miałem 7950, 7850 i rx570 nie było żadnych problemów
Wiele osób z resztą chwali GCN i polarisy

04.05.2020 03:18
Mqaansla
31
odpowiedz
Mqaansla
34
Generał

Do: 90 procent ludzi kadzacych intelowi:

Jesli czujesz MUSISZ napisac jaki to Intel czy NVidia jest superzaje* i wspaniala ---- ale pierwsze slowa ktore przychodza ci na mysl to: "Nie jestem moze osoba techniczna", "Nie znam", "Nie wiem", "Nigdy nie kozystalem" ---- to moze, tylko moze, nie masz nic wartosciowego do zaoferowania w tego typu dyskusji...?

Nie mowie ze AMD jest wspaniale, bo nie jest - to jest tylko firma (z produktem ktory ma swoje plusy i minusy), podmiot gospodarczy a nie pie* obiekt kultu... jak Intel, NVidia czy Apple...

post wyedytowany przez Mqaansla 2020-05-04 03:19:45
08.05.2020 11:33
maciell
32
odpowiedz
maciell
115
Senator

Wiekszosc tu ludzi to jednak nie ogarnia tego swiata. Intelowi nie zalezy, aby AMD upadlo. Intel pomagal nawet AMD przed upadkiem kilkanascie lat do tylu. Slawetne przejecie przez AMD czesci patentow Intela przez zakup jakies firmy wspolpracujacej z Intelem. Nie robil tego z dobrego serduszka. Po prostu po upadku AMD grozil by im przymusowy podzial z powodu monopolu (Sherman Act z 1890). Dlatego Microsoft wspiera/l Unixa/Linuxa pomimo, ze to byly/sa konkurencje dla jego Windows NT i innych rozwiazan. Moim zdaniem Intel pozwolil AMD sie odkuc bo gdyby nie odpuscili te kilka lat temu to AMD by juz nie bylo. AMD przy Intel to David vs Golliat. Co jest dla nas dobre jako klientow, ze jest konkurencja. Nigdy nie bylem fanbojem jakies firmy. Mialem w swoich komputerach Matroxy, 3dfx,ATI,AMD procesory (K2, Durony to byly swietne procesory i duzo tansze od Intel), Intel procki, Nvidia karty. Mialem i5 kilka lat, teraz ma Ryzena. Zawsze kupowalem to co sie mi najbardziej oplacalo wydajnosciowo i cenowo. Wszelkie te wojenki mnie smiesza.

Technologie AMD deklasuje Intela w wielu największych sklepach