@siera97 znaleźli dziury w których musisz posiadać uprawnienia administratora i fizyczny dostęp do sprzętu tak więc niezłe dziury xD. Ta sama firma, chwaliła się 10 letnim doświadczeniem, za została założona w 2017 roku. W ich materiale na YT jako tła dla greenscreena używali popularnych nakładek z shutterstocka xD A AMD i tak nie olało sprawy, i wydało jakieś tam dodatkowe zabezpieczenia do BIOSu ale prawda jest taka ze miało to znaczenie bardziej marketingowe, bo juz więcej zrobisz z uprawnieniami admina, niż przy użyciu tych dziur xD
Nie chce nic mówić ale na reddicie już się rozprawiono z tymi doniesieniami, tak więc fake info Panowie :V
To nie zasługa tego że chipset jest w 14nm bo Intel np. Z370 robi w 22nm a jest to zasługa PCIe 4.0 które niesie ze sobą pewne kompromisy w postaci poboru energii. A podejrzewam że w większości będzie można normalnie sterować wentylatorem PWM.
kiera2003 architektura modułowa to były Buldozery, tylko że to były moduły programowe. Zen jest już architekturą wykorzystującą kilka chipów jako jeden procesor, ale modułami bym tego nie nazwał :V Samo AMD nazywa to jako CPU Complex, czyli CCX w skrócie :V
RT Nvidii jest tak samo oszukanym RayTracingiem jak to co przedstawił w demie Crytek :V to i to jest techniką Hybrydową o czym nawet mówił sam Jensen.
wystarczy że ten dysk SSD nie będzie kompatybilny z tymi w PC bo będą mogli pozwolić sobie na autorski projekt który nie musi byc ograniczany przez obecne standardy :V
Najważniejsze jest IPC a nie zegar. Spójrz na FX'y czy Pentiumy 4 które w swoich czasach były bardzo wysoko taktowane, i na co im się to zdało, skoro długość potoku wykonawczego wydłużana była w nieskończoność?
Gholume ta karta ma śmiesznie niskie tdp, tak więc na upartego jeden wentylator w budzie, i sam radiator na karcie spokojnie by wystarczył do schłodzenia karty :V To już jest segment w którym patrząc na modele można nie dopłacać do bardziej "kozackich" kart bo i tak wypadną bliźniaczo podobnie, tak jak miało to miejsce np. w przypadku GTX 1050Ti gdzie taki KalmX spokojnie radził sobie ze schłodzeniem karty :V
Chyba otworzyli nie tą szafkę z projektami co trzeba było :V No ale cóż, nawet najlepszemu może się przytrafić, a że intelowi do bycia najlepszym w zabezpieczeniach procesorów, dosyc daleko, to w sumie można było się spodziewać xD
Mega drogo, ale coś konkretnie? Bo jak patrzyłem w tym konfiguratorze, na komputroniku, to ceny czasami nawet lepiej niż na morelach wychodziły jesli o podzespoły chodzi, a w x-kom'ie teraz chyba drogo jest,(z wyłączeniem laptoków?) ale jak się promocje trafiają to też konkretne.
Witam
Kiedyś rozglądałem się po sklepach internetowych i widziałem w tedy zależność, że z reguły na morelach było najtaniej, za to mieliśmy kiepską jakość obsługi, różne problemy związane z reklamacją sprzętu, czasem z tym że sprzęt przychodził używany itd. X-kom z kolei, cechował się nieco wyższymi cenami ale nieporównywalnie lepszą resztą od moreli. Gdzieś z tyłu pobąkiwał komputronik, jako ten kolejny w kolei jeśli chodzi o popularność sklep w Polsce, i może jeśli chodzi o obsługę było jak najbardziej w porządku, ale ceny w nim były znacząco wyższe od reszty, co wielu potencjalnych kupujących bardzo zniechęcało. Teraz nieco powróciłem do tematu, i na pierwszy rzut oka wiele się nie zmieniło (poza aferami z morelami, gdzie w obrót poszły wszystkie dane klientów, nawet z dowodem osobistym, czy numerem konta bankowego włącznie, jeśli braliśmy coś na raty xD), x-kom stał się popularniejszy, i gdzieś to stratę popularności do reszty zaczął odbudowywać komputronik nadganiając również ceną. Na pierwszy rzut oka, ciągle jest drożej, ale jak już np. chcemy składać PC'ta i skorzystamy z konfiguratora, to ceny podzespołów bardzo często (też nie zawsze) są bardziej atrakcyjne niż na morelach czy x-kom'ie (z wyłączeniem promocji). I tak się zastanawiam zmieniło się coś w obsłudze, na gorsze z waszej perspektywy jeśli zamawialiście coś na komputroniku i co o tym myslicie?
Jakoś trzeba ratować sytuację jeśli klienci nie polecieli na bajkę z DLSS, oraz inny bajer zwany RayTracingiem, który wywindował cenę kart praktycznie o 50-60%.
Ze strony chipsetu, czyli de facto od strony AMD, takich ograniczeń nie ma, że dany chipset obsługuje procesory tylko do 8 rdzeni, natomiast mogą pojawiać się ograniczenia, związane z tańszymi płytami, ale już ze strony producenta płyty np. MSI, ASUSa, czy Gigabyte, z obsługą takich procesorów co miałoby bezpośrednie powiązanie z sekcjami zasilania takich płyt, i np. przy większym obciążeniu, płyta nie byłaby w stanie dostarczyć tyle energii ile procesor potrzebuje, ale tak jak pisałem, jesli już, to będzie to problem związany tylko i wyłącznie z najtańszymi płytami.
Socketu nie zmienili od szóstej generacji (teraz jest już 9), ale co z tego skoro chipsety na płytach głównych z tym samym socketem, obsługują max. 2 generacje (odpowiednio 6 i 7 generacja chipsety H110, B150, H170, Z170, B250, Z270, a 8 i 9 generacja H310, B360, Z370 i Z390). U AMD jeśli oficjalne info się potwierdzą, chipsety pod pierwszą generację będą miały wsparcie dla procesorów nawet czterech generacji procesorów.
Czyli po raz kolejny się sprawdza, ze gry robione we współpracy z Nvidią, działają dobrze na kartach Nvidii, a gry robione we współpracy z AMD działają dobrze na wszystkim ;)
Na ostatniej sesji Nvidia straciła ~15% w akcjach po zaktualizowaniu prognozy przychodów którą zmniejszyli o 500mln :V czyli dośc sporo nawet dla nich :V
Executioner a skąd wiesz jaką wartość ma pieniądz który trzymasz w ręce? Przecież już od dawna waluty które są drukowane nie mają pokrycia w złocie, ani innym kruszcu tak więc twoje pieniądze niczym nie różnią się od krytowalut, bo i wartosc twoich pieniędzy się zmienia, nawet jeśli ich ilosć pozostaje taka sama ;)
Jesli o suttering chodzi to akurat ósma generacja Core przez bardzo długi okres czasu miała z tym problemy tak więc nie wiem do jakich danych masz dostęp xD
No to nieźle xD Umiesz czytać czy nie? :D Co mnie obchodzą USB-C (co do którego nie ma pewności czy jest wynalazkiem intela, Thunderbolt to co innego ale USB-C? o jakieś potwierdzenie info bym prosił), sztuczne inteligencje czy komputery kwantowe które ciągle pozostają poza sferą naszego wyobrażenia. Spytałem się o zastosowane nowe technologie w procesorach lub mikrokontrolerach w ciągu ostatnich kilku lat. " a AMD jedynie popracowało nad patentem intela i zrobiło wersję 64 bit" Śmiesznie w sumie, że wypowiadasz się o czymś o czym nie masz pojęcia xD Dlaczego intel wcześniej nie wprowadził architektury 64 bit? Co do pracy nad sztuczną inteligencją, czy konstruowaniem specjalistycznych układów do tego typu zastosowań, to przychodzę z pytaniem czy wiesz coś o Xeonach Phi? Dlaczego były niewypałem i jak to zostały zjedzone de facto w tego typu zastosowaniach przez układy Nvidii, i między innymi dlatego intel zdecydował się na wydanie własnych układów "graficznych", na początku de facto właśnie jako konkurencję dla układów Nvidia Tesla, m.in. dlatego wspomniane wyżej Xeony wycofuje z rynku. A jeśli już pijesz do tego Infinity-Fabric to co ma powiedzieć intel z jego Omni-patch xDDD Przecież ten interfejs jest kilka razy wolniejszy niż IF. Teraz jedynie intel opatentował warstwowe budowanie chipów, no ale kogo była to zasługa? A przyglądając się faktografii, względem IPC Ryzeny wiele od SkyLake się nie różnią, a główną zaporą w porównaniu cpu intela i AMD są stosunkowo niskie zegary, ale jest to ograniczenie stricte procesu produkcyjnego (GlobalFoundires na licencji Samsunga) niż samej architektury, a z 7nm od TSMC nie dość że dostaniemy wyższe zegary to jeszcze IPC się poprawi, no i wincyj rdzyniuff.
@Kapiszon500 Aż się od tych bredni zalogować musiałem xD Jakie standardy wyznacza intel? Co rewolucyjnego opracowali w ostatnich kilku latach w dziale procesorów i mikrokontrolerów? AMD z o wiele niższym budżetem i od niemal 10 lat finansowaniem wszystkiego na kredyt zrealizowało de facto więcej, niż intel, z budżetem większym o dziesiątki miliardów. AMD rozwija na ten moment tak: Dział odpowiedzialny za procesory konsumenckie oraz serwerowe, karty graficzne również dzielące się na te dla prof. i konsumenckie, pracują nad procesorami ARM, rozwijają ciągle pamięci HBM, oraz ciągle mają działy odpowiedzialne za dostosowywanie swoich technologii dla konsol nowych generacji. Co do patentów i wyznaczania trendów, zgadnij czyją zasługą jest architektura x86-64, której intel nie mógł nadgonić wydajnosciowo swoim NetBurstem przez dobre kilka lat. Przez praktycznie całe lata 90 technologicznie to AMD stało o wiele wyżej niż intel.
Juz końcem tego roku ma się coś pojawić w pojedynczych sztukach :V w sensie Epyc w 7nm
Najnowsze Epyc'i w 7nm 64 rdzenie, 128 wątków, 256 MB Cache L3 no tylko że procesor serwerowy :D
kaitso to zależy o jakim przedziale klatkowym mowa, bo przy różnicy 180 do 160 klatek różnica 20 klatek to praktycznie nic :V a trzeba przyznać że gdy mowa o grze w okolicach 60-100fps różnice sa minimalne między Ryzenami i intelami dodatkowo po stronie AMD pozostaje cena.
Łosiu pobór energii platformy z GTX 1080 Ti przy karcie obciążonej na 100% (przy samej karcie by jak najdokładniej okreslić pobór energii tylko badanego podzespołu, a nie całej platformy) wynosi 350-370W, 250W to ona ma TDP, ale TDP to nie to samo co pobór energii. A Radeony mają to do siebie że bardzo często napięcia na kartach są zawyżone (sposób na brak problemów z działaniem karty pod względem wydajnościowym, bez potrzeby przeprowadzania dokładnych testów na każdej karcie ), i na 98% kart od AMD da się przeprowadzić skuteczny undervolting który nie ma negatywnego wpływu na wydajność. Z resztą nie podejrzewam że będa pojawiać się takie dziwadełka z jednym wentylatorem tak więc te karty problemów z przegrzewaniem mieć nie powinny, ewentualnie jak np. z FatBoy'em od XFX warto pobawić się krzywymi wentylatorów.
Nawet za 500zł by konsumenci nie kupowali, bo nvidia to nvidia. Tak samo intel, to intel nawet gdy procesory są pełne dziur, są droższe i podobne wydajnościowo to ludzie nie są przekonani i w tym cała nadzieja by budować zaufanie ludzi a klęski niebieskich pomagają w tym AMD
W testach z RTX'ami w nowszych grach różnicy w wydajności nie ma, a jesli jest to raz o kilka % wygrywa cpu intela, a raz o kilka % Ryzen. No i intel cały czas rozwija praktycznie to samo P6 jeszcze z lat 90-tych a przed Zen stoją jeszcze lata dopracowywania technologii.
intel nie czuje oddechu konkurencji za plecami, a czuje konkurencję która już go wyprzedziła.
Topowy układ na midend, bo na highend przyjdzie nam poczekac na Navi (najprawodpodobniej bo już przy premierze Vegi chodziły słuchy o implementacji układów odpowiedzialnych za RT a RT w średnim segmencie to jak na razie abstrakcja no chyba że AMD wszystkich by czymś zaskoczyło). Co do samej wydajnosci. Nvidia do 2019 roku nie wyda kart na średni i niski segment rynku tak więc odświeżenie Polarisów w 12nm może rzeczywiście coś dać, skoro już taki RX 580 bez problemu konkuruje z GTX 1060, to RX 590 w odpowiedniej cenie idealnie może wbić się w widełki między 1060 a 1070, tylko ciekawe jak będzie prezentować się wydajność w odniesieniu do 1070.
Nie, tutaj wychodzi nieudolność i głupota zarządu intela. Raz że wciąż mają ogromne problemy z 10nm i ponad 4 letnie opóźnienie w wdrażaniu procesu, to jeszcze przenieśli produkcje chipsetów na linie 14nm na których produkują procesory przez co brakuje im mocy produkcyjnych. I tutaj akurat intel na działanie jakie zrobiła Nvidia nie może sobie pozwolić bo AMD ma obecnie bardzo silną pozycję i p. po obecnych cenach taka i3 8100 kupisz w cenie Ryzena R5 2600 który wydajnosciowo jest konkurencją dla i5 8400 no i wiadomo Ryzen 6 rdzeni 12 wątków tak więc bardziej przyszłościowa opcja.
Sarseth=> Brak procesorach na półkach wcale nie jest kwestią rosnącego poytu na procesory bo ten jest już teraz stosunkowo stały z lekką rosnącą tendencją. Ale intel ze względu na terminy przeniósł cześć produkcji chipsetów na linie 14nm na których produkują już 4 generacje procesorów. Tak więc w sumie brak wstecznej kompatybilności w starszych płytach względem nowszych procesorów sprawił że intel ma teraz problemy z produkcją każdych układów, nawet tych na rynek profesjonalny gdzie wiadomo tam marża największa a i samo AMD bardzo rozbestwiło się ze swoimi cpu EPYC
Jezu xD Łe kurła taka i5 8400 nie jest ani tania ani wydajna bo moja i9 7980XE w renderingu ją na śniadanie połyka. Ot sens twojej wypowiedzi xD
No nieźle xD a nie wpadłeś na to że możliwości OC to czysta loteria krzemowa? Z reszta z tego co pamiętam to była seria procesorów (albo grafik) która na raz była produkowana w GlobalFoundries i TSMC, i te od TSMC charakteryzowały się lepszymi parametrami mimo tego że były to te same modele. Co do mankamentów to zawsze się coś zdarzy, tak jak AMD miało swoje Buldozery, tak intel miał swoje Netburst. Chcesz to poczytaj na ten temat ;)
Łeee bo jak kompjuter to tylko w gry gra. Nie no nieźle stary xD z perspektywy AMD taki ruch jest oczywisty bo niby czemu mają oddawać intelowi segment rynku który przynosi wbrew pozorom znaczne dochody. Jakis czas temu brakowało nawet Celeronów G 4xxx bo taki był popyt. A chyba lepiej wepchać na pcb odpadki z wafla krzemowego i sprzedawać to nawet po te kilkanaście $ niż wyrzucać to na śmieci, bo tak jak pisałem jest to dość dochodowy segment rynku.
Tak było ale AMD stosuje już podobną metodę obliczania tdp jak intel tylko nieco bardziej szczegółową bo wcześniej gdy tdp oznaczało wydajnośc cieplną przy max obciążeniu AMD wypadało słabo wizerunkowo.
Gdzies ty takie informacje znalazł? I sryy o Athlona 4X 950 mi chodziło. Na ogół wydajnościowo bardzo podobnie jest.
Dokładniej około 65% użytkowników komputerów PC używa zintegrowanych grafik intela, tak więc taka Nvidia przy intelu na tym rynku to pikuś :D tylko że karty intela nie generują zysku.
Na spokojnie. A o cooler się martwić nie musisz bo tu jest bodajrze ten sam co u Ryzenów R3 a 34W to na tyle mało że spokojnie samo chłodzenie pasywne wystarczy.
Po raz wtóry piszę że tdp to nie pobór energii a moc oddawana poprzez IHS procesora. Niższe tdp powoduje że ten procesor będzie mógł być spokojnie wciskany do małych PC AiO, chłodzonych pasywnie HTPC czy małych mITX'ach.
Jest już porządna konkurencja dla intela, teraz tylko na ruch w stosunku do Nv czekać ;)
TDP to nie pobór energii, bezpośrednio się z nim wiąże, ale nie można tego tak przedstawiać :D
Tak było ale AMD wychodziło na tym źle wizerunkowo dlatego wprowadzili podobny schemat jak intel jednak imo nieco bardziej adekwatny co widać np. po Ryzenie 7 2700X.
No właśnie jeśli o ceny chodzi to nadziei nie ma :V U intela każdy dołożony rdzeń wiąże się z jeszcze większą powierzchnią monolitycznego układu krzemowego co powoduje że uzysk musi być odpowiednio duży, co z kolei przekłada się znacznie wyższe ceny. U AMD natomiast mamy do czynienia z budową procesorów MCM (Multi Chip Module) czyli procesor zbudowany jest z kilku mniejszych krzemowych chipów co znacznie niweluje koszta (i wprowadza dość duże opóźnienia w dostępie do pamięci cache dlatego też jesli bierzemy Ryzena to tylko z pamięciami +3000MHz). Tak więc tam dodawanie kolejnych rdzeni zazwyczaj wymaga programowego odblokowania a nie powiększania powierzchni układów krzemowych.
Bożu widzisz a nie grzmisz... Wraz z tym artykułem wychodzi mała manipulacja po stronie redaktora, jak i również kompletny brak zrozumienia po stronie czytających xD Ta wydajność karty w TFLOP'ach ma realne znaczenie tylko w przypadku kart na rynek prof. i tam może robić to znaczenie ale tu sugerowane jest (może nie dosłownie, jednak przez część osób tak to jest rozumiane) że mają to być karty dla gamingu xD Taaak bo 32GB pamięci VRAM HBM2 to własnie to czego każdy gracz potrzebuje xDDD No a co do braku zrozumienia w komentarzach chyba wypowiadać się nie muszę ;)
Brakuje mi tu odniesienia do 11 bit studios. Końcem 2014 roku akcje chodziły po 10zł, w 2015 już 200zł, a teraz prawie 450zł.
Tensor Cores jest tylko rozwinięciem już obecnych technologii i nic w tym specjalnego nie ma. I nie HD bo HD to 1280x720 a FHD
1000$ x 3.8= 3800zł + 23%= cena końcowa, czyli doliczajac marżę sklepu to na EZ 5k ;)
No ale fakt faktem w takich rozdzielczościach jak 4K o wiele większym ograniczeniem jest karta graficzna niż sam procesor.
Zobaczymy ile ten lut będzie wart, i czy w ogóle będzie. Jesli nie to już widze te osiem gotujących sie jajek pod czapką ;)
Trend ten jest chyba tylko w przypadku intela bo u AMD ogromne spadki cen gdzie Ryzena R7 1700 na ten moment można już dostać w okolicach 900zł w sklepie
Zaproponują to co teraz masz w Xeonach, oczywiście z mniejsza liczbą linii PCIe i brakiem obsługi pamięci ECC dlatego kolejna generacja Extreme intela nie będzie się nadawała do stacji roboczych :D
Wsteczna kompatybilnosć CoffeLake względem Kaby i SkyLake a raczej jej brak, był spowodowany zmianą konfiguracji części pinów mimo że ich układ pozostał ten sam. Bodajże z około 50 pinów które nie miały żadnego przypisanego zadania, zostało ~20 ze względu na to że reszta została przekierowana do zasilania układu. I dlatego jesli już na starszych płytach udawało się odpalić procesor 8 gen, to najczęściej były to układy pobierające mało energii czyli i3. Oczywiście problem ten dało rozwiązać się na inne sposoby ale intel obrał ten który był teoretycznie najłatwiejszy i prowokował potencjalne zyski z zakupu samych procesorów. Co do wyświetlania obrazu w 4K, każda wyższa rozdzielczośc będzie bardziej obciążająca dla procesora. Im większa rozdzielczość tym więcej pikseli ma do przekonwertowania procesor, a tym karta graficzna się nie zajmuje.
Nie xD juz bardziej by się w układy ASIC opłacało inwestowac niż te karty Quadro do kopania.
Ty to jak to jest że moduły pamięci HBM/HBM2 4GB w kartach np. Fury X są w stanie spokojnie rywalizować z kartami które tej pamięci GDDR5 mają po 6-8GB i im tej pamięci nie brakuje?
Pisze pod każdym komentarzem bo widocznie ludzie nie potrafią czytać ;) a te spekulacje mogą miec więcej wspólnego z rzeczywistością niż ci się wydaje.
No nie tylko i po prostu inny typ pamieci ale również inną litografię. Tu mamy do czynienia z 12nm a nie 16nm jak przy Pascalach, przez co w znaczącym stopniu zmieniło się upakowanie tranzystorów, a sam proces technologiczny prowokuje również do zmian w architekturze.
Myślę że nie zrozumieliscie przekazu xD Dawniej też przecież były różne wersje kart z 4GB pamięciami GDDR3, oraz 2GB GDDR5, i zgadnijcie karty z mniejszą iloscią pamięci były zdecydowanie lepsze od swoich ułomnych pod pewnymi względami braci.
Kto powiedział że brak kart od AMD? W tym roku mają wychodzić Vegi w 7nm na rynek PRO, a w następnym albo Vegi konsumenckie w 7nm lub Navi.
Po pierwsze spójrzcie na typ pamieci a nie samą ilośc, po drugie w przypadku GTX 2050 ważne są same usprawnienia architektury jesli mowa o jakimś wzroście wydajnosci co bezpośrednio wiąże się z 12nm procesem technologicznym.
Po raz kolejny piszę, sama ilośc pamięci to nie wszystko, ważny jest jeszcze jej typ ;)
No to nieźle. Nie samym VRAMem karty graficzne stoją. Już kompletnie pomijając to czego NIKT z was nie spostrzegł czyli rodzaju tej pamięci. To są pamięci GDDR6, a nie GDDR5. Tak jak kiedyś były te różne karty z ilością 4GB pamięci GDDR3, oraz 2GB GDDR5, i karty z pamięciami GDDR5 charakteryzowały się zdecydowanie lepszą wydajnością. A co do kopania, to tutaj też nie chodzi o ilość pamięci a o jej przepustowość. Bo niech mi ktoś powie dlaczego Radeony Fury miały zdecydowanie lepsze wyniki w zastosowaniach "koparkowych" posiadając jedynie 4GB pamięci HBM? Ze względu właśnie na tą pamięć. HBM czyli High Bandwidth Memory, mimo mniejszej pojemnosci była bardziej efektywna w tych zastosowaniach. Tak więc same Gigabajty to nie wszystko ;)
A ten fragment o tych lepszych firmach trochę na wyrost, bo niby czym się różnią? Systemem chłodzenia? Te karty i tak są na tyle mało prądożerne że śmieszne wersje Zotaca z jednym wentylatorem sobie z nimi spokojnie daja radę
RX 580 8GB w jakimś sklepie na promocji nawet po 1200zł chodziła, podobnie chodzą 1060 6GB od Palita, a 1060 3GB to 950-1000zł
kaszanka9 no to popatrz na gry gdzie dev współpracował z nv i popatrz na wydajność Radeonów w odniesieniu do kart Nvidii. A teraz popatrz na takie gry jak FC5, Wolfenstein The New Colosus czy DOOM gdzie dev współpracował z AMD, i porównaj wydajność kart Czerwonych i Zielonych. Nawet bez szukania powiem ci że Nvidia zaniża wydajność w grach na konkurencyjnych kartach, co swoją drogą imo sprawdzi się w przypadku BF5. Teraz była beta i BF działał nawet do 30% lepiej na kartach AMD. Przyjdą beta testy, czy wyjdzie już gotowa gra, to imo Nvidia będzie górą, bo DICE wprowadzi do gry jakieś dodatkowe efekty pokroju podwójnej teselacji zbiorników z wodą których Radeony nie będą potrafiły wykorzystać lub w pewien sposób dla nich będzie to zbyt obciążające, i będzie zauważalna znaczna wyższość kart Nvidii.
Teoretycznie Zen2 może nawiązać wyrównaną walkę z 9 generacja intela, jesli nastąpi przewidywany wzrost IPC na poziomie 10-15%, bo 9 generacja teoretycznie będzie miała stosunkowo więcej rdzeni (podobnie jak nowe Ryzeny co potwierdziło MSI) ale WhiskyLake ciągle wykorzystywać będą, co prawda ulepszone, jednak ciągle już stare rdzenie SkyLake.
Widzisz. Bo jak gra jest robiona w partnerstwie z Nvidią to działa lepiej na kartach Nvidii, a jak gra jest robiona w partnerstwie z AMD to działa dobrze na wszystkim. Dobrze to pokazuje DOOM, Nowy Wolfenstein, czy właśnie FarCry
Nieee bo sytuacja z lat 2000-2006 nie była świadectwem wyższości AMD nad intelem. W tedy to właśnie AMD dominowało zarówno jeśli chodzi o architekturę 64 bit (tak bo ta jest własnością AMD nie intela) jak i samo ipc czy końcową wydajność. A intel zamiast przyjąć ciosy na klatę w tamtym okresie i skupić się na rozwoju technologii, zaczął tą obronę od korupcji, przy okazji wypuszczajac parę netburstów, i odświeżając laptopowe PIII dzięki któremu stworzył Conroe. Tak więc czasami mówi się o obecnej sytuacji na rynku czy temu dlaczego cpu AMD odstają od intela, a zapomina się z czego to wynika. Swoją drogą patrząc na obecną sytuację, śmiesznym jest że firma która ledwo wiąże koniec z końcem, zatrudnia niecałe 9 000 osób, ( sama Nvidia zatrudnia 12 000, a intel przeszło 100 000 ) i konkuruje jednocześnie z dwoma gigantami, gdzie ich rozwiązania są tylko odrobinę gorsze od konkurencji w zastosowaniach mainstreamowych, a w profesjonalnych często są lepsze od konkurencji. I taka ciekawostka. W 2016 roku intel zwolnił 11% swoich pracowników czyli na tamten moment 12 000 osób czyli wiecej niz łacznie pracuje osób w AMD
Brakuje mi tu odniesień do poczynań AMD w równoległych okresach czasu. Jak np. to dlaczego właściwie Pentiumy 4 odniosły sukces? A już tłumacze dlaczego. Wszystko rozchodzi się o umowy partnerskie z takimi producentami jak Dell czy HP, które ZAKAZYWAŁY lub w mocnym stopniu ograniczały możliwość dystrybucji sprzętu z procesorami AMD. Tak więc AMD mimo o wiele lepszych rozwiązań technologicznych i nawet poniekąd niższych cen jesli chodzi o sprzedaż samych komponentów dla klientów detalicznych, było w tyle jeśli chodzi o zarobki. Netburst było bardzo podobne do tego co później zrobiło AMD czyli do architektury Buldozer, gdzie zamiast skupiać się na IPC, inżynierowie poszli w wydłużanie praktycznie w nieskończoność potoku wykonawczego, ceną właśnie o wiele niższego IPC, i celem wyższych taktowań. I jak się okazało zegar to nie wszystko ;) Tak więc technologia, technologią, jednak co udowodniła historia w tym przypadku, liczy się krętactwo i kontakty, za co wydaje mi się intel został ukarany dość dużymi karami pieniężnymi za chęć doprowadzenia konkurencji do bankructwa co prawie im się udało swoją drogą, bo AMD zmuszone było do ODDANIA swoich fabryk, które teraz nazywają sie GlobalFoundries, czy zmuszone było do wyprzedania własnego kapitału.
No cóż. W segmencie HEDT cpu AMD odrobiło lekcję, i już lada dzień oficjalna premiera nowych Threadripperów, to teraz pasuję ogarnąć małą rewolucję na rynku GPU. Zobaczymy jakie zmiany przyniesie sam proces produkcji jesli chodzi o Vegi 7nm, oraz w końcu Navi.
Hydro2 prawda jest taka że intelowi nie opłaca się inwestować w układy kart graficznych dla graczy, a to wszystko przez specyfikę kart dla graczy oraz sposobu w jaki są wykorzystywane. Niektórzy powiedzą że przecież Raja Koduri został zatrudniony. Tylko ja bym zwrócił uwagę co AMD zrobiło by Raję zatrzymać u siebie. Otóż podpowiem. Nie zrobiło nic. Dlaczego? Może dlatego że Raja był powodem dla którego Vega nie odniosła sukcesu ze względu na pchanie na siłę pamięci HBM2 co przyczyniło się do słabej dostępności i bardzo wysokiej ceny. Tak więc jeśli intel planuje wydanie kart do gier, to w momencie premiery gdy te karty będą na poziomie Polarisów 10 to będzie ogromny sukces dla intela jako konstruktora, jednak nieco gorszy sukces marketingowy. No i data. 2020 rok. Dlaczego? Może dlatego że na ten okres intel zaplanował premierę Xeonów 10nm co w połączeniu z konkurencyjnymi rozwiązaniami dla Tesli miałoby sens. Tak więc tak jak pisałem jeśli chodzi o ruch na rynku konsumenckim na intela bym nie liczył ;)
No nie do końca. Nvidia ma mnóstwo zalegających kart ze zwrotów OEMów. I jeśli ktoś wierzy, że ceny wcale nie były blokowane przez producentów to powodzenia życzę w dociekliwości ;D Niech ktoś sobie obejrzy w jakim stopniu zmieniły się zyski producentów w stosunku do dostępności sprzętu w sklepach. Sprzedając jedną kartę zarabiali tyle jakby sprzedali dwie. To tak samo jakbyś powiedział że zmowa producentów pamięci DRAM to wcale nie zmowa tylko zwykły biznes do którego nikt nie powinien się przyczepiać ;D
Pisałem o tym artykuł na swoim blogu na steemit. W skrócie Samsung projektuje układ GPU majacy być w miarę uniwersalnym co umożliwi jego przekonwertowanie w odpowiedni sposób z układu mobilnego, do wersji desktopowych dla konsumentów oraz na rynek profesjonalny. Układ nosi nazwę SGPU. Na intela bym nie liczył bo ten wchodzi na rynek GPU tylko aby uszczknąć sobie nieco pinionżków jako konkurencja dla układów Nvidia Tesla, dlatego między innymi wycofują Xeony Phi które nie wypaliły jako konkurencja dla właśnie tych układów.
Zacznijmy od tego, że nie wiadomo czy to w końcu architektura Turing, czy Volta. We wszystkich dokumentacjach z którymi się spotkałem widnieje nazwa chipu GV1xx, co jak już wiemy oznacza kart Volta. W przypadku architektury Turing, oznaczenie to miałoby nazwę GT1xx. I nie tylko GTX 1180 będzie wyceniony drożej niż GTX 1080, ale może byc wyceniony nawet 2x drożej niż GTX 1080 szczególnie w Polsce i po obniżce cen, bo ta zapowiadana jest i spodziewa się spadku cen o 50$ w stosunku do obecnych ofert. W cenie GTX 1080 Ti powinniśmy dostać GTX 1170, a droższy od GTX 1080 ma być nawet GTX 1160. Tak więc nic tylko kibicować AMD bo w nich tylko nadzieja. I od razu zamykam wszystkim usta, bo w intelu nadziei nie ma jesli chodzi o rynek GPU przynajmniej na razie, bo ten skupić ma się na konkurencji względem układów Nvidia Tesla, między innymi też dlatego wycofuje swoje Xeony Phi które słabo wyszły z tej konfrontacji.
Tjaaa... tylko zobacz gdzie intel obecnie stoi z procesem technologicznym 10nm... a konkurencja ma 5nm... Tak samo dawniej mówiło się o Nokii że to moloch jakich mało a jedna nietrafna decyzja co do rozwijania smartphonów zamknęła im biznes. Intel już w przyszłym roku praktycznie nie będzie istniał na rynku serwerowym i po to właśnie te układy graficzne. Mają one zastępować Xeony Phi które obecnie są wycofywane ze sprzedaży a miały być konkurencją dla układów Tesla od Nvidii. A co do tej szafy z pomysłami xD Intel już pokazał jakie ma pomysły w tej szafie, prezentując na Computex 2018 28 rdzeniowego Xeona Platinium podkręconego do 5GHz którego chłodziła chłodziarka przemysłowa. W dodatku intel prezentował tego Xeona jako procesor dla każdego co jest bez sensu xD Aby sama produkcja procesorów w 10nm była opłacalna intel musi w swoje fabryki wywalić cały kwartalny zysk netto jest nie więcej, a i to nie gwarantuje sukcesu. Co odczuli akcjonariusze bo chyba nie normalnym jest że cena akcji spółki spada o prawie 10% po opublikowaniu po raz kolejny rekordowych zysków i przychodów kwartalnych?
No to widocznie w intelu też są idioci skoro intel skupia sie na ilości rdzeni a nie wydajnosci pojedynczego rdzenia. W przypadku AMD przełom nastąpi po premierze Zen 2, bo 7nm istotnie wpłynie na IPC możliwe że nawet od 10 do 15% i w takim układzie Ryzeny zrównają się lub prześcigną rdzeń SkyLake i w tedy będzie się liczyć tylko ilość rdzeni, a intel ze swoim 14nm++++++ może w końcu zostać z tyłu bo z kolejnym odgrzewanym kotletem nie podwyższą ani taktowań, a wsadzenie dodatkowych rdzeni bez rozbicia krzemu jak ma to miejsce w Ryzenach na CCXy będzie skrajnie nieopłacalne.
co do temperatur to akurat KabyLake miały najgorszego gluta spośród chyba wszystkich generacji od IvyBridge, po Haswelle, DevillCaniony Broadwelle, SkyLake, czy CoffeLake to właśnie Kaby Lake miały najgorsze temperatury i najgorzej zachowywały się przy OC, ale fakt faktem co do gluta to zawsze było i będzie tak ze jest to istna loteria.
i7 7600? a nie i7 7700? bo 7600 to i5 była. Z reszta co ty możesz wiedziec o opłacalnym zakupie jeśli wpakowałeś się w KabyLake i jeszcze wypisujesz bzdury o wyższosci kabylake nad Coffe xD. Fakt faktem wydajność pojedynczego rdzenia praktycznie pozostała identyczna nie mniej jednak, głównym narzędziem CoffeLake'ów świadczącym o ich wyższości nad KabyLake jest ilośc rdzeni która została diametralnie zmieniona.
Kilgur No to jeśli kupił r5 2600X to ma możliwość wymiany cpu na dwie kolejne generacje. A 2020 rok jest rokiem dośc optymalnym w mojej ocenie bo do tego czasu standardem stanie się PCIe 4.0 oraz pamięci RAM DDR5. Tak wiec imo trafiony termin, a wydawanie kolejnych chipsetów z zablokowaną możliwością obsługi starszych procesorów w mojej ocenie nieco świadczy o polityce intela.
No niby nie jest dziurawe ;) Wszystkie luki w procesorach AMD wynikają ze specyfiki architektury x86. A i tak meltdown w przypadku AMD nie da się wykorzystać, a Spectre 2 teoretycznie jest możliwe do wykorzystania jednak żadnemu zespołowi badawczemu nie udało się przeprowadzić udanego ataku przy pomocy tej luki. A jak napiszesz że przecież coś tam jakies 13 luk kiedyś było, to tylko udowodnisz że nic o tym nie wiesz. Te 13 luk było fake'iem zakrojonym na ogromną skalę imo wynikającym z czarnego PR intela. Każda z tych 13 luk, wymagała hasła administratora, oraz manualnej obsługi sprzętu, i już tu ze 100% pewnością jestem w stanie ci powiedzieć, że mając hasło administratora i dostęp do sprzętu jesteś w stanie przeprowadzić włamanie na każdym procesorze nie zaleznie czy jest to Ryzen, Core intela, czy ARM.
AMD ma już kredyt i idzie im jego spłacanie całkiem nieźle dzięki Ryzenom, a boom na GPU tylko proces spłacania tego kredytu przyśpieszył ;)
Rzeczywiście :V Ale wydaje mi się że tak jak kiedyś Sapphire też wydawali karty Nvidii
Muszą pokazywać że coś się dzieje żeby ceny akcji nie spadły :) Ale w sumie to na pierwszy rzut oka nie tak źle wygląda.
Na ogół wydajnościowo porównywalne karty, ale wyższosć Radeona jest głównie przy DX12 i vulcanie, przy wyższych rozdzielczościach, lub przy grach od tak lubiących sobie zagospodarować nieco więcej VRAMu. W grę również wchodzi fakt że wybierajac opcję z większą ilością VRAMu po prostu w przyszłości będzie karta miała lepszą wydajność w stosunku do GTX 1060 6GB, a cenowo stoją podobnie bo RX 580 8GB już za 1300zł nowego idzie wyrwać, a sam pokoparkowego kupiłem za 800zł. Z 30 miesiącami gwarancji i fabrycznym BIOSem :D
A czy czasem AMD nie ma na wyłączność takich producentów jak Sapphire, XFX i Asrock? A TUL Corp. i jego marka PoweColor mają w swojej ofercie karty Nvidii. Chyba że ja coś źle zrozumiałem ;) Co do konkurencyjności kart. RX 580 8GB chodzi po tyle samo co GTX 1060 6GB ~1300zł. Wydajnościowo porównywalne chociaż w grach potrzebujących nieco więcej VRAMu czy przy graniu w wyższych rozdzielczościach lepiej sprawuje się RX. Tak więc nie powiedziałbym że problemem jest słaba konkurencyjność AMD, a bardziej mała świadomość potencjalnych kupców ;) Pomijając o wiele lepsze wsparcie dla nowych API takich jak Vulcan czy DX12
W teorii doda te 5% wydajności i te dodatkowe rdzenie, bo w praktyce aby wykorzystać dodatkowy potencjał będziesz musiał zaopatrzyć się w chłodziarkę przemysłową. Jak dasz znać panom z Computex 2018 znać to, może podeślą ci do testów ;) Prawda jest taka że intel jest uziemiony jeśli chodzi o taktowanie, ilość rdzeni i IPC do momentu w którym nie ruszą z rozwojem litografii bo już przy SkyLake X pokazali jakie ograniczenia narzuca ta ich litografia 14nm++++++++
? No to odpal sobie MSI Afetrburner podczas rozgrywki bo nie rzadko będzie dochodzić do 80-90% utylizacji rdzeni co w przypadku SkyLake nie jest problemem, natomiast problem pojawia się przy Ryzenach gdzie przy 6-8 rdzeniach i 12-16 wątkach dochodzi do 70-80% utylizacji dwóch pierwszych rdzeni, a reszta śmiga na 10-20% a gra działa gorzej niż na 4 jajkach intela a wynika to głównie z optymalizacji niektórych gier :V
Heinrich07 co do kart graficznych się zgodzę, ale kupno karty graficznej nie wiąże się z wymianą całego zestawu. Procesory są o wiele bardziej długowieczne niż karty co udowadnia sam przykład generacji SandyBridge, czyli 2 generacji (imo ostatnia rzeczywiście udana generacja w której widać było skok w stosunku do starszej). i7 2600 jest w tym momencie porównywalna nawet do i5 Kaby czy CoffeLake w zależności od gry. Cały okres eksploatacji platformy dla kogoś kto stawia na płynną i widowiskową rozgrywkę najlepiej aby właśnie zamykał się w 8 latach (oczywiście mowa tu o sprzęcie High End ) a eksploatacja karty graficznej ~4 lata.
Co ci z większej ilości rdzeni skoro procesor będzie się gotował pod IHS i dochodzić będzie do throtlingu xD To czy gry będą optymalizowane pod cpu wielordzeniowe zalezy głównie od programistów, chociaż wywarcie presji przez producentów też swoje zrobi. Ale lut intelowi po prostu się nie opłaca. Spoiwo lutownicze wykorzystywane do lutowania IHS'ów składa się głównie z Idmu i złota czyli bardzo rzadkich i szlachetnych metali, dlatego też z tego zrezygnował bo to w połączeniu z stratami na procesorach podczas procesu lutowania gdzie dochodziło do mikropęknięć praktycznie gotowych procesorów generowało olbrzymie straty finansowe.
"Kiedyś - "wincyj megahercuf!", obecnie - "wincyj rdzeniuf!"." To fakt :V zarówno u intela jak i AMD. Intel miał swoje Netburst czyli Pentiumy 4, które na lata 2004-2006 potrafiły zegarami sięgać nawet 4GHz a wydajniejsze były od nich nawet Pentiumy M przeznaczone dla rynku mobilnego na mikroarchitekturze P6. AMD natomiast popełniło ten sam błąd co intel jakieś 5-6 lat później wydając Buldozery i Vishere, i tam selekty tych procesorów były to bodajże FX'y 9xxx sięgały zegarami nawet 5GHz, no ale okazało się że taktowanie to nie wszystko, a najważniejsze jest IPC, czyli ilość wykonanych instrukcji w trakcie jednego taktu zegara.
Taaak wincyj gotujących się jajek. Do puki intel będzie do procesorów HEDT dawał gluta, i do puki uzysk z wafli krzemowych w procesie 10nm nie będzie wystarczający do stworzenia chociażby sklejki jak ma to miejsce przy Threadripperach, to intel może zapomnieć o rywalizacji wielordzeniowej i wielowątkowej, no chyba że będzie wydawał Xeony (parafrazując do sytuacji z Computex 2018) pod przykrywką superwydajnych wielordzeniowych procesorów HEDT dla każdego xD AMD już w tym roku wydaje procesory EPYC w 7nm FinFET, w następnym roku konsumenckie Kyzeny czy Ryzeny 3gen jak zwał tak zwał, i udoskonalone EPYC'i w 7nm które uwaga, uwaga, nie będą miały naturalnego konkurenta po stronie intela. Tak więc sytuacja co najmniej ciekawa szczególnie biorąc pod uwagę że AMD zadbało o developerów gier, nawet tych mniejszych, wysyłając im sprzęt pozwalajacy programistom, lepiej optymalizować gry, pod ich sprzęt. Tak więc coraz rzadziej będzie dochodzić do sytuacji gdzie 2 rdzenie w Ryzenie pracują przy 70-80% obciążenia, a kolejne 6 10-20%, a w przypadku CoffeLake dochodzi nawet do 80% utylizacji wszystkich rdzeni. I jeśli chodzi o wycofaniu się intela z rynku powiedzmy bardziej przyziemnego czyli procesory i3, itd. Jest to zwykłe kłamstwo bo tak naprawdę właśnie te procesory szczególnie laptopowa seria Cannon Lake w 10nm dają nadzieję akcjonariuszom że coś z tego procesu jeszcze będzie, no ale jak na razie uzysk jest na tyle mały że jedyne na co intel może sobie pozwolić to niskonapięciowe i3 które i tak mają wyższe tdp, wyższy pobór energii i mniejszą wydajności niż ich odpowiedniki w 8 generacji xD Tak więc nawet chyba ten chwyt nie zadziałał co widać po spadku cen akcji intela.
Czytając różnego rodzaju teksty na TVGRY o grze Paragon, natknąłem się na falę hejtu dotyczącego tej gry. Dlaczego? Nie wiem, podejrzewam że nawet osoby piszące te komentarze nie wiedziały. Jednym z wielu argumentów było to że gra jest MOBĄ, no i co z tego ? Wiekszość z tych osób tak naprawdę chyba nigdy nie grała w tego typu gry. Pod kontem rozgrywki grę uznaje się za przewodnika gatunku, gdyż wykorzystuje mechaniki których LoL czy DotA mogły by zazdrościć. Grafika jest ładna przy okazji gra jest bardzo dobrze z optymalizowana. Nie rozumiem swoistego bólu dupy tych ludzi którzy twierdzą że Epic Games marnuje się przy tego typu produkcjach.