W sieci pojawiły się infografiki mające przedstawiać plany Intela dotyczące nadchodzących generacji procesorów. Wynika z nich, że na desktopowe CPU wyprodukowane w 10-nanometrowym procesie technologicznym możemy poczekać aż do 2022 roku.
Tech
Amadeusz Cyganek
25 kwietnia 2019
Czytaj Więcej
Nie wiem czemu takie parcie na te nm. Wystarczy na pare lat ok 20 przy 8/16 5Ghz. Dla paru Wat mocy? Gdy reszta kompa zasysa 200-300
PIII konczył się na 800 mhz.
^ Akurat od 2 generacji Intel Core i3, i5 i i7 nie było duże postępy, jeśli chodzi o skok wydajności dla gier poza zmniejszenie poboru prądu. Różnicy pomiędzy generacji procesory są naprawdę znikome za wyjątkiem możliwość obsługi pamięci DDR4. Wystarczy tylko wymienić karta graficzna, dysk HDD na SSD i po sprawie. Dopiero od 8 generacji zyskują dodatkowe rdzeni, co mają znaczenie dla gier.
Na pewno powtórzą te same strategie.
Tylko, że z procesu technologicznego niewiele wynika tak naprawdę. 7 nm to póki co bardziej marketing niż realny zysk. Intel na 14 nm osiągnął większą gęstość tranzystorów niż Apple czy Samsung na 7 nm. Korzyści z takich 7 nm to tylko niższy pobór energii, co dla mobilnych ma znaczenie, ale w desktopach znacznie mniejsze.
Co więcej AMD na 12 nm nie wygrało z Haswellem na 22 nm. Jedyne co ratuje AMD to liczba rdzeni, ale IPC jest gdzieś na poziomie serii 2xxx od Intela. W bardzo sprzyjających warunkach dorównuje Haswellowi.
Zobaczymy co pokaże AMD na 7 nm, ale przecieki mówiące o większej liczby rdzeni na starych półkach cenowych pozwalają przypuszczać, że IPC wciąż będzie za intelem. Samo zwiększanie rdzeni to też jakaś droga rozwoju i na pewno wywrze wielką presję na Intelu, szczególnie gdy wejdą nowe konsole na Ryzenach.
Wszystkie firmy produkujące procesory dostrzegły, że przyszłość będzie należeć do procesorów opartych o chiplety. Założenie jest takie, by podzielić procesor na jak najwięcej małych i niezależnych chipletów. Pozwoli to pozbyć się problemu niskiego uzysku CPU, z którym tak zmaga się Intel. Obecnie zbyt wielki procent wytwarzanych procesorów jest po prostu niesprawne. Dzięki chipletom, niesprawne jednostki będą mogły być konfigurowane jako procesory low-endowe z niewielką ilością rdzeni.
Kwestią czasu jest, gdy x86 zaadaptuje rdzenie o różnej wydajności. Będziemy mieć 1-4 rdzenie o wysokiej wydajności jednordzeniowej oraz 16-128+ rdzeni o niskiej wydajności, gdzie ich wielka liczba przełoży się na wielką wydajność.
Takie rozwiązanie ma sens, bo algorytmy, które dobrze dzielą się na 3+ rdzenie, mogą najczęściej równie dobrze działać na setkach, tysiącach itd. rdzeni. Czego najlepszym przykładem są GPU, gdzie tysiące rdzeni wykonuje pewne obliczenia o kilka rzędów wielkości wydajniej niż CPU.
Ło Jezusisku, ale bełkot. Z procesu technologicznego wynika na tyle sporo, że Samsung chce w to władować 110 mld dolarów przez najbliższe 10 lat. Ale mędrek internetowy wie swoje.
Porównywanie układów low-energy Appla do procesorów konsumenckich Intela to właśnie przykład tego bełkotu.
A to, że 7 nm ma teoretyczną gęstość 83 MTr/mm2 vs intelowskie 37.5 MTr/mm2 na 14 nm to można sprawdzić nawet w wikipedii, a nie pisać bzdur o większej gęstości procesu Intela.
Małe znaczenie w desktopach? Rozumiem, że targanie z sobą przemysłowych chłodziarek, żeby schłodzić procesory taktowane 5 GHz to wedle ciebie prawdziwa przyszłość, i nic poza 14 nm nam nie jest potrzebne. W końcu intel zaprezentował, że się da przemysłową chłodziarką schłodzić taki 28 rdzeniowy procesor na czas potrzebny do odpalenia Cinebencha. A może i9-9900K na zwykłych 8 rdzeniach trotlujący co chwilę na słabszych płytach to też przyszłość?
Akurat Haswelle to są już w tyle za Zen+. Nie są nawet taktowane wyżej. A IPC Zen+ jest już na poziomie Coffe Lake. Link do porównania https://digiworthy.com/2018/06/14/amd-ryzen-intel-coffee-lake-ipc/. Cokolwiek wprowadzi Zen 2 pozwoli de facto AMD przeskoczyć Intela (świat się kończy).
Chiplety to aktualnie architektura AMD, Intel nie ma nic takiego, nawet w oficjalnych planach na ten moment. Dla obu firm następny krok to stacking 3D, a nie żadne mieszanie rdzeni wydajnych i mniej wydajnych. Zresztą masz to już dawno w dzisiejszych procesorach, gdzie boost jest tylko na 1-2 rdzeniach maksymalnie.