Desktopowe procesory Intela 10 nm dopiero w 2022 roku?
W sieci pojawiły się infografiki mające przedstawiać plany Intela dotyczące nadchodzących generacji procesorów. Wynika z nich, że na desktopowe CPU wyprodukowane w 10-nanometrowym procesie technologicznym możemy poczekać aż do 2022 roku.

Wczoraj byliśmy świadkami premiery kilkudziesięciu nowych procesorów Intela dziewiątej generacji, czyli Coffee Lake Refresh, a dziś otrzymaliśmy nieoficjalne informacje na temat planów koncernu z Santa Clara, odnoszących się do rozwoju procesorów desktopowych oraz mobilnych. Wieści pochodzą z udostępnionej przez anonimowe źródło prezentacji firmy Dell, a opublikowane tabele wyglądają bardzo wiarygodnie.
Dane zawarte w infografikach pokazują, że niewiele wskazuje na to, by Intel w ciągu najbliższych trzech lat zaprezentował nowe CPU przeznaczone do komputerów osobistych oparte o 10-nanometrowy proces technologiczny. W przyszłym roku do sklepów mają trafić nawet 10-rdzeniowe procesory Comet Lake-S, a w połowie 2021 roku – Rocket Lake-S. Szkopuł w tym, że obydwie generacje wciąż będą bazować na litografii 14 nm. Szansa na to, by do sklepów trafiły modele oparte o proces 10 nm, najprawdopodobniej pojawi się dopiero w 2022 roku – wtedy miałaby nastąpić premiera procesorów Ocean Cove, mających stanowić przeskok na 10 nm.
Inaczej wygląda sytuacja, jeśli weźmiemy pod uwagę plany Intela w odniesieniu do mobilnych procesorów, tj. modeli stosowanych m.in. w laptopach. Pierwsze CPU wykonane w 10-nanometrowym procesie technologicznym mają pojawić się już w te wakacje – mowa o niskonapięciowych układach z rodzin Ice Lake-U oraz Ice Lake-Y, jednak (co sugeruje tabela) będą one dostępne tylko w ograniczonych ilościach. Wprowadzenie nowej litografii w kontekście mobilnych procesorów na szerszą skalę ma nastąpić w połowie 2020 roku, wraz z premierą modeli z rodzin Tiger Lake-Y oraz Tiger-Lake-U.
Warto wspomnieć, że AMD zamierza już w tym roku zaprezentować pierwsze CPU z rodziny Ryzen 3000 wyprodukowane w 7-nanometrowym procesie technologicznym, które mają składać się nawet z 12 rdzeni.
Komentarze czytelników
mirko81 Legend

Nie wiem czemu takie parcie na te nm. Wystarczy na pare lat ok 20 przy 8/16 5Ghz. Dla paru Wat mocy? Gdy reszta kompa zasysa 200-300
Likfidator Senator
Tylko, że z procesu technologicznego niewiele wynika tak naprawdę. 7 nm to póki co bardziej marketing niż realny zysk. Intel na 14 nm osiągnął większą gęstość tranzystorów niż Apple czy Samsung na 7 nm. Korzyści z takich 7 nm to tylko niższy pobór energii, co dla mobilnych ma znaczenie, ale w desktopach znacznie mniejsze.
Co więcej AMD na 12 nm nie wygrało z Haswellem na 22 nm. Jedyne co ratuje AMD to liczba rdzeni, ale IPC jest gdzieś na poziomie serii 2xxx od Intela. W bardzo sprzyjających warunkach dorównuje Haswellowi.
Zobaczymy co pokaże AMD na 7 nm, ale przecieki mówiące o większej liczby rdzeni na starych półkach cenowych pozwalają przypuszczać, że IPC wciąż będzie za intelem. Samo zwiększanie rdzeni to też jakaś droga rozwoju i na pewno wywrze wielką presję na Intelu, szczególnie gdy wejdą nowe konsole na Ryzenach.
Wszystkie firmy produkujące procesory dostrzegły, że przyszłość będzie należeć do procesorów opartych o chiplety. Założenie jest takie, by podzielić procesor na jak najwięcej małych i niezależnych chipletów. Pozwoli to pozbyć się problemu niskiego uzysku CPU, z którym tak zmaga się Intel. Obecnie zbyt wielki procent wytwarzanych procesorów jest po prostu niesprawne. Dzięki chipletom, niesprawne jednostki będą mogły być konfigurowane jako procesory low-endowe z niewielką ilością rdzeni.
Kwestią czasu jest, gdy x86 zaadaptuje rdzenie o różnej wydajności. Będziemy mieć 1-4 rdzenie o wysokiej wydajności jednordzeniowej oraz 16-128+ rdzeni o niskiej wydajności, gdzie ich wielka liczba przełoży się na wielką wydajność.
Takie rozwiązanie ma sens, bo algorytmy, które dobrze dzielą się na 3+ rdzenie, mogą najczęściej równie dobrze działać na setkach, tysiącach itd. rdzeni. Czego najlepszym przykładem są GPU, gdzie tysiące rdzeni wykonuje pewne obliczenia o kilka rzędów wielkości wydajniej niż CPU.
Piotr44 Generał

Slajdy z listopada zeszłego roku. Już wiemy sporo z informacji na tych slajdach się zdezaktualizowało albo od początku było picem. Ciekawe ile razy je jeszcze ktoś wyciągnie? :-/