Radość Apple trwała krótko, król mobilnej wydajności jest w innym zamku
Procesor Apple M1 Max miał wyznaczyć nową jakość w komputerach mobilnych i potwierdzić słuszność decyzji o rozstaniu z Intelem. Pierwsze benchmarki Intel Core i9 12900HK zdają się temu przeczyć.

Apple w czasie prezentacji nowych Macbooków Pro pokazało światu procesory M1 Pro i M1 Max. Ten drugi kreowany był na bezkonkurencyjnego króla wydajności w mobilnych komputerach. Pierwsze benchmarki Intel Core i9 12900HK, do których dotarł serwis Wccftech, pokazują jednak, że nadchodzący procesor „Niebieskich" będzie godnym rywalem M1 Max.
Może Cię zainteresować:
- Apple M1 Pro i M1 Max - nowe układy o mocy RTX 2080 i PS5
- Apple i Microsoft wchodzą na nowe rynki, a bitcoin trafia do kotła
- Część gier nie ruszy na nowych procesorach Intela, winne zabezpieczenia DRM
W wydajności jednowątkowej Intel Core i9 12900HK z wynikiem 1851 punktów ma być o 14,5% wydajniejszy od swojego poprzednika, Core i9 11980HK. W stosunku do topowego układu od Apple wydajność będzie wyższa o 3,7%. Niewiele, ale wystarczająco do celów marketingowych.

W kwestii wydajności wielowątkowej różnica pomiędzy 11. i 12. generacją mobilnych procesorów Intela jest większa i wynosi aż 45%. Core i9 12900HK osiągnął 13256 punktów. To fantastyczny wynik, który pokazuje, jak ogromny wysiłek musiał zostać włożony, by przebić Apple M1 Max o skromne 3,94%.

Rynek superwydajnych procesorów mobilnych jest dość specyficzny. Dla graczy często większe znaczenie ma karta graficzna, wielu profesjonalistów wybierze rozwiązanie stacjonarne ze względu na wygodniejszą pracę. Nisza jest jednak dość prestiżowa, a tytuł króla mobilnej wydajności zdaje się mieć znaczenie bardziej wizerunkowe niż ekonomiczne. Tym gorzej dla Apple, że zasiada w innym, niebieskim zamku.
Więcej:Graficzny lifting i gry aż do 2030 roku. Teraleak znów zdradza plany rozwoju serii Pokemon
Komentarze czytelników
Airwaves Chorąży

Ta różnica w ilości instrukcji x86 vs ARM odbija się drastycznie na wydajności. Tłumacząc języki programowania na natywny kod binarny w x86 możesz wybrać ponad 900 różnych instrukcji, które zostały zoptymalizowane w jednym, konkretnym celu i robią to zazwyczaj w jednym cyklu zegara. Czy potrzeba aż tyle? Nie. Ale mając więcej instrukcji do wyboru i posiadając idealnie napisany software, jesteś w stanie lepiej wykorzystać ten "arsenał". Są specjalne układy cyfrowe do szybkiego mnożenia, dzielenia, pierwiastkowania, operacji na wektorach, macierzach itd.
W takim ARM masz ok. 50 instrukcji. Często brakuje nawet takich podstaw jak dzielenie, a więc musi być obsługiwane przy użyciu wielu innych instrukcji. Ergo: potrzebujesz więcej cykli zegara żeby otrzymać ten wynik, co na x86.
Dlatego dla prostych programów, jak w smartfonach czy tabletach, gdzie nie potrzebujesz dużej precyzji i nie przetwarzasz ogromnego wolumenu danych, ARM będzie zapewniał dostateczną wydajność i bardzo dobrą efektywność energetyczną.
Niestety poza casualowymi use-casami jest mnóstwo przypadków, gdzie jednak chcesz tą precyzję i wolumen zachować.
Nie, czytelnicy GOLa nie są mądrzejsi od setki inżynierów Intela/AMD/Apple próbujący rozwiązać problemy architektury od lat. To nie jest takie proste jak się wydaje człowiekowi z ulicy. Nie bez powodu ARM jest używane na rynku tzw. embeddable, a x86 w High Performance Computing. To trochę jak porównywać wagę lekką i ciężką w sportach walki - każda rządzi się swoimi prawami, każda ma swoich zwolenników i przeciwników, ale obie są potrzebne żeby zaspokoić potrzeby rynku.
Wydaje się, że najlepsza droga to hybryda RISC i CISC, do tego dedykowane układy do uczenia maszynowego, które będą optymalizować instrukcje i pamięć cache w locie. Znając życie, już coś takiego mamy, tylko nikt nie potrafi napisać software który by to wykorzystał w 100% ;)
Farenhite Pretorianin
W produktach tej firmy płaci sie za oprogramowanie czyli system. To jest największa zaleta, za którą każdy kto używa sprzętu do pracy jest wstanie zapłacić masę kasy, bo jak sam wspomniałeś - oszczędza to dużo czasu. Żadna konkurencja nie ma takiego systemu, dlatego ludzie wybierają appla.
Możesz robić dokładnie to samo na laptopie, komputerze, tablecie i telefonie, bez utraty funkcji danych programów. Bez potrzeby zakładania dziesiątek kont, instalowania wielu programów itd. Robiąc coś na telefonie od Appla od razu możesz przeskoczyć na laptopa i kontynuować prace, nie czując różnicy w funkcjonalności.
Microsoft coś próbował kiedyś z Windows Mobile, ale im nie wyszło. Obecnie Apple pod tym względem nie ma żadnej konkurencji.
Między Androidem a Windowsem nawet głupi mesenger z FB się nie synchronizuje, a co dopiero jakieś programy do większej obróbki. Nauczyciel na uczelni w jednej chwili może całej kasie wysłać materiały i razem nad nimi pracować. Nie jest to możliwe na widnwosie bez kombinowania. Bo windows nie ma synchronizacji miedzy urządzeniami.
Szaku Generał

Ile na baterii wytrzyma i czy na baterii ta sama wydajność co na kablu? Miałem kiedyś Zbooka HP i fajny zasilacz miał wielkości cegły. Mobilny to on niezbyt był. A to jednak laptop. Do tego te Intele desktopowe, a laptopowe to jest trochę spora różnica.
Goldbaum Legionista
procesor M1 jest na architekturze "ARMv8.4-A", zdajesz sobie sprawę, ze to ARM, czyli technologia sięgająca w swojej historii roku 1985? Myślisz, że wyorano z niego pierwotne instrukcje? Jeżeli tak, to z chęcią dowiem się jakie, proszę podaj mi przykład.
" Tymczasem jednak od czasu do czasu programiści popisują się gówno znajomością i używają takich instrukcji, które nie tylko są mało wydajne, ale tak stare, że szkoda gadać, a architekci Intela i AMD przez to trzymają dalej te instrukcje, by zapewnić działanie."
A to programiści w XXI wieku, a zwłaszcza w 3. dekadzie (poza twórcami kompilatorów, bo już nawet nie OSów) jakkolwiek dotykają asemblera (a może w ogóle kodu maszynowego), że używają wprost tych mitycznych "instrukcji"? Pytam, bo już nawet proste mikroprocesory w automatach do kawy mają kompilatory (a raczej cross kompilatory) które to kompilują ten kod napisany C czy C++ do ichniejszego kodu maszynowego.
Gramford Junior
Kiedyś spotkałem się z określeniem, że na Apple się robi najlepiej filmy itp., że czas zaoszczędzony na tych pracach dzięki Apple wynagradza te kilka tysięcy które przepłacili. Szkoda tylko, że każda z tych osób porównuje te komputery do jakiś niskich półek, które nadają się tylko do przeglądania internetu i kosztują promil ceny Apple. Ale jak już zapłaciłeś fortunę, to nie wypada mówić, że coś jest średnie lub poprostu OK.