Radość Apple trwała krótko, król mobilnej wydajności jest w innym zamku
Tylko ze procesor apple jest wielkosci karty kredytowej i pobiera jakies 80% mniej mocy.
Tylko że procesor Apple nie musi wspierać instrukcji z 1980 roku, jak robią to procesory x86-64. Procesory Atom od Intela były jedynymi z tych, które porzucały wiele z nich i zobacz, że umiały działać na 4.5W. Tymczasem jednak od czasu do czasu programiści popisują się gówno znajomością i używają takich instrukcji, które nie tylko są mało wydajne, ale tak stare, że szkoda gadać, a architekci Intela i AMD przez to trzymają dalej te instrukcje, by zapewnić działanie.
Niestety przestarzałe elementy starej architektury trzymają x86-64 z tyłu, tak samo jak Windows'a trzymanie starych elementów systemu. Niestety żadna z tych firm nie ma tyle hajsu co Apple, by rzucić wszystko i stworzyć osobne procesory i system dla zwykłych użytkowników. A szkoda, bo oba przypadki zyskałyby. System Windows'a na wydajności przy używaniu na baterii zwykłej przeglądarki + Spotify, a procesory na cholernie mocno zmniejszonym zapotrzebowaniu na energię oraz rozmiarze całego rdzenia.
Miejmy nadzieję, że to właśnie AMD ze względu na ich modułowość będzie w stanie stworzyć procesor bez tych 'pierdół'. Dołączając aktualne rdzenie, pozbawionych staroci, do rdzenia I/O. A MS w końcu wyda swój produkt pozbawiony wsparcia x86-64 i zostawi tylko aplikacje 'Modern'.
MS w końcu wyda swój produkt pozbawiony wsparcia x86-64 i zostawi tylko aplikacje 'Modern'.
lol
Apple nie wyznaje czegoś takiego jak wsteczna kompatybilność. Co w samo w sobie jest bardzo kosztowne dla obu stron.
Nie pisałem nawet przez chwilę o rozwiązaniach serwerowych, czy workspace. (aka' biznesowych)
Niestety żadna z tych firm nie ma tyle hajsu co Apple, by rzucić wszystko i stworzyć osobne procesory i system dla zwykłych użytkowników.
Myślę, że bardziej nie da się już określić w wypowiedzi, że mówiłem o stworzeniu rozwiązania dla laptopów/PC z zastosowaniem dla kogoś, kto będzie go używał do przeglądania internetu, czy słuchania muzyki.
no ale sytuacja jest analogiczna w sektorze komputerów przeznaczonych do użytku osobistego - wciąż wymaga to zaorania wszystkiego. brzmi to utopijnie. ;)
procesor M1 jest na architekturze "ARMv8.4-A", zdajesz sobie sprawę, ze to ARM, czyli technologia sięgająca w swojej historii roku 1985? Myślisz, że wyorano z niego pierwotne instrukcje? Jeżeli tak, to z chęcią dowiem się jakie, proszę podaj mi przykład.
" Tymczasem jednak od czasu do czasu programiści popisują się gówno znajomością i używają takich instrukcji, które nie tylko są mało wydajne, ale tak stare, że szkoda gadać, a architekci Intela i AMD przez to trzymają dalej te instrukcje, by zapewnić działanie."
A to programiści w XXI wieku, a zwłaszcza w 3. dekadzie (poza twórcami kompilatorów, bo już nawet nie OSów) jakkolwiek dotykają asemblera (a może w ogóle kodu maszynowego), że używają wprost tych mitycznych "instrukcji"? Pytam, bo już nawet proste mikroprocesory w automatach do kawy mają kompilatory (a raczej cross kompilatory) które to kompilują ten kod napisany C czy C++ do ichniejszego kodu maszynowego.
Ta różnica w ilości instrukcji x86 vs ARM odbija się drastycznie na wydajności. Tłumacząc języki programowania na natywny kod binarny w x86 możesz wybrać ponad 900 różnych instrukcji, które zostały zoptymalizowane w jednym, konkretnym celu i robią to zazwyczaj w jednym cyklu zegara. Czy potrzeba aż tyle? Nie. Ale mając więcej instrukcji do wyboru i posiadając idealnie napisany software, jesteś w stanie lepiej wykorzystać ten "arsenał". Są specjalne układy cyfrowe do szybkiego mnożenia, dzielenia, pierwiastkowania, operacji na wektorach, macierzach itd.
W takim ARM masz ok. 50 instrukcji. Często brakuje nawet takich podstaw jak dzielenie, a więc musi być obsługiwane przy użyciu wielu innych instrukcji. Ergo: potrzebujesz więcej cykli zegara żeby otrzymać ten wynik, co na x86.
Dlatego dla prostych programów, jak w smartfonach czy tabletach, gdzie nie potrzebujesz dużej precyzji i nie przetwarzasz ogromnego wolumenu danych, ARM będzie zapewniał dostateczną wydajność i bardzo dobrą efektywność energetyczną.
Niestety poza casualowymi use-casami jest mnóstwo przypadków, gdzie jednak chcesz tą precyzję i wolumen zachować.
Nie, czytelnicy GOLa nie są mądrzejsi od setki inżynierów Intela/AMD/Apple próbujący rozwiązać problemy architektury od lat. To nie jest takie proste jak się wydaje człowiekowi z ulicy. Nie bez powodu ARM jest używane na rynku tzw. embeddable, a x86 w High Performance Computing. To trochę jak porównywać wagę lekką i ciężką w sportach walki - każda rządzi się swoimi prawami, każda ma swoich zwolenników i przeciwników, ale obie są potrzebne żeby zaspokoić potrzeby rynku.
Wydaje się, że najlepsza droga to hybryda RISC i CISC, do tego dedykowane układy do uczenia maszynowego, które będą optymalizować instrukcje i pamięć cache w locie. Znając życie, już coś takiego mamy, tylko nikt nie potrafi napisać software który by to wykorzystał w 100% ;)
Gdyby Intel montowałby do swoich procesorów 512-bitową szynę pamięci, nie chciałbyś widzieć jego ceny. Sam rozmiar procesora zwiększyłby się o jakieś 40-50%, a nie wspominając o koszcie płyty głównej wspierającej 8 kanałów pamięci. Dlatego tylko Apple na to stać.
AMD będzie w procesorach serwerowych Zen 4 Genoa 96/192 montować 12CH DDR5 więc nie tak hop siup, to będzie potężna wydajność dopiero.
warto wziac pod uwage ze ten alder lake 7nm to tak naprawde 10nm ESF i ciezko odniesc sie do 5nm M1
wszystko wyjdzie w praniu, jednak ja bym tam sie nie spinal, rewolucji nie bedzie ani tu ani tu.
Porównanie nie istniejącego na rynku procesora do rzeczywistego produktu. No intel się brzytwy chwyta.
Skąd wiecie, że Apple przestało się radować? Macie tam jakąś swoją wtykę czy po prostu zwykła zawiść autora psotu? :)
Podstawowe pytanie jest: Czy I9-12900HK uruchomi ISO. Bez tego opłacalność sprzętu z tym procesorem spada praktycznie do zera jeżeli mówimy o sprzęcie do pracy.
A to chodzi o wydajność? Czy o moc i temperatury? Bo jak patrzyłem na wykresy Appla jak się chwalił to wydajnością nie przebijali aż tak mocno jeśli w ogóle aktualne najlepsze CPU. Ale moc i temp była dwa razy (albo więcej) mniejsza.
Także sorry, ale jakoś mnie to nie zachwyca. Zdziwiłbym się natomiast gdyby Intel tego nie przebił - wręcz zawiódł- bo chcę kupić 12900 - mimo tego że wiem że to jest wielkie G nieoptymalne pod względem prądu i temperatur. Także brawa dla Intela że przebili wydajnością trochą XD przebijając pewno czterokrotnie pobór prądu i temperature
Applowski M1 czy M1 Max nigdy nie były królami wydajności. Miały świetne, nawet najlepsze wyniki w wybranych zastosowaniach, podkreślam wybranych. W zastosowaniach do których nie ma optymalnych instrukcji, jest zwykle o ok. połowę wolniejszy od konkurencji (bo musi najpierw przetłumaczyć instrukcje, co podwaja konieczne do wykonania operacje).
Tylko, ze jest jeden kluczowy problem. My nie wiemy jeszcze jak wydajny jest M1 Max. Dostaliśmy tylko ledwo opisane wykresy z Geekbencha 4, które są równie wiarygodne co wypowiedzi polityków.
Idealnie widać było to przy premierze M1, gdzie w zapowiedziach przedpremierowych wydajność też miała miażdżyć a okazało się, że w praktycznych zastosowaniach ta wydajność taka różowa nie jest. Tj. dalej była dobra, do tego genialna kultura pracy, niski pobór energii, ale obietnice appla co do wydajności trzeba było podzielić na pół i procek raczej plasował się na poziomie nowej i5 niż mógł konkurować z seria i7 o i9 nie wspominając. tym bardziej, że ma ten sam problem co Ryzen, tylko widoczny jeszcze bardziej, czyli solidnego multicora, ale słabego single cora, tylko na o wiele większa skalę niż u Ryzena. Stąd testy multicora w geekbenchu ustawione pod M1 wypadają świetne, ale realne zastosowania, które są miksem multi i single cora już dają mu ostro w kość.
By nie było, to dalej naprawdę udana konstrukcja i ciekawe jestem realnej wydajności M1 max, ale nie wierzę by była choćby zbliżona do zapewnień Apple.
Wbrew temu co niektórzy fanatycy piszą M1 pro/max to ewolucja, nie rewolucja, wydajność z rdzenia pozostała praktycznie ta sama, zwiększyła się tylko liczba rdzeni i pobór mocy.
Apple zrobiło to samo co wszyscy tylko dołożyło do tego swój klasyczny pr.
Nie mam z tym problemu ale nie rozumiem czemu przedstawia się pro/max jako kamienie milowe technologii (tak naprawdę rozumiem - to Apple)
Spodziewam się przyrostu wydajności w aplikacjach wynikającego z dodatkowych rdzeni i tyle.
Nie bardzo jednak rozumiem sens porownywania tych procesorów. Trzeba poczekać na systemy na nich zbudowane i wtedy coś będzie wiadomo. Geekbench jest kompletnie niemiarodajny.
Apple jest dla szpanu, próżności i pokazywania na zewnątrz, ze jest się bogaty, a nie od wydajności czy użyteczności.
To ma być do lansu, do pracy jest wół roboczy pecet, a nie zabawka kilka x przeplacona.
Oczywiście szpaner, ktory na tym pracuje powie Ci, ze to nieprawda, gdyz jest bogaty.
Tak samo kierowca suva BMW czy Audi tez nie powie, ze to auto dla szpanu, ale to nie zmienia faktu, ze tak wlasnie jest.
99% ludzi an świecie nie stac na takie szpanerskie zabawki.
1% bogaczy sie bawi.
Dla szpanu, moze jest kiedy w domu jesz codziennie zupe z chlebem zeby sobie kupic, ale sa ludzie ktorzy kupuja bo po prostu moga i nie jest to dla nich zaden powod do dumy, PR apple jest mocno stargetowany na "indywidualnosc i kreatywnosc" a takimi lubia byc postrzegani ludzie zarabiajacy powyzej sredniej.
Kiedyś spotkałem się z określeniem, że na Apple się robi najlepiej filmy itp., że czas zaoszczędzony na tych pracach dzięki Apple wynagradza te kilka tysięcy które przepłacili. Szkoda tylko, że każda z tych osób porównuje te komputery do jakiś niskich półek, które nadają się tylko do przeglądania internetu i kosztują promil ceny Apple. Ale jak już zapłaciłeś fortunę, to nie wypada mówić, że coś jest średnie lub poprostu OK.
W produktach tej firmy płaci sie za oprogramowanie czyli system. To jest największa zaleta, za którą każdy kto używa sprzętu do pracy jest wstanie zapłacić masę kasy, bo jak sam wspomniałeś - oszczędza to dużo czasu. Żadna konkurencja nie ma takiego systemu, dlatego ludzie wybierają appla.
Możesz robić dokładnie to samo na laptopie, komputerze, tablecie i telefonie, bez utraty funkcji danych programów. Bez potrzeby zakładania dziesiątek kont, instalowania wielu programów itd. Robiąc coś na telefonie od Appla od razu możesz przeskoczyć na laptopa i kontynuować prace, nie czując różnicy w funkcjonalności.
Microsoft coś próbował kiedyś z Windows Mobile, ale im nie wyszło. Obecnie Apple pod tym względem nie ma żadnej konkurencji.
Między Androidem a Windowsem nawet głupi mesenger z FB się nie synchronizuje, a co dopiero jakieś programy do większej obróbki. Nauczyciel na uczelni w jednej chwili może całej kasie wysłać materiały i razem nad nimi pracować. Nie jest to możliwe na widnwosie bez kombinowania. Bo windows nie ma synchronizacji miedzy urządzeniami.
Ile na baterii wytrzyma i czy na baterii ta sama wydajność co na kablu? Miałem kiedyś Zbooka HP i fajny zasilacz miał wielkości cegły. Mobilny to on niezbyt był. A to jednak laptop. Do tego te Intele desktopowe, a laptopowe to jest trochę spora różnica.