Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie Radość Apple trwała krótko, król mobilnej wydajności jest w innym zamku

25.10.2021 20:43
1
1
Truskawa1991
62
Pretorianin

To teraz ciekawe jak z poborem mocy w obu przypadkach.

25.10.2021 20:44
Bociek69
2
2
odpowiedz
8 odpowiedzi
Bociek69
38
Byle do Wiosny

Tylko ze procesor apple jest wielkosci karty kredytowej i pobiera jakies 80% mniej mocy.

25.10.2021 21:10
2.1
1
FighterFighter
37
Pretorianin

Tylko że procesor Apple nie musi wspierać instrukcji z 1980 roku, jak robią to procesory x86-64. Procesory Atom od Intela były jedynymi z tych, które porzucały wiele z nich i zobacz, że umiały działać na 4.5W. Tymczasem jednak od czasu do czasu programiści popisują się gówno znajomością i używają takich instrukcji, które nie tylko są mało wydajne, ale tak stare, że szkoda gadać, a architekci Intela i AMD przez to trzymają dalej te instrukcje, by zapewnić działanie.

Niestety przestarzałe elementy starej architektury trzymają x86-64 z tyłu, tak samo jak Windows'a trzymanie starych elementów systemu. Niestety żadna z tych firm nie ma tyle hajsu co Apple, by rzucić wszystko i stworzyć osobne procesory i system dla zwykłych użytkowników. A szkoda, bo oba przypadki zyskałyby. System Windows'a na wydajności przy używaniu na baterii zwykłej przeglądarki + Spotify, a procesory na cholernie mocno zmniejszonym zapotrzebowaniu na energię oraz rozmiarze całego rdzenia.

Miejmy nadzieję, że to właśnie AMD ze względu na ich modułowość będzie w stanie stworzyć procesor bez tych 'pierdół'. Dołączając aktualne rdzenie, pozbawionych staroci, do rdzenia I/O. A MS w końcu wyda swój produkt pozbawiony wsparcia x86-64 i zostawi tylko aplikacje 'Modern'.

post wyedytowany przez FighterFighter 2021-10-25 21:15:56
25.10.2021 22:11
vlaskk
2.2
vlaskk
63
Pretorianin

FighterFighter - urwałeś się z kosmosu :) Pozbycie się starych instrukcji oznacza katastrofę sprzedażową. Nikt nie będzie inwestował w jednostki centralne pozbawione wstecznej kompatybilności, bo świat nie składa się z Jezusów, którzy chcą dogodzić freakom wąsko-myślącym. Z punktu widzenia biznesowego nikt nie będzie audytował środowiska i poświęcał masę pieniędzy tylko po to, by zweryfikować czy upgrade infrastruktury o nowe jednostki nie zrobi firmie "kuku".

25.10.2021 23:16
😂
2.3
Iutz
6
Generał

MS w końcu wyda swój produkt pozbawiony wsparcia x86-64 i zostawi tylko aplikacje 'Modern'.

lol

25.10.2021 23:25
keeper_4chan
😜
2.4
1
keeper_4chan
104
Generał

Apple nie wyznaje czegoś takiego jak wsteczna kompatybilność. Co w samo w sobie jest bardzo kosztowne dla obu stron.

post wyedytowany przez keeper_4chan 2021-10-25 23:26:27
26.10.2021 10:50
2.5
FighterFighter
37
Pretorianin

vlaskk Z punktu widzenia biznesowego
Nie pisałem nawet przez chwilę o rozwiązaniach serwerowych, czy workspace. (aka' biznesowych)
Niestety żadna z tych firm nie ma tyle hajsu co Apple, by rzucić wszystko i stworzyć osobne procesory i system dla zwykłych użytkowników.
Myślę, że bardziej nie da się już określić w wypowiedzi, że mówiłem o stworzeniu rozwiązania dla laptopów/PC z zastosowaniem dla kogoś, kto będzie go używał do przeglądania internetu, czy słuchania muzyki.

26.10.2021 11:03
vlaskk
2.6
vlaskk
63
Pretorianin

FighterFighter
no ale sytuacja jest analogiczna w sektorze komputerów przeznaczonych do użytku osobistego - wciąż wymaga to zaorania wszystkiego. brzmi to utopijnie. ;)

26.10.2021 12:07
2.7
2
Goldbaum
21
Legionista

FighterFighter

procesor M1 jest na architekturze "ARMv8.4-A", zdajesz sobie sprawę, ze to ARM, czyli technologia sięgająca w swojej historii roku 1985? Myślisz, że wyorano z niego pierwotne instrukcje? Jeżeli tak, to z chęcią dowiem się jakie, proszę podaj mi przykład.

" Tymczasem jednak od czasu do czasu programiści popisują się gówno znajomością i używają takich instrukcji, które nie tylko są mało wydajne, ale tak stare, że szkoda gadać, a architekci Intela i AMD przez to trzymają dalej te instrukcje, by zapewnić działanie."

A to programiści w XXI wieku, a zwłaszcza w 3. dekadzie (poza twórcami kompilatorów, bo już nawet nie OSów) jakkolwiek dotykają asemblera (a może w ogóle kodu maszynowego), że używają wprost tych mitycznych "instrukcji"? Pytam, bo już nawet proste mikroprocesory w automatach do kawy mają kompilatory (a raczej cross kompilatory) które to kompilują ten kod napisany C czy C++ do ichniejszego kodu maszynowego.

26.10.2021 22:20
Airwaves
2.8
1
Airwaves
7
Chorąży

FighterFighter Informatyki to ty nie ukończyłeś ;)

Ta różnica w ilości instrukcji x86 vs ARM odbija się drastycznie na wydajności. Tłumacząc języki programowania na natywny kod binarny w x86 możesz wybrać ponad 900 różnych instrukcji, które zostały zoptymalizowane w jednym, konkretnym celu i robią to zazwyczaj w jednym cyklu zegara. Czy potrzeba aż tyle? Nie. Ale mając więcej instrukcji do wyboru i posiadając idealnie napisany software, jesteś w stanie lepiej wykorzystać ten "arsenał". Są specjalne układy cyfrowe do szybkiego mnożenia, dzielenia, pierwiastkowania, operacji na wektorach, macierzach itd.

W takim ARM masz ok. 50 instrukcji. Często brakuje nawet takich podstaw jak dzielenie, a więc musi być obsługiwane przy użyciu wielu innych instrukcji. Ergo: potrzebujesz więcej cykli zegara żeby otrzymać ten wynik, co na x86.

Dlatego dla prostych programów, jak w smartfonach czy tabletach, gdzie nie potrzebujesz dużej precyzji i nie przetwarzasz ogromnego wolumenu danych, ARM będzie zapewniał dostateczną wydajność i bardzo dobrą efektywność energetyczną.

Niestety poza casualowymi use-casami jest mnóstwo przypadków, gdzie jednak chcesz tą precyzję i wolumen zachować.

Nie, czytelnicy GOLa nie są mądrzejsi od setki inżynierów Intela/AMD/Apple próbujący rozwiązać problemy architektury od lat. To nie jest takie proste jak się wydaje człowiekowi z ulicy. Nie bez powodu ARM jest używane na rynku tzw. embeddable, a x86 w High Performance Computing. To trochę jak porównywać wagę lekką i ciężką w sportach walki - każda rządzi się swoimi prawami, każda ma swoich zwolenników i przeciwników, ale obie są potrzebne żeby zaspokoić potrzeby rynku.

Wydaje się, że najlepsza droga to hybryda RISC i CISC, do tego dedykowane układy do uczenia maszynowego, które będą optymalizować instrukcje i pamięć cache w locie. Znając życie, już coś takiego mamy, tylko nikt nie potrafi napisać software który by to wykorzystał w 100% ;)

25.10.2021 21:16
😂
3
odpowiedz
4 odpowiedzi
Iutz
6
Generał

A jak tam z wydajnoscia graphic cores w intelu?

25.10.2021 21:22
3.1
FighterFighter
37
Pretorianin

Gdyby Intel montowałby do swoich procesorów 512-bitową szynę pamięci, nie chciałbyś widzieć jego ceny. Sam rozmiar procesora zwiększyłby się o jakieś 40-50%, a nie wspominając o koszcie płyty głównej wspierającej 8 kanałów pamięci. Dlatego tylko Apple na to stać.

25.10.2021 22:49
Uruk-Hai666
3.2
Uruk-Hai666
45
Generał

AMD będzie w procesorach serwerowych Zen 4 Genoa 96/192 montować 12CH DDR5 więc nie tak hop siup, to będzie potężna wydajność dopiero.

25.10.2021 23:15
3.3
Iutz
6
Generał

warto wziac pod uwage ze ten alder lake 7nm to tak naprawde 10nm ESF i ciezko odniesc sie do 5nm M1

wszystko wyjdzie w praniu, jednak ja bym tam sie nie spinal, rewolucji nie bedzie ani tu ani tu.

25.10.2021 23:31
WolfDale
3.4
WolfDale
74
Sztuczny Wytwór Forumowy

Oczywiście że nie ma, ale fani Intela jak i Apple już w ekstazie pomalowali na biało swoje pomieszczenie przy komputerze.

25.10.2021 22:36
4
odpowiedz
zanonimizowany1358724
7
Pretorianin

Porównanie nie istniejącego na rynku procesora do rzeczywistego produktu. No intel się brzytwy chwyta.

25.10.2021 23:24
5
odpowiedz
Farenhite
13
Pretorianin

Skąd wiecie, że Apple przestało się radować? Macie tam jakąś swoją wtykę czy po prostu zwykła zawiść autora psotu? :)
Podstawowe pytanie jest: Czy I9-12900HK uruchomi ISO. Bez tego opłacalność sprzętu z tym procesorem spada praktycznie do zera jeżeli mówimy o sprzęcie do pracy.

26.10.2021 08:12
6
odpowiedz
zanonimizowany1343770
18
Generał

A to chodzi o wydajność? Czy o moc i temperatury? Bo jak patrzyłem na wykresy Appla jak się chwalił to wydajnością nie przebijali aż tak mocno jeśli w ogóle aktualne najlepsze CPU. Ale moc i temp była dwa razy (albo więcej) mniejsza.
Także sorry, ale jakoś mnie to nie zachwyca. Zdziwiłbym się natomiast gdyby Intel tego nie przebił - wręcz zawiódł- bo chcę kupić 12900 - mimo tego że wiem że to jest wielkie G nieoptymalne pod względem prądu i temperatur. Także brawa dla Intela że przebili wydajnością trochą XD przebijając pewno czterokrotnie pobór prądu i temperature

26.10.2021 08:56
7
odpowiedz
krykry
42
Generał

Applowski M1 czy M1 Max nigdy nie były królami wydajności. Miały świetne, nawet najlepsze wyniki w wybranych zastosowaniach, podkreślam wybranych. W zastosowaniach do których nie ma optymalnych instrukcji, jest zwykle o ok. połowę wolniejszy od konkurencji (bo musi najpierw przetłumaczyć instrukcje, co podwaja konieczne do wykonania operacje).

26.10.2021 09:15
elathir
8
odpowiedz
elathir
97
Czymże jest nuda?

Tylko, ze jest jeden kluczowy problem. My nie wiemy jeszcze jak wydajny jest M1 Max. Dostaliśmy tylko ledwo opisane wykresy z Geekbencha 4, które są równie wiarygodne co wypowiedzi polityków.

Idealnie widać było to przy premierze M1, gdzie w zapowiedziach przedpremierowych wydajność też miała miażdżyć a okazało się, że w praktycznych zastosowaniach ta wydajność taka różowa nie jest. Tj. dalej była dobra, do tego genialna kultura pracy, niski pobór energii, ale obietnice appla co do wydajności trzeba było podzielić na pół i procek raczej plasował się na poziomie nowej i5 niż mógł konkurować z seria i7 o i9 nie wspominając. tym bardziej, że ma ten sam problem co Ryzen, tylko widoczny jeszcze bardziej, czyli solidnego multicora, ale słabego single cora, tylko na o wiele większa skalę niż u Ryzena. Stąd testy multicora w geekbenchu ustawione pod M1 wypadają świetne, ale realne zastosowania, które są miksem multi i single cora już dają mu ostro w kość.

By nie było, to dalej naprawdę udana konstrukcja i ciekawe jestem realnej wydajności M1 max, ale nie wierzę by była choćby zbliżona do zapewnień Apple.

post wyedytowany przez elathir 2021-10-26 09:45:40
26.10.2021 09:43
9
odpowiedz
Iutz
6
Generał

Wbrew temu co niektórzy fanatycy piszą M1 pro/max to ewolucja, nie rewolucja, wydajność z rdzenia pozostała praktycznie ta sama, zwiększyła się tylko liczba rdzeni i pobór mocy.
Apple zrobiło to samo co wszyscy tylko dołożyło do tego swój klasyczny pr.
Nie mam z tym problemu ale nie rozumiem czemu przedstawia się pro/max jako kamienie milowe technologii (tak naprawdę rozumiem - to Apple)

Spodziewam się przyrostu wydajności w aplikacjach wynikającego z dodatkowych rdzeni i tyle.
Nie bardzo jednak rozumiem sens porownywania tych procesorów. Trzeba poczekać na systemy na nich zbudowane i wtedy coś będzie wiadomo. Geekbench jest kompletnie niemiarodajny.

post wyedytowany przez Iutz 2021-10-26 09:44:19
26.10.2021 10:31
10
odpowiedz
3 odpowiedzi
zanonimizowany1359977
9
Senator

Apple jest dla szpanu, próżności i pokazywania na zewnątrz, ze jest się bogaty, a nie od wydajności czy użyteczności.
To ma być do lansu, do pracy jest wół roboczy pecet, a nie zabawka kilka x przeplacona.

Oczywiście szpaner, ktory na tym pracuje powie Ci, ze to nieprawda, gdyz jest bogaty.
Tak samo kierowca suva BMW czy Audi tez nie powie, ze to auto dla szpanu, ale to nie zmienia faktu, ze tak wlasnie jest.
99% ludzi an świecie nie stac na takie szpanerskie zabawki.
1% bogaczy sie bawi.

26.10.2021 11:17
10.1
Iutz
6
Generał

Dla szpanu, moze jest kiedy w domu jesz codziennie zupe z chlebem zeby sobie kupic, ale sa ludzie ktorzy kupuja bo po prostu moga i nie jest to dla nich zaden powod do dumy, PR apple jest mocno stargetowany na "indywidualnosc i kreatywnosc" a takimi lubia byc postrzegani ludzie zarabiajacy powyzej sredniej.

26.10.2021 11:19
10.2
Gramford
3
Junior

Kiedyś spotkałem się z określeniem, że na Apple się robi najlepiej filmy itp., że czas zaoszczędzony na tych pracach dzięki Apple wynagradza te kilka tysięcy które przepłacili. Szkoda tylko, że każda z tych osób porównuje te komputery do jakiś niskich półek, które nadają się tylko do przeglądania internetu i kosztują promil ceny Apple. Ale jak już zapłaciłeś fortunę, to nie wypada mówić, że coś jest średnie lub poprostu OK.

26.10.2021 20:07
10.3
Farenhite
13
Pretorianin

Gramford w sprzęcie Appla nie o samą moc chodzi. Dlatego nie wiem gdzie widziałeś opnie, które porównywały produkty Appla do jakiejś tandety. Jak ktoś porównywał w taki sposób, to na pewno nie ma ich produktów, bo są lepsze, tylko dla szpanu właśnie.
W produktach tej firmy płaci sie za oprogramowanie czyli system. To jest największa zaleta, za którą każdy kto używa sprzętu do pracy jest wstanie zapłacić masę kasy, bo jak sam wspomniałeś - oszczędza to dużo czasu. Żadna konkurencja nie ma takiego systemu, dlatego ludzie wybierają appla.
Możesz robić dokładnie to samo na laptopie, komputerze, tablecie i telefonie, bez utraty funkcji danych programów. Bez potrzeby zakładania dziesiątek kont, instalowania wielu programów itd. Robiąc coś na telefonie od Appla od razu możesz przeskoczyć na laptopa i kontynuować prace, nie czując różnicy w funkcjonalności.
Microsoft coś próbował kiedyś z Windows Mobile, ale im nie wyszło. Obecnie Apple pod tym względem nie ma żadnej konkurencji.
Między Androidem a Windowsem nawet głupi mesenger z FB się nie synchronizuje, a co dopiero jakieś programy do większej obróbki. Nauczyciel na uczelni w jednej chwili może całej kasie wysłać materiały i razem nad nimi pracować. Nie jest to możliwe na widnwosie bez kombinowania. Bo windows nie ma synchronizacji miedzy urządzeniami.

26.10.2021 13:39
Szaku
11
odpowiedz
Szaku
167
El Grande Padre

Ile na baterii wytrzyma i czy na baterii ta sama wydajność co na kablu? Miałem kiedyś Zbooka HP i fajny zasilacz miał wielkości cegły. Mobilny to on niezbyt był. A to jednak laptop. Do tego te Intele desktopowe, a laptopowe to jest trochę spora różnica.

post wyedytowany przez Szaku 2021-10-26 13:40:47
Technologie Radość Apple trwała krótko, król mobilnej wydajności jest w innym zamku