Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie Apple M1 Pro i M1 Max - nowe układy o mocy RTX 2080 i PS5

19.10.2021 16:09
sakkra
1
6
sakkra
60
Generał

Tylko to nie są komputery do zabawy - nikt normalny by tyle za laptopa nieee zapłacił żeby na nim grać, zresztą i tak laptopy z win bardziej się nadają do gier

19.10.2021 16:09
sakkra
1
6
sakkra
60
Generał

Tylko to nie są komputery do zabawy - nikt normalny by tyle za laptopa nieee zapłacił żeby na nim grać, zresztą i tak laptopy z win bardziej się nadają do gier

19.10.2021 16:14
2
odpowiedz
3 odpowiedzi
zanonimizowany1343770
18
Generał

sakkra nie słyszałeś ile RTX 3090 kosztował/kosztuje? A do tego dodaj monitor 4k 120Hz g-sync premium i spokojnie to przebijesz. A to tylko gpu i monitor ;P
Ale tak, racja, to nie jest sprzęt do grania. Ale nie ze względu na cenę, tylko ze względu na ograniczenia systemu (lub dostosowania gier pod niego). Stawianie na nich windowsa mija się z celem ;p Natomiast do pracy (kodzenie - nie gier, ogólna praca i wydajność) spisuje się idealnie dla mnie.
Swoją drogą - nadal to będzie możliwe teraz postawienie Windy na nim bez wirtualizacji - jak np Parallels? Czy już od M1 Macbook Air nie można postawić windy obok?

post wyedytowany przez zanonimizowany1343770 2021-10-19 16:15:51
19.10.2021 16:21
2.1
1
Selen
89
Konsul

Mozna, sam dzisiaj ogladalem sobie filmiki na YT wlasnie apropo tego. Wydaje mi sie, ze jak juz wyjda te lapki to pojawi sie masa testow. Ja swoja droga swojego zamowilem wczoraj. Od miesiaca przegladam rozne lapki do kupienia, ale wczoraj MacBooki wygraly.

19.10.2021 16:29
elathir
2.2
elathir
97
Czymże jest nuda?

No to miej nadzieję, ze poprawiono problem z pękającymi matrycami. Bo w poprzedniej generacji (pierwsza na M1) luka pomiędzy klawiatura a ekranem okazała się pól milimetra za wąska i powodowało to problem z pękającymi matrycami jak się z laptopem nie obchodziło wystarczająco delikatnie.

Sam kupić na planuję ale dobra kolegów pracujących na mackach i czekających na M1Max mam nadzieję, że to ogarnęli.

post wyedytowany przez elathir 2021-10-19 16:29:51
19.10.2021 16:31
2.3
1
Selen
89
Konsul

elathir od 6 miesiecy uzywam M1 w pracy i laduje go do torby na silke z blenderem i innymi pierdolami, delikatnie to ja sie z tym nie obchodze, zero problemow.

19.10.2021 16:31
3
1
odpowiedz
19 odpowiedzi
Iutz
6
Generał

Bez jaj.

Procesor ma byc jakies 40% szybszy od pierwszego M1 ktory wydajnosciowo w grach oscyluje w okolicach 1050
w renderingu GPU podobnie. Zeby dobic do wspomnianego poziomu 2080 (nie Ti) ten uklad musialby byc 7 razy szybszy - 700%

Ja wiem ze apple umie w marketing, ale obowiazkiem "dziennikarza" jest poszukiwanie informacji - a da sie znalezc ja w sieci.
Wystarczy sobie porownac dostepne wyniki, uzyc troche matematyki na poziomie szkoly podstawowej, zeby napisac cos madrzejszego.

Ten procesor jest bardzo fajny - do laptopow jak znalazl ale to poki co tyle. Ludzie oczekuja cudow, a cudow nie bedzie. Nigdy nie bylo, byl tylko swietny marketing apple.

19.10.2021 16:41
3.1
Iutz
6
Generał

wlasnie znalazlem jeszcze jedno porownanie, z ktorego wynika ze teoretycznie GPU M1 max jest 4x szybsze od M1

to ciagle za malo zeby dobic nawet do 1080Ti.

post wyedytowany przez Iutz 2021-10-19 16:42:35
19.10.2021 16:47
3.2
LecOLiCe
28
Pretorianin

Porównanie do 2080 ma raczej pokazać jakie możliwości ma Apple. Procesor M1 którego wydali w tamtym roku do Macbooka Air jeśli chodzi o testy na grach był lepszy od GTX-a 1050 Ti i Radeona RX560. Po roku wydają nowe procesory i są na poziomie RTX 2080. AMD i NVIDIA raczej nie mają tak spektakularnych wzrostów rok do roku. Pomyśl, gdzie będą te procesory jeśli chodzi o wydajność za 5 lat.
Dlatego, jeśli Apple kiedykolwiek otworzyłoby się na gaming to Intel i AMD musiałyby mocno spiąć pośladki.

Poza tym, teraz to nie jest procesor do gier. To jest urządzenie dla programistów, projektantów animacji etc. I jeśli chodzi o tą działkę to w połączeniu z MacOS nie ma na rynku nic lepszego. Poza tym ludzie powinni mieć świadomość, że to Apple teraz rozdaje karty, bo jeśli ktoś zechce kupić laptopa do wszystkiego oprócz grania w cenie minimum 5000 zł to Apple jest teraz minimum 2 razy lepsze niż jakakolwiek konkurencja z Dellami, Asusami i HP-kami na czele w tej samej cenie.

post wyedytowany przez LecOLiCe 2021-10-19 16:49:30
19.10.2021 16:59
3.3
Iutz
6
Generał

AMD i NVIDIA raczej nie mają tak spektakularnych wzrostów rok do roku.
Porownujesz najmocniejszy M1Max 32 do M1 - czy jakos inaczej?
Bo spokojnie znajde ci analogiczne porownanie zarowno w AMD jak i NVIDII

Pomyśl, gdzie będą te procesory jeśli chodzi o wydajność za 5 lat.
A gdzie niby maja byc?
Sadzisz ze liniowy przyrost wydajnosci to jakas normalna sprawa w projektowaniu chipow? Bierzesz pod uwage roznice w architekturze M1 / M1Pro /M1 Max?

To jest urządzenie dla programistów, projektantów animacji etc.
Ani dla tych ani dla tych. i to akurat pisze jako osoba zajmujaca sie profesjonalnie grafika.
Te sprzety sprawdza sie w domowym zaciszu do edycji wideo, ale w tej cenie profesjonalista bedzie mial porzadna maszyne do DaVinci resolve ktora zmiecie tego macbooka w pyl.
Ich jedyna zaleta to czas pracy i zuzycie energii, ktore jest naprawde warte rozwazenia gdy mysli sie o pracy poza biurem.

zeby nie bylo mam macbooka 2016 pro i dzieci graja na nim w robloxa, a ja czasem odpalam indesigna.

post wyedytowany przez Iutz 2021-10-19 17:00:55
19.10.2021 18:32
3.4
LecOLiCe
28
Pretorianin

lutz

Chodzi mi o postęp jako taki. Apple zaczął produkować swoje procesory ARM rok temu i w ciągu roku od premiery M1 stworzyli procesor M1 Max który jest cztery razy szybszy od poprzedniego i według wstępnych testów ma rzucić na kolana nawet i9-11900K.

www.komputerswiat.pl/aktualnosci/sprzet/apple-m1-jest-wydajniejszy-od-core-i7-11700k-w-tescie-jednowatkowym-passmark/r5n149b

Jeśli znajdziesz mi taki skok w erze procesorów poniżej 10 nm gdzie rok do roku, czy to AMD czy NVIDIA, miały skok wydajności flagowca do flagowca na poziomie czterokrotnym do poprzedniego to chętnie poczytam.

"A gdzie niby maja byc?
Sadzisz ze liniowy przyrost wydajnosci to jakas normalna sprawa w projektowaniu chipow? Bierzesz pod uwage roznice w architekturze M1 / M1Pro /M1 Max?"

Eeee, w kosmosie? Wiem że im dalej z nanometrami w dół tym trudniej o wydajność, ale M1 i M1 MAX mają ich tyle samo a jakoś udało się zrobić 4 krotny wzrost. Intel dość długo męczył się z mniejszą litografią ale nawet jak już szedl w dół to w ostatnich latach niewiele z tego wynikało. Co nie oznacza, że z Apple będzie tak samo.

"Ani dla tych ani dla tych. i to akurat pisze jako osoba zajmujaca sie profesjonalnie grafika.
Te sprzety sprawdza sie w domowym zaciszu do edycji wideo, ale w tej cenie profesjonalista bedzie mial porzadna maszyne do DaVinci resolve ktora zmiecie tego macbooka w pyl.
Ich jedyna zaleta to czas pracy i zuzycie energii, ktore jest naprawde warte rozwazenia gdy mysli sie o pracy poza biurem."

Polemizowałbym, że W TEJ CENIE będziesz miał to samo a nawet lepiej, dałbyś jakiś benchmark?

"zeby nie bylo mam macbooka 2016 pro i dzieci graja na nim w robloxa, a ja czasem odpalam indesigna."

Ale używaleś M1 chociaż? Bo w porównaniu do pro z 2016 to jest jednak niebo a ziemia.

post wyedytowany przez LecOLiCe 2021-10-19 18:34:39
19.10.2021 19:21
3.5
Iutz
6
Generał

Ale rozumiesz że porównywanie M1 do M1 max jest z dupy czy nie? To inna architektura abstrahując już od generacji.

M1 mini mamy do obróbki krotkich materiałów nie jestem edytorem ale nie widzę żeby te dwie maszyny były jakoś okupowane.

Pracowałeś kiedyś na TR 3975 z dual 3080? Gwarantuje ci, że jak spróbujesz to nie spojrzysz na M1.

To właśnie są porównania z dupy.

"Chodzi ci o postęp jako taki" a to Apple wzięło i wymyśliło sobie pierwszy procesor powiadasz? To chyba przespałeś parę lat pod kamieniem. M2 możliwe że będzie kamieniem milowym póki co mamy dokładnie to co robią inne formy - mnożenie rdzeni które przekłada się na efektywność działania.

Prosta matematyka M1 ile ma rdzeni gpu?
8
M1 max ile ma rdzeni gpu?
32

Widzisz jakaś korelację?

Benchmark? Jakie zastosowania?

Ja naprawdę siedzę z makami od dlugiego czasu pre intelowy powerpc bodajże quadra, żeby się wyleczyć z tych wszystkich pierdol o unikalności systemu sprzętu itp. Są fajne w pewnych zastosowaniach ale zasada u mnie jest taka że to soft determinuje platformę nigdy na odwrot

post wyedytowany przez Iutz 2021-10-19 19:25:15
19.10.2021 20:09
3.6
LecOLiCe
28
Pretorianin
Wideo

lutz

"Ale rozumiesz że porównywanie M1 do M1 max jest z dupy czy nie? To inna architektura abstrahując już od generacji."

M1 i M1 max mają twoim zdaniem inną architekturę? Wybacz ale nie rozumiem.

"Pracowałeś kiedyś na TR 3975 z dual 3080? Gwarantuje ci, że jak spróbujesz to nie spojrzysz na M1."

Dobrze a powiedz mi ile kosztuje taki zestaw, który podałeś na wolnym rynku? Bo ja cały czas mówię o M1 w laptopie i każe ci porównywać maszyny Z TEJ SAMEJ PÓŁKI CENOWEJ. Ja mogę sobie włożyć cztery rtx 3090 i wiesz co? Tak, będzie szybciej, każdy jest w stanie do tego dojść. Tylko chyba jednak lepiej mieć bardzo porównywalną maszynę, którą mogę zabrać ze sobą w pleacku niż 10 kg skrzynkę chłodzoną cieczą, która żre prąd jak ogrzewanie elektryczne. Zawsze można sobie też kupić komputer kwantowy.

https://www.youtube.com/watch?v=H8sG0Be4PFU

U góry masz film, gdzie facet testuje M1 z laptopa ze swoim rtx 3090, 128 gb ramu procesor AMD 5950x. Różnica w daVinci Resolve jest minimalna. I jak masz teraz maszynę 4 razy szybszą to chyba łatwo sobie wyobrazić, że jak na laptop to nie jest najgorzej, nie? W dodatku bez zaawansowanego chłodzenia.

https://spidersweb.pl/2021/10/m1-pro-i-m1-max-apple-prezentuje-dwoch-poteznych-nastepcow-procesora-m1.html

Cytat z artykułu: "Występujący w prezentacji programiści mówią o przyroście mocy pokroju 8-krotnego przyspieszenia przy transkodowaniu ProRes w DaVinci Resolve i czterokrotnie wyższej wydajności względem Apple M1".

"Prosta matematyka M1 ile ma rdzeni gpu?
8
M1 max ile ma rdzeni gpu?
32

Widzisz jakaś korelację?"

Ech, czyli jak Intel i AMD wypuszczali przez ostatnie lata nowe model to nie należało ich w ogóle ze sobą porównywać, bo miały coraz więcej rdzeni mam rozumieć? Poza tym teraz coraz większą rolę zaczyna w procesorach odgrywać AI.

"Ja naprawdę siedzę z makami od dlugiego czasu pre intelowy powerpc bodajże quadra, żeby się wyleczyć z tych wszystkich pierdol o unikalności systemu sprzętu itp. Są fajne w pewnych zastosowaniach ale zasada u mnie jest taka że to soft determinuje platformę nigdy na odwrot"

No i na koniec - "hardware nie jest ważny liczy się soft." XD
Zastanawia mnie też po co komu w Polsce TR 3975 z dual 3080.
Pracujesz nad nowymi Avengersami?

post wyedytowany przez LecOLiCe 2021-10-19 20:09:29
19.10.2021 20:17
Raiden
3.7
1
Raiden
140
Generał
Wideo

Trochę bzdur (informacje) i jeszcze więcej bzdur (te komentarze).
Gwarantuje, że nie znajdziesz drugiej maszynki, która pobierając 25-30 watów ze ściany (m1 mac mini) da ci możliwość pracy na timeline Davinci w 4k.
Nie, Gtx 1050 nie daje takiej możliwości i sam pobiera więcej W.
Jasne, jak chcesz się bawić w profeskę, to masz do tego stację roboczą i pobór cię nie obchodzi, gdyż liczy się produktywność.

Co do gier, to gdy jest wpierany, też w efektywności ciężko pobić M1 - np. w Dolphinie bije spokojnie układy pobierające 100w+.

I nie piszę, że zupełnie nie masz racji, tylko zwracam uwagę, że czysta wydajność to jedno, ale jest jeszcze masa innych zmiennych.

https://www.pugetsystems.com/labs/articles/Apple-M1-MacBook-vs-PC-Desktop-Workstation-for-Adobe-Creative-Cloud-1975/

Edit

żeby nie było, tu bardziej rzeczywiste porównanie do iMaca z Pro 5700 XT 16gb na pokładzie, gdzie widać, że m1 brakuje vRAM do obróbki 6k i/lub większej liczby efektów.

https://www.youtube.com/watch?v=DVO1Co3OQOE

post wyedytowany przez Raiden 2021-10-19 20:44:33
19.10.2021 20:53
3.8
Iutz
6
Generał

Dobra, polece szybko bo juz jestem zmeczony.

Nie mieszkam w PL

Architektura M1 wywodzi sie z Bionica, M1 w pierwotnej wersji mial 8rdzeni gpu M1 Max 32, apple twierdzi ze M1 ma 4 razy wieksza moc obliczeniowa gpu - i teraz zagadka na poziomie klasy trzeciej szkoly podstawowej - ile jest 32 / 8

Zestaw TR 3975 z dual 3090 to jakies 9.000 funtow, Ale zestaw ktory zmieli tego M1 mozna miec tez za 3000 funtow. przed lockdownem za chyba 1600 kupilismy w pracy dwa amd z dual 2070super do ktorych ten M1 tez nie bedzie mial startu.

Pisze oczywiscie o desktopach. Bo w tych kategoriach rozpatruje sensownosc tego zakupu.

Występujący w prezentacji programiści mówią o przyroście mocy pokroju 8-krotnego przyspieszenia przy transkodowaniu ProRes w DaVinci Resolve i czterokrotnie wyższej wydajności względem Apple M1

Programisci zabieraja sie za testowanie programu do edycji wideo i tak to potem wyglada.
Transkodowanie ProRes to mozna zrobic darmowym ffmepgiem i nie trzeba do tego maca za 4k z M1, wiem ze M1 ma encoding proresa wbudowany, ale problem polega na tym, ze nie ma BRaw'a.
A w przypadku enkodowania to dysk jest zazwyczaj waskim gardlem. Prores nie jest wymagajacym formatem jezeli chodzi o encoding, to juz mogli cos napisac o HEVC.

Ja bym zapytal jak wyglada temporal denoising 8k z reda na wysokich ustawieniach na przyklad.

Gwarantuje, że nie znajdziesz drugiej maszynki, która pobierając 25-30 watów ze ściany (m1 mac mini) da ci możliwość pracy na timeline Davinci w 4k.
Nie, Gtx 1050 nie daje takiej możliwości i sam pobiera więcej W.

Tylko po co mi to? napisalem chyba wczesniej, ze mamy M1 mini do szybkiej edycji ale to tyle. Chlopaki jada na site biora m1 i monitory i cos tam dziargaja w adobe premiere.
Kiedy pracuje to nie jaram sie tym ze moja firma oszczedza prad tylko tym, ze mam szybko efekty tego co robie.

I nie piszę, że zupełnie nie masz racji, tylko zwracam uwagę, że czysta wydajność to jedno, ale jest jeszcze masa innych zmiennych.
https://www.pugetsystems.com/labs/articles/Apple-M1-MacBook-vs-PC-Desktop-Workstation-for-Adobe-Creative-Cloud-1975/

Jeden z moich ulubionych argumentow - wydajnosc an sofcie ktory nie ma nic wspolnego z nowoczesna architektura i jest szyty jeszcze gorzej niz x386. Nie, rozmowa z kimkolwiek kto podaje Creative Cloud jako benchmarka jest bezprzedmiotowa - to juz lepiej bylo Final Cuta.
Tak wiem, mainstream i miliony much, ale naprawde after effects, premiere to jest antysoftware.

Jeszcze jedna rzecz ,nie siedze w edycji to robia u mnie w firmie inni (glownie na premiere ale pare osob docenilo juz DaVinci), kiedys uzywalem mocno keynote do eventow, ale niestety chyba w 2016 keynote zostal koncertowo spierdzielony, i teraz nawet powerpoitn 365 jest lepsza alternatywa. No chyba ze ktos potrzebuje Hammer transition.

post wyedytowany przez Iutz 2021-10-19 20:56:52
19.10.2021 21:08
Herr Pietrus
3.9
Herr Pietrus
224
Ficyt

No, porównanie zdaje się najmocniejszego TR z poprzedniej serii i dwóch 3080 do wypierdka SoC ARM faktycznie jest chyba nieco dziwne...

Ja tam nie wiem jak jest, bo znów wszędzie czytam, że benchmarki M1 kłamią, ale jeśli to główienko na ARM ma moc porównywalną do stacjonarnych procesorów poprzedniej generacji Intela i AMD... to chyba nie jest źle?

A ponoć ARM miał się nie nadawać od niczego, a Apple miało oszaleć przesiadając się z x86.

Edit: No chyba, że M1 wcale tej mocy nie ma i kładzie go pierwszy lepszy 2070S i mainstreamowy Ryzen 7, wszystko jest ściemą z optymalizacją softu i benchmarku na zamówienie Apple... To można aż tak kłamać? :D Spisek ze szczepionkami się chowa.

post wyedytowany przez Herr Pietrus 2021-10-19 21:16:53
19.10.2021 21:23
3.10
Iutz
6
Generał

Moje ulubione

Benchmark brute force który pokazuje po prostu ile fabryka daje. Siła gpu w renderingu. CPU nie szukam nawet bo tam byłby już pogrom.
To jest bardzo wąskie zastosowanie. Ale paradoksalnie dobrze się skaluje na inne zastosowania.
nowego M1 nie ma ale można zastosować wspomniane już działanie matematyczne żeby dostać jakaś aproksymacje (bardzo optymistyczna moim zdaniem)

Cudów nie ma i juz

https://www.cgdirector.com/redshift-benchmark-results/

19.10.2021 23:31
3.11
Tasdeadman
45
Generał

LecOLiCe ale ty myślisz, że Apple robi coś niezwykłego? Nie, Intel czy Nvidia bez problemu mogły by ten procesor pobić jakby chciały. I to jest słowo klucz - jakby chciały. Nie chcą, bo się im to nie opłaca, to jest zwykły sandbaging, udają powolny rozwój technologii, żeby co 2 lata sprzedawać sprzęt 5% mocniejszy. Ale zobacz na taką Nvidie, seria RTX 20xx to był lekki update do GTX 10xx z dołożonym RT, koszt takiej 2070 na premierę to było 2600 zł a była raptem 25% wzrostem mocy w stosunku do poprzedniej generacji. Dwa lata później wypuścili serie RTX 30xx która była już ponad 40% wzrostem mocy w stosunku do poprzedniczki a koszt (cennikowy) za 3070 to 2300 zł. Czemu takie różnice? A bo AMD zaczęło im deptać po piętach a klienci byli niezadowoleni z niskiej wydajności serii RTX 20xx więc musieli czymś zaimponować i to zrobili.
Intel też by mógł podbijać wydajność o 20-40% ale wtedy zaspokoili by rynek i nie zarabiali na sprzedaży podzespołów, dlatego stopują rozwój.
A teraz Apple, no super że stworzyli potwora (choć nie wiem, ile razy jeszcze trzeba zrobić z siebie kretyna i wierzyć w marketingowy bełkot przed realnym testem działania), ale skąd ta moc? No bo wykrzesali ile mogli, bo i tak produkują rzadko i żeby dostać to rozwiązanie trzeba wyłożyć 20 tysięcy, w czasie życia tego urządzenia producenci konsumenccy przebiją go mocą i za 5 lat nie będzie już konkurencyjny, potem pewnie znowu zrobią strzał i tak to się kręci, a zaraz ARM przejdzie w ręce Nvidii i może się skończyć dominacja Apple.

20.10.2021 00:05
3.12
LecOLiCe
28
Pretorianin

Tasdeadman

Oczywiście, że firmy mają tendencję do produkowania tego na co mają ochotę ale gdyby tak zawsze było to Intel nie miał by takich problemów w utrzymaniu tempa z AMD, które mu w ostatnich latach wyraźnie odstaje. Wiem jaką Apple ma renomę m.in w Polsce ale jednak M1 uważam za pewną rewolucję w ostatnich latach, której chyba mało kto się spodziewał. I to na czym mi zależy to właśnie presja ze strony Apple na AMD i Intelu. Faktem jest, że nie przez przypadek Apple wypuścił w tamtym roku chyba jednego z najtańszych MacBooków w historii. Dla mnie te procesory od nich teraz to raczej poligon doświadczalny. Nawet gdyby za ARM wzieły się inne firmy to trudno mi wyobrazić sobie sytuację, kiedy Apple mówi: "Słuchajcie teraz to kończymy z tymi procesorami.". Do gry wszedł trzeci gracz (albo czwarty jak kto uważa) i mnie to bardzo cieszy. Jeśli chodzi o to 20 tys. to to jest niestety dużo ale w Polsce. Na zachodzie to nie jest kwota jakaś powalająca. A już na pewno w zasięgu każdej firmy. Samochód też ludzie kupują za 80-100 tysięcy aby po kilku latach był on wart 20-30 tys. Takie jest życie. Ale jeśli chodzi w tym względzie o Apple to ja znam ludzi, którzy na Allegro kupują używane starsze modele Macbooków bo te komputery nawet po latach eksploatacji są super stabilne w działaniu. Co do tego bełkotu to ja nie wierzę w marketing tylko po prostu wiem z dośiwadczeń swoich i znajomych. Ja fanboyem nie jestem ale z doświadczenia wiem, że Apple hejtują najbardziej ci, którzy nie mieli styczności z żadnym z ich urządzeń.

To jest jak z tym ramem w ich telefonach i komputerach latami. Ludzie się śmiali, że Apple nie daje więcej ramu. Tylko to nie miało żadnego znaczenia, bo i dziś IPhone ma najmniej ramu ze wszystkich flagowców a i tak jest najlepszy i tak było też przez lata. W przypadku Apple nie patrzy się na specyfikację, wierzy się w software. I kto nigdy nie korzytsał to tego nie zrozumie.

post wyedytowany przez LecOLiCe 2021-10-20 00:09:33
20.10.2021 09:57
3.13
Iutz
6
Generał

Co do tego bełkotu to ja nie wierzę w marketing tylko po prostu wiem z dośiwadczeń swoich i znajomych.

Mam to samo jednak bazuje głównie na swoim doświadczeniu a.mam je całkiem spore. Wokół maca zawsze unosiła się aura "cudowności". Za czasów power pc miał to być najlepszy sprzęt do montażu wideo. Okazało się że efektywnością cena i mozliwosciami biła je na głowę Amiga z PVRem.
W zamierzchłych intelowych czasach Apple miało final cuta, shake i to było praktycznie wszystko nie licząc oczywiście DTP z którym nie miałem zbyt dużego kontaktu

Ja fanboyem nie jestem ale z doświadczenia wiem, że Apple hejtują najbardziej ci, którzy nie mieli styczności z żadnym z ich urządzeń.

Apple stworzyło świetny ale zamknięty ekosystem który dobrze sprawdza się w zastosowaniach indywidualnych. Który w pewnym momencie zaczyna jednak ograniczać. Przeszedłem tę ścieżkę, przeszło ja paru moich kolegów dla których problem wyboru miedzy makiem pro a zestawem na windowsie przestał być problemem po sprawdzeniu co/jak/za ile działa. Bzdura jest twierdzenie, że na zachodzie pieniędzy nie liczy się czy jest łatwiej. Nie, jest dokładnie tak samo.
Prosumer mający pojęcie o sprzęcie i możliwościach zawsze wybierze sprzęt najbardziej odpowiedni dla swej pracy, ale nawet jak wybierze źle to będzie chwalił (tylko czy można nazwać go pro?).
Mam to szczęście że mam dostęp do różnego rodzaju sprzętu i wiem że M1 to jeszcze nie jest sprzęt dla studiów graficznych. Bo jak mam wydać 4k funtów to jestem w stanie zrobić to w dużo sensowniejszy sposób.

Apple targetuje ten sprzęt w jutuberow i wszelkiej maści freelancerów ale.tak było od zawsze.

A Najbardziej chwalą maka nuworysze któryż zaczęli swoją zabawę z nim.

Czas pokaże czyje przewidywania się sprawdza.

20.10.2021 14:11
BIGPSFANBOY
3.14
BIGPSFANBOY
26
Generał

Iutz Takiego Farmazona jak ty to świat nie widział, nie obchodzi cie hardware a wybrałeś do pracy maszynę na Windowsie który jak zwykle w kwestii softwaru nie dorasta nawet MacOS do pięt, do tego nie masz pojęcia o czym piszesz, człowieku piszesz o wydajności w grach sprzętu który odpala gry przez nakładkę kompatybilności która według testu obniżą wydajność od 15 do 30%.

Jaka osoba pracująca profesjonalnie na Threadripperze i 2x RTX 3090 (czy tam 80) za miarę mocy używa wydajność w grach, na wyspach to ty może mieszkasz, i pracujesz na zmywaku żebyś miał na prąd i internet co to by ci pozwolił pisać głupoty na GoLu a nie masz profesjonalną firmę którą nie obchodzi pobór prądu tylko produktywność.

Idąc twoją logiką to jak teraz odpalę grę na najlepszym Threadriperze i osiągnę wydajność wiele niższą od Ryzena 9 5900X to oznacza że ten komputer ma moc I7 9700K?

Sorry ale nikt raczej nie wieży w ten BS, i to z twojej winy.

post wyedytowany przez BIGPSFANBOY 2021-10-20 14:22:05
20.10.2021 14:21
😂
3.15
Iutz
6
Generał

trollowac trzeba umic

20.10.2021 14:23
BIGPSFANBOY
3.16
BIGPSFANBOY
26
Generał

Iutz Tylko po co marnować na to tyle czasu, ty więcej się naprodukowałeś niż te osoby w komentarzach.

20.10.2021 14:34
😂
3.17
Iutz
6
Generał

uu widze ze edit byl
Sorry ale nikt raczej nie wieży w ten BS, i to z twojej winy.

Mam to w dupie, nie szukam kolegow na tym forum.

21.10.2021 13:47
😐
3.18
LecOLiCe
28
Pretorianin

lutz

Wow, gościu. Już wiedziałem, że jest coś z tobą nie tak jak zacząłeś pie%23przyć coś o Bionicu i tych rdzeniach.
A ten idiotyczny slang, którym mnie uraczyłeś jak "byłeś już zmęczony" tylko mnie w tym utwierdził.
Jak kolega wyżej wspomniał ty to chyba na tym zachodzie rzeczywiście raczej zmywak, bo z pewnością nic związanego z technologią.

"trollowac trzeba umic"

"Mam to w dupie, nie szukam kolegow na tym forum."

To nie szukaj, ale to tylko pokazuje że internet poełen jest ludzi, których jedynym codziennym zajęciem jest pisanie o czymś o czym nie mają zielonego pojęcia.

post wyedytowany przez LecOLiCe 2021-10-21 13:47:58
21.10.2021 13:56
3.19
Iutz
6
Generał

Jak to mowia w dupie byles, gowno widziales.
Poczytaj o architekturze tych procesorow i przede wszystkim naucz sie matematyki na poziomie podstawowym, to pomaga w zyciu, rowniez tym, ktorzy wiedze czerpia wylacznie z internetu.

19.10.2021 17:58
4
1
odpowiedz
1 odpowiedź
humman
72
Generał

Ale gry poza mobilnymi będą na tym słabo działać bo to procesory AMR a nie x86, API graficzne to Metal a nie powszechnie używane directX, openGL, Vulcan więc wszystko to musi emulować co mocno wpływa na wydajnośc
Już na mcbooku air z M1 uruchomili gta 5 i działało na low w porywach do 30fps

21.10.2021 09:52
Szaku
4.1
Szaku
167
El Grande Padre

Może zmieni się to w najbliższych latach i developerzy zaczną robić gry na Apple. Szczerze mówiąc liczę na to po cichu, bo mam dość monopolu Microsoftu.

29.10.2021 08:47
😂
5
odpowiedz
HelloWorld
1
Junior
Image

W ten sposób ludzie grają w gry na Apple.

29.10.2021 13:54
Raiden
6
odpowiedz
2 odpowiedzi
Raiden
140
Generał

Iutz LecOLiCe
Chyba można lekko wrócić do tematu, bo coś tam już wiadomo. Najwięcej testów na dziś jest M1 max 10 rdzeni cpu, 32 rdzenie gpu i 32 gb pamięci.
Jeżeli chodzi o zastosowanie profesjonalne to brak jeszcze dokładnych testów z Davinci, ale są z Adobe i jest chyba dość dobrze. Sytuacje oddaje ten test
https://www.tomshardware.com/news/apple-m1-max-benchmarked-in-adobe-premier-pro

Co do benchmarków typu Cinebench czy Geekbench, to chyba wszyscy znają wyniki i w tym względzie M1 max świetnie się skaluje- to taki prawie 2x mocniejszy CPU od M1 oraz 4x mocniejsze GPU od M1.

Jeżeli chodzi o gry to sytuacje jest złożona, bo mamy wiele poziomów implementacja wsparcia dla M1 i api metal.
Ważne – piszę o desktopowych wersjach kart i CPU – bez limitów mocy, jak przypadku laptopów.

Zaczynając od wsparcia poziomu Native (bardzo mała liczba gier), można smiało napisać, że wspomniany wyżej M1 MAX (10,32, 32) jest na poziomie mocnego ośmiowątkowego CPU z RTX 3070 OC na pokładzie (tyle na bazie testów z Baldurs Gate 3, bo pozostałe gry natywne wiele nie powiedzą).

Następnym poziomem jest Rosetta 2 z Api Metal (tu już parę gier, nawet AAA jest): tu zależnie od poziomu optymalizacji będzie to (Windowsowy odpowiednik):
- Ryzen 3 3300x (na normalnym RAMie) z GTX 1060 przy słabej implementacji (CoD BO3; Borderlands 3)
- Ryzen 3 3300x (na normalnym RAMie) z GTX 1070 przy średniej implementacji (np. Total War: Troja; LOL, Deus Ex MD);
- Ryzen 3 3300x (na normalnym RAMie) z RTX 2070 Super przy dobrej implementacji (np. Shadow of the Tomb Raider, Original Sin II). Tu bardzo wartościowych info dostarczył benchmark z SotTR, który dał wykresy milisekund dla CPU w grze, CPU render oraz GPU.

Następnym poziomem jest Rosetta 2 z innym API:
- dla Molten + Vulkan dział dość dobrze, trochę więcej jak GTX 1060 (Dota 2, Dolphin Emulator - tu wyniki jest spokojnie wyższy, ale trochę brak skali);
- dla OpenGL działa słabo – na poziomie jakiego GTX 1030 (Alien).
Tu lista gier ze wsparciem: https://www.macgamerhq.com/apple-m1/native-mac-m1-games/

Kolejne, już mniej oficjalne rozwiązania to Parallels (działa raczej słabo) oraz CrossOver (działa lepiej), ale tu już wszystko zależy od danego tytułu.

Oczywiście to porównania gier na zupełnie odmiennym systemie do względnych odpowiedników przy Windows, ale to wszystko dotyczy maszynki, która w peaku dla CPU i GPU pobiera 120W. Jasne, mało gier ze wsparciem (w szczególności natywnym - a tu jest olbrzymi potencjał), ale na mnie robi to lekkie wrażenie.

post wyedytowany przez Raiden 2021-10-29 14:19:14
29.10.2021 20:12
6.1
Iutz
6
Generał

Ja jednak poczekam na redshift/davinci resolve, o testowaniu w adobe premiere juz pisalem wczesniej (swoja droga czemu nie after fx).

wystarczy sobie zobaczyc jaka rozpierducha jest w tej tabelce z tomshardware zeby podziekowac.

post wyedytowany przez Iutz 2021-10-29 20:14:11
29.10.2021 20:33
6.2
Iutz
6
Generał

Znalazlem jeszcze to:
https://prolost.com/blog/m1max

redshift benchmark: 11 minutes, 13 seconds
czyli gdzies w okolicach 1070, bazujac na tej stronie, niestety najslabsza karta testowana na wersji 3.0+ (tylko ta jest rowniez pod Metal) to 1080ti
https://www.cgdirector.com/redshift-benchmark-results/

gosc testowal mobilnego 3080 dlatego odniesienia do strony moga byc mylace.

Technologie Apple M1 Pro i M1 Max - nowe układy o mocy RTX 2080 i PS5