Dla mnie najważniejsze jest to, żeby był gun master. To jedyny tryb, w którym wchodzisz do gry bez dobierania ekwipunku i po prostu pykasz sobie różnymi broniami. Pozwala wbijać różne bronie, odblokowywać różne rzeczy i każdy jest na równi jeśli chodzi o dostępne uzbrojenie.
Tu raczej chodzi o specjalistów. Mnie taki Rainbow Six Siege zniechęcił jak zobaczyłem ponad 70 specjalistów, z czego każdego trzeba odblokować i osobno wyposażyć albo nawet nie zobaczysz, czy warto. Wolę system, w którym jest kilka klas i każda ma jakieś unikalne gadżety i ograniczenia. Z jednej strony nie możesz zrobić jednego Uber uniwersalnego wojownika, z drugiej strony nie musisz wybierać jednego z wielu unikalnych operatorów. Po prostu każda klasa ma specjalne rzeczy. Tak dla przykładu, nie możesz być jednocześnie snajperem wyposażonym w wyrzutnię ziemia-powietrze. Albo jesteś inżynierem i masz wyposażenie przeciwlotnicze czy przeciwpancerne, albo jesteś snajperem i masz wyposażenie do walki długodystansowej. Dzięki temu wiesz, że snajper nie ma czym strzelać do czołgu o ile nie ma wsparcia. To zmusza do współpracy. Jak każdy może mieć wszystko, to robi się z tego one man army. Z drugiej strony ci operatorzy czy nadmiar wyjątkowości jest przytłaczający. Lepiej mieć klasy gadżetów czy broni ograniczone do danej postaci i odblokowywać pojedynczo. Dokładnie do tego jakiegoś lore i specjalnej postaci, która może z czegoś korzystać, to niepotrzebne komplikowanie.
Z perspektywy gracza po prostu chcesz zrobić kilka wariantów uzbrojenia do różnego stylu walki. To strzelanka, a nie RPG. Jak dla mnie, to wszyscy mogą wyglądać tak samo, jest mundur i tyle.
Pod tym względem BF6 będzie lepszy, bo pozbywa się specjalistów. Jeśli ograniczenia klasowe będą ok, to wydaje mi się to dobrym rozwiązaniem. Byle by nie było tak, że klasy nic nie dają poza jakimś drobnym perkiem, bo wtedy równie dobrze można wywalić klasy i mieć tylko wybór perka jak szybsza zmiana stancji czy szybsza zmiana broni.
Akurat sukces BF1 to był jakiś ewenement. Gra była może inna, ale przez swój setting była mocno ograniczona i często wręcz upierdliwa. Do tego zarówno BF1 jak i BFV odeszły od battleloga i wprowadziły model progresji, który wielu osobom nie pasuje. Mimo wszystko BFV to całkiem niezła gra.
Trudno mi ocenić 2042, bo po ograniu wczesnego dostępu uznałem, że to będzie pierwszy BF, którego nie kupię (drugi uwzględniając Hardline).
Tak czy siak, powrót do mechanik z czasów BF3/4 i postawienie na zabawę, a nie usilne budowanie wiernej społeczności, to byłby duży krok do przodu. Musieliby jednak wsadzić w to ogrom pracy i chociażby przyciągnąć dużą część map z BF4 i dodatków. To samo z trybami gry jak gun master czy scavenger.
Wszystko zależy od kontekstu. GTA V sprzedało się w ponad 200 milionach kopii. Czy uda się przyciągnąć chociaż połowę takiej widowni? Wszystko zależy od tego, jaki sobie obiorą cel. Pamiętajcie o tym, że od premiery BF 4 minęła ponad dekada, więc jest za równo dużo młodszych graczy jak i dużo osób z sentymentem do serii, które chętnie by wróciły do czegoś znajomego. Wyciągnięcie wyników rzędu 30-50 milionów, to całkiem możliwa opcja.
- Gra musi dawać nam to, czego nie dają inne gry tego typu. Battlefield (jak i pierwszy Crysis i Crysis Wars) wyróżniały się większym polem bitwy i dostępem do różnorakiego sprzętu. To zawsze wyróżniało BF wśród innych gier tego typu. Model zniszczeń, wpływ walki na mapę i wyraźny rozwój wydarzeń podczas walki, to wszystko jest istotne.
- Obecnie stosowane systemy oparte o regularne granie są kiepskie. Z jednej strony zachęcają do częstego grania, z drugiej strony... Jak nie mam czasu grać, to będę omijać dużo treści, więc na co mi to? Każdy powinien móc zdobyć każdy rynsztunek i doświadczyć gry w pełni bez konieczności pełnego angażowania się i regularnego grania.
- System odblokowywania broni i dodatków muszą ponownie przemyśleć. Pamiętam, że w BF1 i BFV nie chciało mi się nawet za bardzo odblokowywać kolejnych rzeczy, bo progresja była tak mozolna. Do tego mnożniki expa i podobne, jeszcze skrzyneczki do tego może?
Jak gra ma dotrzeć do starej gwardii, to musi być kierowana w dużej mierze do starszych chłopów z obowiązkami, którzy wpadają pograć dla rozrywki, a nie dla expienia i uzależniania się od gry. Tym dla mnie zawsze był BF, wchodzisz na kilka rundek, nie musisz się spinać i starać rozwijać postać, samo się stopniowo rozwija i nie czujesz, że stoisz w miejscu.
No ale wyciągnięcie 100 milionów wymagałoby więcej. Duża kampania singlowa, spora kampania co-op. Ja bym tu wręcz widział coś pokroju coopa w Far Cry 3 czy grach typu Ghost Recon Future Soldier. Może nie liniowa kampania, ale seria różnych zadań w kooperacji przyciągających graczy do współpracy i rozróby.
No i prostota. Taki Rainbow Six jest straszny. Wchodzisz do gry, a tam 2137 specjalistów, każdy coś wyjątkowego ma, jakieś backstory czy coś. Ludzie, ja chcę wziąć C4 pod pachę, stingera na plecy i iść postrzelać, a nie kombinować kto jakie ma stary i specjalne umiejętności przydatne na mapie. Jak w trakcie gry jest problem z czołgiem przeciwnika, to po śmierci wybieram inżyniera z ładunkami czy wyrzutnią ppanc. To zbędne lukrowanie wszystkiego odpycha ludzi.
Dokładnie, aktualizacja sprzętu często nie wynika z samego rozwoju technologii, a ze zmian naszych potrzeb. Do tego im mocniejszy sprzęt mamy, tym rzadziej go musimy aktualizować, jeśli nam nie zależy na byciu na topie. Lata temu budowałem rzeczy budżetowe i faktycznie, kupiłem grafikę dobrą do obecnych gier jeszcze na jakimś 1024x768, ale szybki rozwój gier, sprzętu i monitorów sprawiały, że trzeba było szybko aktualizować sprzęt. Nawet jak doszedłem do GTX 780, to po przejściu z 1080p na 1440p już miał za mało pary i tu wszedł 1070, który ze mną został na jakieś 8 lat. Wymieniłem go dopiero planując ograć gry typu Cyberpunk i przejść na UWQHD (1440x3440), więc zmiana była w dużej mierze podyktowana wzrostem potrzeb. Podobnie CPU rozbudowalem głównie przez to, że zacząłem mocno korzystać z prywatnego komputera do prac inżynieryjnych i chciałem coś mocnego na lata. Większość moich aktualizacji to albo była zmiana sposobu używania i wzrost potrzeb, albo po prostu sprzęt już tak wysłużony, że to był koniec jego życia. Teraz po jakiejś dekadzie dopiero rozważam przejście z HDD w RAID na same SSD, bo w końcu można kupić szybkie 4TB SSD, ale i tak nie widzę sensu w tym. Jedynie myślę o tym ze względu na wiek twardzieli, już teraz trzymam tam tylko to, czego nie będzie mi szkoda, a zajmuje dużo miejsca (głównie backupy i media).
Z dobrych argumentów jest raczej długość używania konkretnych komponentów. Asus P6T od 2009 do 2018, GTX 1070 Strix bodajże od 2016 do 2023, dyski na dane ~2015 i dalej w użytku, nawet SSD z 2016/2017 mam w użytku, chłodzenie to samo od 2018 przez 3 różne procesory i dwie podstawki, obudowę i zasilacz mógłbym używać te kupione w 2018. Jeszcze lepszy jest stary sprzęt, mój komputer z 2001 z P4 2.4 GHz z jednym rdzeniem w HT służył 17 lat. Najpierw mi z rozbudową chłodzenia, OC, wymianą grafiki na Radeona X1950 Pro (ostatni na AGP chyba), później służył mamie do gier, a skończył jako biurowy dla ojca aby po 17 latach przejść na emeryturę. Mój sprzęt z 2009 też przeszedł kilka aktualizacji z biegiem lat, z i7 920 zmieniłem na Xeona X5670, przeszedł aż 5 konfiguracji kart graficznych w 9 lat użytkowania i z tą 4 kartą trafił do rodziców, ja zachowałem 5 kartę do nowego kompa i służyła mi jeszcze 4 lata, a teraz służy przyjacielowi, który musiał trochę zaktualizować sprzęt i z GTX 970 był to dobry upgrade.
Przede wszystkim kupno desktopa, a kupno desktopa pod rozbudowę to dwie różne rzeczy. Sockety się zmieniają, nawet u AMD, więc kupując mocny procesor, a już tym bardziej na kończącą się generację, praktycznie nie masz opcji rozbudowy. Kupując niższą półkę procesora, a tym bardziej kupując go na świeży socket, zostawiasz sobie pole do rozbudowy. To nie jest aż tak częsty upgrade obecnie, ale nadal to istnieje. Dawniej chociażby miałem i7 920 i wymieniłem po kilku latach na Xeona X5670 z demobilu za grosze. Ostatni sprzęt uzbroiłem w 12600K, a później wymieniłem na 14900KS na tej samej płycie. Ale, co istotne, płytę kupowałem już z myślą o takiej zmianie, więc na tego 12600K była przesadzona, rozbudowane zasilanie i generalnie przeznaczona do dużo bardziej prądożernych procesorów. O to chodziło, że chciałem 14 generację, kończyła się dopiero 13, a mi tymczasowo wystarczył 12600K (a może 12500K, nie pamiętam).
Podobnie z obudową, gdzieś mam te panele przednie i inne cuda, po to mam karty rozszerzeń, a i sama płyta główna ma kilka gniazd, wolę mieć kabel na biurko niż sięgać do budy. Natomiast sama buda spokojnie zmieściła Strixa 4090.
Podobnie z chłodzeniem, odziedziczone jeszcze ze starego komputera, w którym na sporym OC wyciągałem pod 200-240W. Trochę za słabe na 14900KS, ale tu nie chodziło mi o prędkość, a właśnie o możliwość pracy z obniżonymi napięciami aby przy tej samej wydajności mieć mniejsze wydzielanie ciepła. Musiałem tylko wymienić mocowanie chłodzenia, co była banalne i tanie.
Pamięci akurat musiałem wymienić przechodząc z 9700K na 12600K, a później już zostałem na DDR5, ale faktycznie przy aktualizacji całej platformy najlepiej to robić już z pamięciami. Wracamy tu jednak do pierwszego punktu. Jak planujesz rozbudowę, to już uwzgledniasz na co i może kiedy.
Co do GPU, nie zgodzę się. U mnie GPU i CPU były zawsze wymieniane osobno. Chociażby z tym i7 920 miałem GTX275 o ile pamiętam, później dwa takie w SLI, później gdzieś po drodze GTX 660 Ti i GTX 780 aż skończyłem z GTX 1070 i Xeonem. Kilka lat później 1070 trafił do budy z 9700K i znowu po jakichś 4 latach zastąpił go RTX 4090, a dopiero z rok później wymieniłem całą platformę na tego 12600K planując rozbudowę na 14700K (a ostatecznie kupiłem 14900K, który zdegradował i po zwróceniu wymieniłem na KS). Fakt, ten PC nigdy nie był optymalny, zawsze coś było wąskim gardłem. Pierwsze iteracje wymagały rozbudowy GPU wraz z rozwojem technologii, ale na 1070 się zatrzymało na bardzo długo. Temu towarzyszyły zmiany monitorów głównie. Pamiętam, że na 1070 się przesiadłem po przejściu na WQHD, bo nawet 780 był słaby na to. Podobnie o ile 1070 w ostatnich latach już ograniczał mnie do 30-45fps w wielu grach i czasem wymagał wyłączenia niektórych ciężkich funkcji, to dopiero przesiadka na UWQHD wymagała wymiany grafiki aby natywnie to obsłużyć w dużej rozdzielczości.
Z innych rzeczy, nadal mam dwa dyski talerzowe w RAID na masę danych. Fakt, mam też Szajsunga 990 (PCIe 4 kupiony po wymianie MoBo) i 970 (kupiony do poprzedniej rewizji na 9700K z PCIe 3) oraz SSD Sata z poprzedniego kompa bez NVMe, starsze dyski poszły do rodziny jako upgrade starszych sprzętów.
Miałem też kartę dźwiękową, która służyła latami i wymieniłem ją dopiero jak PCI przestało być oferowane w nowych kompach. I tak kupiłem SB-X, integry dalej mają beznadziejną izolację elektryczną i funkcje rozszerzania audio na surround.
Z zasilaczem i obudową trochę podobnie, chociaż zaliczyłem przeprowadzkę na inny kontynent i nie zbierałem ich. Gdybym jednak został przy poprzednich, to nadal bym mógł z nich korzystać. Nowa obudowa wynikała tylko z rozmiaru i bagażu, zasilacz też został w Polsce przez wagę, a nowy kupiłem słabszy i to był błąd. Mimo wszystko używałem go z 4090, ale na obniżonym limicie mocy GPU (serio, 4090 na start był tak potężny, że i ograniczony poborem prądu działał wyśmienicie), a jak potrzebowałem więcej, to w końcu zmieniłem zasilacz na mocniejszy i już z natywnym 12VHPWR.
Istotne jest to, że rozbudowy były podyktowane nie wyjściem nowego sprzętu, a potrzebami. W gruncie rzeczy, ten Xeon z 6 rdzeniami i 12 wątkami po OC był całkiem niezły, a wymieniłem sprzęt że względu na starą płytę główną P6T bez UEFI. Po 9 latach już miałem powód do wymiany podstawki, weszło NVMe, DDR4 i potrzebowałem więcej pamięci (16GB rozbudowane później do 32GB), do tego BIOS nie potrafił startować z GPT przez co miałem często problem z bootsectorem na MBR i systemem na GPT na SSD, a wsparcie dla USB 3 i podobnych było dodatkową korzyścią. Druga wymiana była z musu, bo uszkodziłem starą płytę główną i więcej sensu miała aktualizacja sprzętu niż kupno używanej płyty na stary socket. Inaczej dalej bym męczył 9700K podkręconego dosyć mocno i siedział na NVMe PCIe 3, bo koszta by były za duże jak na wzrost wydajności użytkowej.
Wszystko sprowadza się do tego, jak działa ochrona praw autorskich. Gdyby została zmieniona na wzór prawa patentowego, to byśmy mieli inny świat. Wydajesz coś na rynek i chcesz ochrony państwa? No to dzielisz się tym z panstwem, w przypadku twórczości cyfrowej trafia to do jakiejś bazy i sobie tam gnije. Masz X lat na monetyzację pod ochroną, a po tym czasie chroniony produkt trafia do domeny publicznej. I wtedy chociażby serwery starych gier są dostępne do pobrania czy modyfikacji, każdy może wskrzesić stary tytuł.
Co więcej, takie prawo może mieć dwa okresy. Pierwszy to pełna ochrona. Po jej upłynięciu można treść wykorzystywać non profit, ale jak chcesz sprzedać czy wykorzystać ją w celach zarobkowych, to nadal jest płatna. Po upływie drugiego terminu trafia w pełni do domeny publicznej. Dzięki temu jeśli będzie popyt, to taki Ubi by jeszcze zarobił trochę na licencji, gdyby ktoś inny odpłatnie uruchomił serwery.
Cały problem ochrony IP polega na tym, że nie daje społeczeństwu nic w zamian. Z założenia ochrona IP miała zachęcać twórców do tworzenia i dzielenia się dziełami, ale w obecnej formie częściej jest wykorzystywana aby likwidować twórczość i ograniczać do niej dostęp sztucznie podnosząc jej wartość. Jaki społeczeństwo ma interes w ochronie praw autorskich firm, które celowo likwidują produkty z rynku aby nie robić sobie konkurencji starociami? To tak, jakbyśmy chronili producentów samochodów do tego stopnia, że jak przestaną produkować części zamienne do kilkuletniego modelu, to nikt już go nie będzie mógł naprawić.
Otrzymanie ochrony praw autorskich powinno być równoznaczne z przekazaniem całego IP do domeny publicznej po upływie tej ochrony. Twórcy powinni zarabiać na tworzeniu i zasadnicza większość z nich dokładnie tak zarabia. Stworzą coś i zarabiają na początku, gdy jest to coś nowego i popularnego. Posiadanie praw nie powinno być biznesem dochodowym. Gromadząc prawa do IP i trzymając je w szufladzie nie dajemy nic społeczeństwu, więc nie powinniśmy oczekiwać nic w zamian. Tylko pseudo-tworcy burzą się o to, że powinni zarabiać na swoim dziele do końca swojego życia z samego tytułu posiadania wyłącznych praw.
Miałem to i do tej pory mam pudło z płytą. Gra męczyła kilkoma rzeczy, które łącznie potrafiły zmęczyć. Koszta napraw? Ok, zrozumiałe. Koszta wpisowego? No trochę trudniej, ale da się przeżyć. Fizyka i mechanika jazdy, które karzą graczy za najdrobniejszy błąd? To jest już spore utrudnieniem przeciwnicy zachowujący się irracjonalnie? To potrafi już odebrać większość przyjemności z gry. Zbierasz kasę, przygotowujesz się, w końcu startujesz w wydarzeniu i idzie całkiem dobrze, aż tu nagle NPC postanowi popełnic rytualne bukkake rozbijając się o ciebie, tracisz reputację, pieniądze i musisz nadrabiać straty przez kupę czasu. Ta gra to symulator porażki.
To raczej będzie dotyczyć liniowych gier typowych dla Sony, które często nie miały poziomu trudności. Pamiętam jak irytujący był God of War 1 i 2. Bardzo dużo QTE i czasówek zręcznościowych. Czasem trudność polegała na tym, że w kilkuminutowej cutscence nagle miałeś pół sekundy na wciśnięcie przycisku i jak nie trafiłeś, to od początku. Jedną z ostatnich walk męczyłem z godzinę i nie było w tym nic przyjemnego, bo ile razy pokonałem bossa, w końcowej cutscence przegrywałem przez głupi QTE. Znowu jednej z części nie skończyłem, bo pod koniec było głupie zadanie zręcznościowe, w którym masz kopać kamień do innego pomieszczenia i po nim wyjść zanim uruchomi się pułapka. Podchodzilem do tego kilka razy, straciłem na tym że dwie godziny i się poddałem. Sterowanie było toporne, całość była upierdliwa i czasu zawsze zabrakło, a główną przyczyną była kamera, która ciągle zmieniała kąt i trudno było tak szybko precyzyjnie się poruszać. Nowsze gry miały już niższy poziom trudności i przeszedłem je bez problemu.
Poza tym jeśli zrobią system adaptacyjny z głową, to nie będzie źle. Ja miałem głównie problem z QTE, ale reszta mogła być trudna. Często gry mają różne mechaniki i jedne są upierdliwe, inne nie. Jak gra będzie miała ustawienia trudności i będzie dostosowywać rozgrywkę do stylu gracza, to będzie dobrze. Chcesz wyzwania, to sobie taki tryb wybierzesz i gra się już postara, żeby to było wyzwaniem.
Jest tu jedna, dosyć mylna teoria. To nie klawiatury miały "problem" ze zmapowaniem klawiszy do wielu dostępnych w grze akcji. Bez problemy by mogły to zrobić. To twórcy szli na łatwiznę i sterowanie konsolowe przenosili na klawiaturę. To normalne, że na konsoli możesz jednocześnie użyć nawet czterech przycisków i to nie licząc czasem wykorzystywanej kombinacji kilku sąsiadujących przycisków wciskanych jednym palcem. Dlaczego tak? Bo kontroler nie ma zbyt wielu przycisków. Na klawiaturze zazwyczaj lepiej mieć osobne przyciski, ale bardzo często twórcy utrudniają życie graczy przenosząc ten sam model na komputery. Dzięki temu musisz robić jakieś akrobacje na tej klawiaturze. Ubisoft robi to notorycznie.
Niech pierwszy rzuci kamieniem ten, kto próbował wsiąść do samochodu w Far Cry i przypadkiem wyrzucił swoją broń, bo coś leżało przy drzwiach samochodu. Osobny przycisk na zmianę broni i użycie przedmiotu? Nie, po co? Gost Recon Breakpoint, w którym nie można przypisać przycisków do użycia konkretnych przedmiotów w ekwipunku i zawsze trzeba się bawić przełączając między granatem i apteczka, a później użyć ich osobnym przyciskiem. Podobnie w The Division mechanika poruszania się i osłon mocno opierała się o te same przyciski, co często prowadziło do kuriozalnych sytuacji.
Streamerow w większości oglądają ludzie dla rozrywki, coś podobnego do talk show. Gospodarz jest najważniejszą częścią programu, to jego humor i jego zachowanie sprawia, że ludzie zostają i oglądają. Nie wiem w jaki sposób takie boty mają przyciągnąć publikę.
Skoro to tylko trochę materiałów, to sam taką zaprojektuj i zbuduj. Sama NVIDIA wydaje rocznie blisko 8 miliardów dolców na samo R&D. Ogrom ludzi i pracy idzie na zaprojektowanie czegoś takiego. Musisz to jeszcze wdrożyć i wyprodukować, a to dopiero koszta produkcji samych mikroprocesorów. Nvidia na tym etapie pakuje to na swoje płytki i w swoje chłodzenie, ale mamy jeszcze AIB, którzy obsługują większość rynku. Oni mają swoje koszta na R&D, tworzą własne płytki, własne chłodzenie. Zanim pierwszy produkt trafi na półki, to te firmy wydały grube miliardy na jego stworzenie. Mają to teraz sprzedawać w cenie piasku, bo już robotę za darmo odwalili? No nie, przychody ze sprzedaży idą na R&D kolejnych wersji, inaczej by się ten biznes nie kręcił. Zasadnicza większość ceny takiego sprzętu to koszt jego opracowania, a nie produkcji.
Przełóż ten argument na gry komputerowe. Co one takie drogie, przecież to tylko trochę bitów. Sam sobie ściągnę z torrentów, więc nie ponieśli żadnych kosztów, powinno być zupełnie za darmo rozdawane!
Ale my głupi jesteśmy, przecież wystarczy włączać kierunkowskaz kiedy skręcasz kierownicą! Po co nam osobna wajcha?
Aby podbić taktowanie na podstawie obciążenia CPU musimy najpierw zmierzyć jego stopień obciążenia. No chyba, że będziemy zmieniać taktowanie za każdym razem, jak pojawi się jakaś instrukcja do wykonania, ale i to wymaga chwilę i dopiero późniejsze operacje będą wykonywane szybciej. To normalne, że procesor utrzymywany na wysokich zegarach jest bardziej responsywny na nagle wrzucone operacje do wykonania niż procesor na niskich taktowaniach, który musi najpierw podbić napięcie i zegary. Można oczywiście cały czas utrzymywać wysokie zegary i wyższe napięcia, ale po co? Jak mamy zadanie wymagające 0,01s, to nie zrobi nam to dużej różnicy, a niepotrzebnie marnujemy energię. Zasadnicza większość aplikacji działających sobie w tle może śmigać na niskich zegarach i idealnie by było, gdyby aplikacje były rozdzielone pomiędzy niską i wysoką responsywność. Procesy w tle używają zegarów na niskich napięciach i są oszczędne, a te główne i ciężkie podkręcają go do wyższej wydajności. Oczywiście da się to zrobić ręcznie, oceniasz jakie aplikacje mają działać na jakich zasadach i wbudowujesz coś w Kernel systemu aby on mógł określić zasady zasilania automatycznie do scenariusza. Tylko nikt tego nie robi i zasadnicza większość aplikacji jedzie na domyślnych ustawieniach. No a takie AI teoretycznie powinno być w stanie rozpoznać jak różne programy są wykonywane i nauczyć się, kiedy warto podkręcać taktowanie, a kiedy nie ma to żadnego sensu i program ma mielić na bazowych zegarach lub niżej. Teoretycznie. Dlatego też to nie tyle zwiększy moc, co zmniejszy zużycie energii nie podbijając napięć dla procesów, które tego nie potrzebują.
Jeśli dobrze pamiętam, to będzie to tylko wbudowana przejściówka w płytę główną, która nadal będzie miała 12VHPWR z drugiej strony. Ewentualnie że 3-4 wtyczki 8pin. To nie ma sensu w inny sposób, bo wtedy płyta główna będzie miała konkretne ograniczenia prądowe. Wystarczy zobaczyć jak to wygląda w płytach do OC procesorów. Taki Z790-Creator poza standardowym 2x4 pin na CPU ma jeszcze trzeci 4pin, a poza gniazdem do płyty głównej ma jeszcze 6pin do zasilania gniazd PCIe. Jak jeszcze będzie miało zasilić grafikę, to albo każda płyta będzie miała dodatkowe 6 wtyczek, albo będzie miała tą samą 12VHPWR, albo będziesz kupować płytę na daną moc i do nowej karty graficznej będziesz zmieniać całą platformę.
Tak tylko przypomnę, że ludzie też tworzyli grafiki promocyjne z masą błędów, trzema rękami, nogami z dwoma kolanami itp. Wszystko to kwestia jakości i nie ma znaczenia, czy zrobił to grafik w przerwie na kawę, czy AI. Błędy się zdarzały i były akceptowane, więc zastępują ludzi AI w tych sektorach niewiele się zmieniło.
Po remasterze San Andreas jakoś mnie to zupełnie nie dziwi. Niech lepiej nie poprawiają RDR. Dobrze wiedzą, że większość zainteresowanych grała w RDR, główni kupcy mają kasę i kupią z sentymentu albo aby ograć ponownie. Podejrzewam też, że RDR zaczną też dorzucać do innych tytułów jak to robi Ubisoft. Też sprzedają nastoletnie gry po kilka stów i co jakiś czas dorzucają je do nowego tytułu. Tu raczej nie chodzi o remaster, a o podtrzymanie marki, kiedy dosyć stara gra nadal fabularnie jest świetna i jest częścią aktualnej sagi. Gdyby taki God of War III wyszedł na PC, to też by dumali nad tym, jak zapewnić pozostałe części byle tylko wszystkie były.
Chociaż z drugiej strony, Vive City Stories nigdy nie wkrzesili. Możesz zagrać na emulatorze PS2 w 4K ale nie ma wersji na androida, PC czy konsole nowszej generacji.
Podejrzewam, że chodzi raczej o kwestie podatkowe. Valve jest dystrybutorem gier na wielu rynkach i od wszystkich transakcji odprowadza podatki do odpowiednich urzędów. Jak na Valve wrzucisz moda, który wymaga opłacenia czegoś poza systemem, to oni mogą mieć problemy. Równie dobrze Valve by mogło oferować gry za darmo, a pod spodem wymagać płatności w jakimś raju podatkowym. Skarbówkę nie interesuje czyja to wina, chajs musi się zgadzać, a głupio by było za to belnąć i stracić steam na jakimś rynku przez taką głupotę.
Ciekawe jak tam poprawki błędów w systemie budowania. Kiedyś mocno skopali system ogrzewania. Mogłeś podłączyć budynki do ciepłowni, ale wtedy jeśli wyłączyłeś ciepłownię albo brakowało mocy, to ludzie marzli. Jak nie było koło rur ciepłowniczych, to sami się mogli ogrzać. Lepiej było nie mieć ciepłowni, bo wyłączenie jej nic nie dawało i dalej nie potrafili się ogrzać prądem.
O ile pamiętam, to w Soviet Republic dodali cieplownie. Był w nich tylko jeden mankament. Kiedy uruchomiliśmy ciepłownię, wszystkich trzeba było nią obsłużyć. Jak zrobisz ciepłownię i podłączysz do niej jedną dzielnice, pozostałe zamarzną. Jak nie masz ciepłowni, to wszyscy się ogrzeją prądem. Fajnie by było dodać ciepłownię czy gazociągi jako alternatywy do ogrzewania jednocześnie nie blokując możliwości używania innych, najlepiej regulacjami państwowymi. Ot, możesz zakazać grzania gazem, możesz nakazać używania elektrociepłowni gdy jest dostępna, możesz zostawić wybór mieszkańcom.
Zwykła walka ze scrapperami. Nie wiem w jakim celu, ale najwyraźniej są scrappery wiecznie mielące Twittera zbierając dane, a to obciąża serwery, zwiększa koszta i dosłownie nic platformie nie daje. Dokładnie tak samo Steam ma limit bodajże 10-100 tysięcy zapytań dziennie, przynajmniej w przypadku API. Chodzi wyłącznie o odciążenie serwerów, gdy jakiś klient notorycznie ciągnie dane i ewidentnie robi to aby gromadzić dane.
Po to człowiek ma uniwersalną maszynę aby grać jak mu się podoba. Chociażby taki Assassin's Creed jest nieporównywalnie lepszy na padzie, nie był zrobiony pod klawiaturę i to czuć w grze.
"Nie da się kupić PC za $500" po czym kupują maczka za $1000-2000 żeby leżał na biurku bez monitora i iPada za $500 żeby mieć coś bardziej mobilnego.
Masa ludzi spokojnie by mogła mieć PC do gier i domowego użytku, a tableta do rzeczy mobilnych, ale za to kupują kilka urządzeń mobilnych i dziwią się, że budżetu na komputer nie mają. Znam ledwie kilka osób, które mają faktycznie mocnego laptopa używanego często poza domem i konsola miała sens zamiast drugiego mocnego PC. Większość zamiast mieć jeden porządny komputer, to kupuje kilka średnich urządzeń, używają tego i tak w domu jak normalnego PC i do tego biorą konsolę, więc w większości przypadków to tylko marudzenie na brak budżetu.
Swoją drogą, PS5 jest już niemłode i da się w zbliżonej cenie kupić kompa o zbliżonej mocy. Konsole zawsze są bardziej opłacalne na starcie, bo celowo mają zaniżoną cenę sprzętu aby zarabiać na grach i subskrybcjach. Z wiekiem ich opłacalność drastycznie spada.
To mnie najbardziej irytuje w discordzie. Jak coś jest publicznie dostępne, to powinno być publicznie dostępne. To trochę kpina, że musisz założyć konto, znaleźć kanał i dopiero tam możesz łaskawie wyszukać w temacie supportu czegoś na temat błędu w jakiejś grze czy aplikacji. Już mi wystarczy, że musze podać hasło i zweryfikować email aby zaktualizować sterowniki do GPU. Niedługo nie będzie można sprawdzić zawartości lodówki bez konta u producenta i drugiego konta na stronie partnerskiej.
No tak, bo gry typu Conan Exiles faktycznie działają znakomicie dzięki dedykowanym serwerom. Dedyki mają to do siebie, że ich skalowanie do liczby graczy nie istnieje. Masz za mało serwerów lub za słabe serwery, wszystko jest wolne i każdy ma lagi. Masz ich za dużo, koszta są nieopłacalne i gry umierają dużo szybciej. Właśnie dzięki modelowi p2p takie gry nie mają bottlenecks w postaci centralnych serwerów i ile graczy nie wrzucisz, będzie działać. To jest odwieczny problem tego typu gier, który ciągle trzeba obchodzić. Można zrobić grę prymitywną w swojej formie i wtedy będzie na tyle lekka, że centralne serwery dadzą radę. Można zrobić grę o wielu instancjach, ale to tworzy głupi problem - każda instancja jest inna. Dobre w grach, gdzie otoczenie jest statyczne jak WOW. Średnie w grach, gdzie otoczenie się zmienia jak FO76. Właśnie dzięki temu w FO76 nie można budować dużych baz i nie ma gwarancji, że po wejściu do gry będzie to, co tam było przed wyjściem. Można zrobić podział na sektory, ale kończy się to tak, jak Life is Feudal MMO. Zbyt dużo graczy w jednym miejscu i serwer wymięka. Albo można mieć efekt jak w Conanie, gdzie zbyt wiele graczy oznacza niesamowite lagi i gra pracuje w 10 TPS. Nawet Minecraft na to cierpi, gdzie zbyt wiele mobów czy sprzętu sprawia, że serwer ma tylko kilka TPS.
Model P2P też ma swoje wady, ale jednak jest lepszy niż wiecznie zapchane serwery lub ogromne ograniczenia rozgrywki aby serwery sobie radziły.
Steam to przede wszystkim dużo sprawniejsze narzędzie. Origin (już nieistniejący) i Ubi jeszcze jako tako były wygodne, GOG jest dla mnie nieintuicyjny, chociaż zaczęli już poprawiać głupie kwestie w interfejsie. Natomiast Epic jest dziwny, bardziej przypomina sklep niż narzędzie do trzymania biblioteki gier. Co jednak najważniejsze, Steam ma dużo funkcji, których inne platformy nie mają. Chociażby ten workshop. Ściągasz grę w GOG i mody wrzucasz gdzieś bokiem z githuba czy innego Nexusa. Ściągasz na Steamie i nie tylko dodajesz mody jednym klikiem, ale wręcz pamięta co wygrałeś jakbyś ponownie zainstalował i aktualizuje mody automatycznie. Tak samo branche gier, niektóre mają po kilka wersji i Steam bez problemu pozwala się przełączyć między wersjami. Co jednak mnie najbardziej ściąga do Steam, to wbudowana obsługa kontrolera. Po prostu działa, podłączasz pada i wszystko w nim jest. Nawet gry z innych platform uruchamiam przez Steam. Wspominałem o UI ze Steam Decka? Możesz uruchomić go w big picture i obsługiwać kontrolerem z kanapy. O ile remote play nie należy do wydajniejszych (u mnie sunshine i moonlight robią ogromną różnicę w stabilności streams), o tyle dla większości ludzi jest wystarczający. Czyli możesz odpalić steam na laptopie/tablecie, sparować pada, odpalić big picture i streamowac gry z dużego PC w innym pokoju. Nikt nawet nie zbliżył się do takiej funkcjonalności. Teraz mniej z niej korzystam, bo wsparcie dla kontrolera w sunshine jest lepsze (wspiera layout PlayStation), ale dawniej każdą grę działająca lepiej z kontrolerem uruchamiałem właśnie przez remote play z obsługą kontrolera w big picture. Epic i inne to tylko sklepy, Steam to coś więcej.
NVIDIA drastycznie zwiększyła cache i z ich obserwacji wynika, że wielokrotnie większy cache zmniejsza zapotrzebowanie na dostęp do pamięci o ponad 50%. Dlatego też liczą, że wydajność dostępu do pamięci powinna być średnio dwa razy większa niż by to wynikało z jej przepustowości - znacznie więcej danych będzie dostępnych już w kostce procesora i nie będzie potrzeby komunikowania się z VRAM. To ma też trochę sensu. Kiedyś widziałem wyniki profilowania kilku gier i faktycznie ówczesna wielkość cache była zbyt mała, co wymuszało częsty dostęp do VRAM do uzyskania często używanych danych. Zwiększając cache sprawili, że dużo więcej danych będzie siedzieć pod ręką, a VRAM będzie mocno odciążony pod kątem transferów.
Wszystko wynika z tego, że różne dane mają różną czestotliwosc dostępu. Jak odczytujesz 1MB tysiąc razy, to umieszczenie 1MB w cache odciąża VRAM z 1GB transferu. Stąd zmniejszenie szyny wraz z powiększeniem cache do bodajże 32MB robi robotę.
Jeśli mnie pamięć nie myli, to pobór prądu jest uzależniony od ilości operacji wykonywanych przez VRAM i jeśli mnie pamięć nie myli, to 16GB model ma więcej pamięci na identycznej szynie. Czyli wcale nie będzie szybsza od wersji 8GB. Wzrost poboru prądu można zauważyć dodając kości pamięci na szerszej szynie, kwtedy dublujemy przepustowość i siłą rzeczy obie kości równolegle mogą zapisywać czy czytać. Kiedy zamienimy kość 1GB na 2GB, to nadal szczytowy transfer jest bez zmian, po prostu więcej się na niej zmieści.
Stąd też jest pewien problem z modelami 12GB. Zwiększając je do 24GB nie zyskamy na wydajności, będą droższe i dla większości ludzi nie zrobi to różnicy. To nie są karty do grania w 4K czy na ultra HD teksturach i siłą rzeczy nie potrzebują po 16+ GB VRAM. Dokładnie tak samo 4060 jest raczej do 1080p w porywach do lekkiego 1440p, ale w większości przypadków użytkownik nie odczuje braku pamięci. Wersja 16GB zapewne jest tylko po to, aby zaspokoić niewielki rynek graczy, którzy grają na wysokich teksturach/rozdzielczościach, ale niskiej liczbie klatek i często obniżonych detalach. No ale to nie jest główny rynek zbytu.
Pamiętajcie też o tym, jak podejmuje się takie decyzje. 4090 nie ma sobie równych, nawet 4080 przebija starsze produkty. 4070 już muszą konkurować z poprzednimi liniami. Pod tym względem 4070 Ti 12GB jest szybszy od 3080 12GB i nawet 3080 Ti (szczególnie jeśli liczymy wydajność w stosunku do mocy/ceny), podobnie 4070 z 3080 12GB, a znowu 3080 10GB to trochę mało już... A co z 4060? Tu mamy zupełnie inny rynek. W segmencie 8GB konkurencja jest ogromna, sięga kilku generacji wstecz i naturalnie ludzie mogą się zastanawiać nad tym. Tak chociażby 1070 OC były wydajnościowo na poziomie 3060, a więc będą trochę słabsze. Jak jednak popatrzymy na 1080, 2080 Super czy 3060, to nagle w stosunku rynku kart używanych taki 4060 8GB ma dużą konkurencję. Wiadomo, wielu woli kupić nowe, ale wielu kupi coś starszego taniej. Tym bardziej, że jest jeszcze 1080 Ti i 2080 Ti z 11GB VRAM. Co wy na to? Czy starszy, tańszy wariant nie będzie lepszym zakupem? Titanów 12GB wiele pewnie nie ma, ale co z 3060? Po prostu wydanie modelu 8GB nie zaspokoi rynku, bo mają dużą konkurencję i przez to wydawanie 16GB wariantu ma sens. Daje alternatywę słabszym kartom z poprzednich generacji, które nie mają tyle pamięci. Większość ludzi będzie wolała 4070 niż 2080 Super. Wielu zastanowi się, czy różnica między 3080 i 4070 jest warta kupna starszej generacji. To wygląda inaczej w segmencie 4060 i stąd już w poprzedniej generacji było tyle opcji.
I tak są generację w tyle. Kiedyś kupowałem mniej więcej co drugą generację koło modeli 70. 275 (+SLI), 660 Ti, 780, 1070. Wzrosty wydajności i ilości pamięci były tego warte. Patrzylem znowu na 3070, ale upgrade z 8GB na 8GB to żaden upgrade. Myślałem nad czymś mocniejszym dla większych ekranów, ale 3080 znowu drogie były i nadal ledwie 10-12GB. Nijak nie opłaciło mi się zmieniać grafiki właśnie przez niedobór VRAM i ceny. 3060 Ti to żaden upgrade w stosunku do 1070 8GB, nawet 3070 nie jest za bardzo dobrym wyborem, a 3080 to półka wyżej i była wyraźnie droższa. Teraz zrobili krok, 4070 to faktycznie usprawiedliwiona różnica w wydajności i VRAM w stosunku do serii 10/20 (nie oszukujemy się, nie celują w posiadaczy 30), ale 4060? Bez modelu 16GB by co najwyżej były takim sobie wyborem, który wiele się nie różni od 3070, 2080, a w praktyce licząc ceny mogą konkurować z 3060, 2070/2060 czy nawet 1080/1070. Serio, przy tak niedużej różnicy w wydajności lepiej było kupić 1070 za pół ceny niż 3060. To samo będzie teraz, tylko 12/16GB warianty ich ratują. O ile wielu klientów kupi nowe bo nowe, wielu kupi używane, bo są bardziej oplacalne.
Przecież wsadzili do karty za $1600 :)
GDDR6X kosztuje teraz coś koło $20 za GB. To znaczy, że 24GB w 4090 kosztują tak z $500. To blisko 1/3 wartości samej karty. 4070 ma 12GB za $600. No to dodając dodatkowe 12GB karta by kosztowała z $850. To więcej niż kosztuje 4070 Ti. Nieco mniejsza różnica jest przy GDDR6, ale nadal trzeba liczyć z $10-15/GB. Dodanie $80-$120 do karty kosztującej $300 to nie jest mało. Nawet jeśli przyjmiemy, że NVIDIA i AMD mają rabaty rzędu 50% na zakup pamięci (a pewnie nie mają biorąc pod uwagę niedobory i dużą konkurencję), nadal mowa o podbiciu cen kart o jakieś $50 dla dodatkowych 8GB, a to by się przekładało na jakieś 250-300zł. O ile jest to usprawiedliwione kupując mocniejsze modele (i mają po 16-24GB), o tyle średnio usprawiedliwione przy kartach za 2-3k. Pytanie proste, czy dodanie tych 10-20% do ceny dla dodatkowych 8GB się przyjmie? Jakoś AMD dużo rynku nie przejmuje pomimo stawiania na VRAM.
I właśnie dlatego system wersji próbnych czy demonstracyjnych powinien wrócić. Niech sobie będą różne modele. Niektóre gry ograniczone czasowo, szczególnie multiplayer. Niektóre gry ograniczone postępem, tylko prolog, tylko do jakiejś populacji, tylko do jakiegoś momentu w progresji. Ot, jak beta Diablo IV. A jak ktoś chce, to niech zrobi specjalną wersję demo stracyjną. Bierzesz za friko, próbujesz i decydujesz. Obecny model jest nastawiony na wykorzystanie graczy. Musisz zapłacić często więcej niż w innych miejscach aby móc wypróbować grę i jak się nie spodoba, to może możesz zwrócić. Jak grasz z zegarkiem na ręku. To jest miecz obosieczny, z jednej strony gracze ryzykują tym, że gra im się nie spodoba w 3h, ale nie mogą oddać tytułu za 500zł, z drugiej strony gra może być tak krótka, że przejdą i oddadzą. Steam jako największy gracz powinien rozważyć jak ulepszyć ten system, bo do tej pory ogrom ludzi polega na piratach. Sam wielokrotnie ściągałem piraty gier tylko po to, aby je wypróbować bez płacenia za coś, czego nie jestem pewien. Prawie wszystko ląduje w śmietniku dosyć szybko i nie muszę się bawić w zwroty i pilnować, czy nie przekroczyłem czasu potrzebnego do oddania. Szczególnie, jeśli samo zapoznanie się z interfejsem czy stworzenie postaci czasem zajmuje zbyt dużo czasu.
Niestety taktyka zielonych działa. Sam od 7 lat używałem Strix 1070, która całkiem ładnie się kręciła i jest bardzo chłodna. Od 7 lat miałem 8GB VRAM, a wydajnościowo 1070 po OC (lub najbardziej bazowe 1070 Ti) wypada jak podstawowy model 3060 8GB. Co prawda 3070 i 3070 Ti są wyraźnie mocniejsze i mają szerszą szynę pamięci od 3060, ale kto widział po 7 latach wywalać tyle kasy na kartę z tą samą ilością VRAM? To jest jakaś kpina. Niestety dziala, bo większość zmieniających sprzęt poszła o 1-2 półki wyżej aby mieć te 12GB, albo kupili coś, co już ich zaczyna ograniczać nawet w nienajwyzszej rozdzielczości.
Brzmi dosłownie jak problemy wersji emulowanej na RPCS3. Przy czym emulator dało się ogarnąć tak, aby poszło na PC jako tako.
Durnowata logika. Ludzie kiedyś nie grali na mobilnych konsolach, bo praktycznie ich nie było. Twory mobilne miały swoje dedykowane gierki i wiele osób ich nie chciało, a możliwość grania w gry PC na urządzeniu mobilnym to nowość. To nijak nie znaczy, że ktoś się przekonał do konsoli. Sam też pluję na Sony i nie tykam Xboxa, a gram na wielkim ekranie z dużym nagłośnieniem leżąc sobie w łóżku z padem. PC to potrafią bez problemu, ale do tej pory nie było czegoś, co pozwoli grać mobilnie. Poza tym dla wielu osób taka gierka to umilacz czasu na kiblu.
Szczerze mówiąc, sam zacząłem się nad nim zastanawiać. Z wiekiem coraz mniej czasu i ochoty na gry. Fajnie, że są wypasione tytuły na dziesiątki godzin, ale one wymagają zaangażowania. Czy to ułożyć się przed telewizorem w sypialni, czy siąść do PC, trzeba mieć energię i czas. Steam Deck to taki odpowiednik dawnych konsolek do grania w kiblu w tetrisa. Jeśli możesz przerwać grę w dowolnym momencie i do niej wrócić jak masz chwilę dla zabicia czasu, to może być fajne wyjście. Chociaż nadal bym wolał coś lżejszego, co po prostu będzie wykorzystywało PC do streamowania gier. Gdyby tylko na telefonie dało się podłączyć tak ładnie kontrolki do grania, to kto wie. Może bym się skusił. Swego czasu ograłem kilka gier na telefonie w ten sposób, ale to zbyt słabe i niewygodne.
Już od RTX 3000 mamy do czynienia z płynnym dostosowaniem mocy karty do sceny, gdzie grając w RT masz niższe taktowania używając więcej rdzeni, a bez RT wyciągasz więcej mocy w rasteryzacji i nie przeznaczasz mocy na RT. Nie bez powodu te karty są tak przerośnięte i mają kuriozalne TGP. To jest jest taki punkt dużego niezrozumienia. Jak kupujesz RTX 4090 i chcesz wycisnąć z niego absolutnie wszystko, to musisz mu dać z 600W. Możesz jednak spokojnie go ograniczyć do 400W, a nawet 300W. Wtedy dziala on dokładnie tak, jakbyś tego oczekiwał. Albo korzystasz ze wszystkich możliwości i chodzi wolniej, albo rezygnujesz chociażby z RT i karta boostuje wyżej korzystając z zapasu mocy. Tym bardziej jest to odczuwalne w tańszych modelach o słabszym chłodzeniu. Oczywiście taniej by było kupić kartę bez rdzeni RT i byś miał to samo w rasteryzacji, ale cała idea w rozwoju tych technologii to zapewnienie czegoś nowego, co pozwoli nam dużo łatwiej i ładniej tworzyć złożone sceny. Zgodzę się z tym, że te najtańsze modele nie powinny mieć dedykowanych rdzeni RT. Wtedy w tej samej cenie będą wydajniejsze w rasteryzacji i trochę stracą w RT, ale dalej mogą mieć RT. Mój wysłużony GTX 1070 ciągnął BFV w RT w grywalnej liczbie klatek w 1440p, więc da się. Jedyny problem zacznie się wtedy, kiedy będziemy chcieli porzucić wsparcie dla gier bez RT i zapewne dlatego jest tak duże parcie. Może i dzisiaj większość gier na możliwość wyłączenia RT i korzysta ze sztuczek dla oka, ale cała idea to pozbycie się tych sztuczek na rzecz tworzenia dużo bardziej złożonych i realistycznych lokacji. Obstawiam, że w pewnym momencie pożegnamy się z możliwością wyłączenia RT na rzecz dawniej stosowanych sztuczek i przywitani się z klasyczną regulacją jakości oświetlenia, która będzie zwyczajnie regulować jak dużo źródeł światła widzimy, jak dużo odbić będziemy widzieć i ewentualnie jak będzie wyglądać utrata jakości tych odbić. Powrót do starych metod, gdy przełącznik regulował nie samą jakość grafiki, a ilość zawartości na ekranie. Wtedy starsze karty będą mogły obsłużyć RT z mniejszą liczbą odbić na ekranie, a mocniejsze będą mogły podkręcić to w kosmos.
Jeśli projektujesz grę bez RT, to będziesz tworzyć sceny i lokacje tak, aby wyglądały jak najlepiej bez RT. Będziesz unikać problematycznych rzeczy jak nadmiarowe odbicia. Nawet w nowoczesnych grach lustra często są matowe lub zbite, bo zrobienie lustra to dużo roboty. Znowu jak gdzieś się takowe pojawi, to jest to spory ficzur wymagający sporo dodatkowej pracy. Kiedy więc gra jest stworzona do działania bez RT, to dodanie RT niewiele w niej zmieni, a może nawet zepsuć skrzętnie stworzone iluzje. Znowu idąc w drugą stronę, gry stworzone pod RT mogą chętnie wykorzystywać jego możliwości, ale jednocześnie będą tworzyć sceny wyglądające kiepsko bez RT. Jeśli większość graczy nie ma sprzętu na to, to jest to trudna decyzja i wielu producentów woli nie przesadzać z prezentowaniem możliwości RT, bo jednocześnie pokażą jak źle to wygląda bez. O ile kupując taką grę z mocną karta będziesz się cieszyć, to grając na 1080 będziesz czuć, że coś jest tu nie tak, że wygląda brzydko lub jakoś tak prymitywnie. A to dlatego, że twórcy specjalnie stworzyli sceny takie, których bez RT dobrze nie przedstawisz bez dużego wysiłku na tworzenie sztuczek. Takim złotym środkiem jest obecnie częściowy RT, który zastępuje poszczególne funkcje silnika graficznego. Można model rzucania cieni zastąpić RT, można model iluminacji czy szczątkowych odbić zastąpić RT. Nie daje to tak dużego efektu, ale pozwala mieć spójną rozgrywkę z i bez. Jednocześnie masz korzyść z grania w RT i nie czujesz dużej straty bez. Na prawdziwe RT będziemy musieli poczekać jeszcze sporo i pojawi się praktycznie dopiero wtedy, gdy twórcy gier przestaną poświęcać czas na sztuczki potrzebne do działania na słabszych kartach. Czyli dopiero wtedy, gdy przynajmniej 3060 będzie minimum, a wszystko poniżej będziemy uznawać za sprzęt retro, na którym ma to jakkolwiek się włączyć, ale bez fajerwerków. Tak, jak było z Crysisem. Na starym sprzęcie wyglądał jak każda inna gra, trudno było się doszukiwać przełomowych rozwiązań graficznych. Wiem, grałem w Crysisa na sprzęcie z 2001 roku, dało się, wyglądało jak każda inna gra z epoki. Dopiero na mocniejszym sprzęcie nagle to wyglądało dobrze, nagle gra się wyróżniała.
Problem z RT to typowy problem wschodzącej technologii. Dokładnie to samo mieliśmy chociażby z premierą Cyberpunka. Jeśli musisz wspierać szerokie spektrum sprzętu, to nie jest to proste do wykonania. W przypadku RT jest to niesamowicie ważne. Standardowe modele oświetlenia w grach są dosyć sztuczne, tworzą nierealistyczne cienie i wiele wybaczają. Zaprojektujesz jakoś lokalizację, walniesz kilka źródeł światła, wypalisz tekstury i jakoś tam jest. RT to już jest symulacja rzeczywistego oświetlenia i jego odbić, przy nim wychodzi wiele błędów w tworzeniu lokacji. Wyglądają realistycznie, ale przez to mogą być wyjątkowo ciemne, nierównomiernie oswietlonezy w jakiś inny sposób nieprzyjemne. Teraz gry muszą mieć dwa osobne modele oświetlenia, ale jednocześnie oznacza to dwa zupełnie inne projekty. Przez to gry zazwyczaj wyglądają świetnie w RT i są spłaszczone bez niego, albo wyglądają dobrze bez RT, ale z RT są zbyt mroczne lub niedopracowane. To jakby tworzyć dwie gry jednocześnie. Dopóki gracze będą oczekiwać wersji bez RT, to będziemy mieli taki problem. Z tego powodu wiele produkcji ogranicza się do częściowego RT, który tylko zastępuje odbicia, ale reszta oświetlenia pozostaje niezmienna, ewentualnie RT słyszące do globalnych cieni. Grając bez RT można zauważyć, że cienie są w gorszej rozdzielczości, że przemieszczają się skokowo, że odbicia w lustrach są wypalone na stałe lub zniekształcone. Ot, widzisz odbicie w lustrze, ale nie zmienia się razem z cieniem światła lub świecąc latarką na lustro nie widzisz odbicia światła w pomieszczeniu. Przyzwyczailiśmy się do tego, ale to są ograniczenia, które RT eliminuje. Tylko co zrobić, kiedy chcemy dostarczyć oba warianty? To jest więcej pracy i naturalnie jedna z wersji będzie zrobiona lepiej.
To jest całkiem spoko karta, ale wyszła tak że 2-3 lata zbyt późno i jest zbyt droga. Takie to powinny być 3070 Ti czy bazowe 3080 na premierę. Obecnie 4070 Ti powinna mieć już 16GB, a 4080 Ti bliżej 20. To jest jakieś kuriozum, że mój wysłużony 1070 osiągami dorównywał 3060 i miał te 8GB pamięci. W dwie generacje zszedł ledwie o półkę niżej. Miałem zamiar zmienić na 3070, ale bym nie miał ani grama pamięci więcej. Znowu teraz po 6-7 latach wymieniać 8GB na 12GB za taką cenę to też kpina. NVIDIA poszła z cenami mocno w górę i próbują sobie usprawiedliwiać to podbijaniem numerków, ledwie się udało zepchnąć to z kategorii 4080. W praktyce obecne 4080 powinno być 4070 Ti, a 4070 Ti co najwyżej 4070 albo wręcz 4060 Ti. Jedynie 4090 robi tu robotę i pomiędzy powinien powstać faktyczny 4080 z 16GB i bliżej 12k rdzeni oraz 4080 Ti z 20GB i koło 14k rdzeni. I wtedy 4090 24GB z 16k i może 4090 Ti z 24-36GB i 18k+ rdzeni by się ładnie wpasowały. Nie bez powodu 4090 schodził jak na pniu. Nie ma realnego 4080 i wielu ludzi woli kupić 4090 i zrobić UV niż kupić niby 4080.
To nie wina adapterów, a złego podłączania. Już udało się spalić fabryczne kable w zasilaczu czy nawet dedykowane kable od cablemod. Po prostu 8 pin były duże, toporne i miały spore ograniczenia mocy, a 16 pin są dużo mniejsze, sztywniejsze i mają dużą moc z jednej wtyczki. Przez to łatwiej je wygiąć (są fizycznie małe) i jednocześnie są bardziej podatne na przeciążenie przy wygięciu. 6 pin ma tylko 2x37,5W. 8 pin ma 3x50W. 16 pin ma 6x100W. To nie jest tak wielka różnica biorąc pod uwagę to, że mają większą powierzchnię styku. Adaptery to nie jest zlo, po prostu są brzydkie i dodają masę. Te 6-8 pin często były luźne i można było ostro zagiąć kabel, w 16 pin jest na sztywno i jest zbyt gruby aby go tak wygiąć. Stąd potrzeba że 4cm aby zrobić 90 stopni. To jest pierwszy problem i dotyczy każdego kabla, stąd powstają złączki kątowe. Adapter sam w sobie po prostu zajmuje miejsce i więcej waży, więc poza miejscem najlepiej go przymocować do obudowy tak, żeby nie przenosił naprężeń na wtyczkę. I to tyle. Kilka trytek czy opasek, ułożyć jak ma być i gotowe.
Coś mi się wydaje, że te coraz nowsze zalecenia co do zasilaczy były mocno przesadzone, przynajmniej w przypadku Nvidii. Ileż to się naczytałem ile to prądu bierze, że trzeba własną elektrownię mieć, jakie to przerośnięte te sprzęty są. O ile faktycznie wiele rozwiązań ma bardzo przesadzone chłodzenie (za to jakie cichutkie), to TGP jest tu mocno przesadzone i ludzie na to źle patrzą. Te karty spokojnie pracują na dużo niższych napięciach i dużo niższym zużyciu prądu. Dawniej jedynie pasjonaci OC pchali karty do kuriozalnych wartości rzędu 500W+ na kartę. Dopiero z kartami 3090 i 4090 NVIDIA zaczęła je robić tak, aby nie było potrzeby modyfikowania kart i obchodzenia zabezpieczeń, są w stanie wykręcić się tak samo mocno w seryjnej wersji jeśli chcemy. Sęk w tym, że zupełnie nie musimy tego robić. Sam bawię się właśnie Strixem 4090. Jak ktoś jest leniwy, to wystarczy wpiąć 3 wtyczki i już karta nie przekroczy 450W bez żadnego spadku wydajności. Owszem, z 4 wtyczkami na 600W wyciągniemy kilka klatek więcej i jest zaprojektowana aby dać radę jeśli tyle mamy, ale to nie jest optimum, to jest max. Do tego stopnia, że o ile dawniej mogliśmy śmiało dowalić większe chłodzenie i obejść limity zasilania aby wyciągnąć trochę więcej, to obecne wersje tego nie potrafią. Możesz założyć chłodzenie ciekłym azotem, możesz dać jej i kilowat, a i tak się odbije od maksymalnych napięć z przyrostem rzędu najwyżej kilku procent. Inaczej mówiąc, obecne limity nie są dla optymalnej pracy, a do wyciśnięcia z kart ile tylko się da. Natomiast wystarczy obniżyć limity zasilania i tracimy ledwie 1-2% obniżając zużycie prądu często o 100-200W. I to bez żadnej wiedzy ani czasu na ręczne sterowanie zegarami. Sprawdzałem sam, RTX 4090 na 350W ma utratę rzędu 1,5% wydajności w stosunku do 450W. Więcej nie próbowałem, bo mam tylko 750W zasilacz i procesor jest wykrecony do 200W (typowo 100-140W). Do tego po ręcznym dostrojeniu wyciągnąłem jeszcze kilka procent lepsze osiągi pomimo ograniczenia do 350W. Skoro 4090 to potrafi, to dlaczego 4080 czy 4070 Ti miałby być inny? Może i producent zaleca 750W, ale to zakładając prądożerny CPU, inne osprzętu i wyciskanie z karty ile tylko ona potrafi (ekwiwalent dawnego podkręcania napięć). Natomiast jak chcesz mieć tą kartę z czymś mniejszym rzędu 600W zasilacza, też da radę, stracisz najwyżej kilka procent mocy, a jeśli jeszcze poświęcisz czas na ręczną kalibrację, to może nawet nic nie stracisz. To jes bardziej straszeniem konsumentów. Od dawna tak było, że do konkretnego OC potrzeba 1kW lub więcej, po prostu nowe karty dają taką opcję szaremu użytkownikowi, a nie tylko nielicznym.
Pomyśl trochę nierealistyczny. Jak teraz komuś smartwatch trzyma dobę na jednym ładowaniu, to z wymienną baterią będzie go ładować trzy razy dziennie lub zegarek będzie przypominać te zabawkowe z pojemnikiem na cukierki. Słuchawki bezprzewodowe douszne? Zapomnijcie, nijak nie da się zrobić wymiennej baterii w czymś, co będzie siedzieć w uchu i jeszcze trzymać długo na baterii. No chyba, że godzina działania i do kuferka z ładowarką. Jest cała masa miniaturowych urządzeń, które zwyczajnie nie mogą mieć wymiennej baterii, bo mechanizm do otwierania i zmieniania baterii zajmie więcej miejsca od samej baterii. No chyba, że wrócą czasy baterii CR i będziecie znowu kupować pestki do swoich zabawek. Telefony też mocno oberwą. Wymienne baterie to dużo grubszy telefon. Może bez tragedii, bo jeszcze takie Lumie mialy, ale to kosztem utraty że 30-50% czasu pracy na baterii. Co jak co, ale wolę ładować telefon raz dziennie niż zmieniać dwa razy dziennie baterie. Jeśli dodamy do tego wodoodporność, to zostaną tylko takie urządzenia jak telefony CAT. Plastikowy zatrzask to jedno, obudowa zapewniająca odpowiedni docisk i uszczelki to już nieco inna sprawa. Już pomijam to, że baterie wbudowane są duzo delikatniejsze praktycznie z cienką folią jako obudową. Jak będą wymienialne przez konsumenta, to dochodzi plastikowa, bezpieczna obudowa aby ktoś się nie podpalił dziurawiąc baterię byle czym.
Wymienialne baterie jak najbardziej, ale nie przez konsumenta. Powinny być wymienialne w serwisie. Rozklejenie i przelutowanie baterii to kwestia 50-100zł i gotowe. Może gdyby obudowa telefonu była na 18 śrubek, to jeszcze by się dało to zrobić, ale każda uszczelka, każda złączka, każdy kawałek plastiku, każde mocowanie, każdy zatrzask to dodatkowa waga i objętość. Każdy serwisant potrafi rozkleić telefon i wymienić baterię. Myślicie, że będzie taniej? Dobre sobie. Będziecie dostawać mniej w tej samej cenie albo zapłacicie kilka stów więcej aby mieć taką samą baterię jak teraz z możliwością wymiany raz w życiu. No złoty biznes. To ja wolę dać te 100zł żeby mi ktoś wymienił baterię niż dać 300zł abym sam mógł sobie ją kiedyś wymienić.
Trzeba tu dodać jedną, ważną rzecz. Jest to forma tworzenia ekskluzywnego produktu bez wysiłku i bez wycinania czy dodawania treści. To samo jest z mikrotranzakcjami czy DLC. Gdyby gry były po prostu drogie, to by na tym stracili. Gdyby gry były rozsądnie wycenione, to może i ludzie by kupowali w większych ilościach, ale by stracili na bogatszym konsumencie. Ustalenie ceny bazowej na wysokim pułapie i okazjonalne przeceny -60%, -80% czy -95% to jest konkretny model. Masz dwa produkty. Ten drogi dostępny od zaraz dla tych, którzy są skłonni tyle wydać, może jakiś średni na dłuższych promocjach raz na jakiś czas i ten tani, gdzie gry są sprzedawane po niskich cenach, ale trzeba pilnować sklepów i śledzić je. Dzięki temu wcale nie sprzedają mniej. Kto nie zapłaci 200-300zł za grę teraz, ten zapłaci 100-150zł za kilka miesięcy, a może 50zł za rok czy dwa na krótkiej promocji. Nie mają konkurencji, prawo stoi po ich stronie i nawet starocie bez aktualizacji od 10 lat są chronione, więc mogą robić co tylko im się podoba. I to wykorzystują tworząc z dostępności usluge premium. Nie chcesz płacić 200-400zł, poczekaj na turę dla biedaków i kupisz taniej. W ten sposób mogą wydoić wszystkie rynki, od najbogatszego gracza aż po tych, którzy wezmą tylko za darmo. Nawet za darmo to dobry deal, jeśli to da nam więcej użytkowników i więcej tematów w mediach przyciągając więcej klientów. Ważne, aby zachować ten próg dostępności, aby te wersje dla biednych były trudne do zgarnięcia i wymagały czekania. Nikt nie kupi gry za 300zł, jeśli będzie mógł kupić ją za 50zł lub dorwać legalnie za darmo z innego źródła. Większość ludzi nie kupi czegoś za 300zł wiedząc, że za dwa miesiące będzie w promocji za 100zł. Dlatego to musi wyglądać jak stała cena, a ewentualne promocje pojawiają się i znikają aby nie dało się tego zaplanować. Ot, dlaczego mam zapłacić 100zł za grę, która była miesiąc temu rozdawana za darmo? Gdzie tu sens? Właśnie w tym, że jakby mi zależało, to bym pilnował sklepów i dorwał grę za darmo. Nie robię tego, więc płacę za rpzywilej kupna kiedy najdzie mnie taka ochota. Model bardzo upierdliwy, ale powszechnie stosowany. Dlaczego laptop Apple z 16GB RAM kosztuje kuriozalnie więcej od 8GB? Właśnie po to, aby dać jakąś różnicę między produktem dla bogatszych i biedniejszych. Dlaczego stojak do monitora, kółka, czy ścierka są takie drogie? Bo biedniejszy kupi tylko podstawowy sprzęt z niższą marżą, a bogatszy będzie w stanie wydać krocie aby tylko mieć wszystko od kompletu. Dlaczego taki Netflix 4K jest dużo droższy od 1080p? Różnica w cenie nijak nie jest usprawiedliwiona w kosztach transferu. Ano jest to produkt premium, biedniejszy zadowoli się 720p czy 1080p nawet jak ma kino domowe z 4K, a bogatsi będą mieli powód aby zapłacić większą marżę dla lepszych doznań. To samo od dawna było z kartami graficznymi. Czy to RTX 3090, czy jakiś Titan X, cena była dużo wyższa niż wzrost wydajności. Tańsze modele aż do 70 były wycenione całkiem rozsądnie dla przeciętnego klienta, 80 były na portfel trochę bardziej wymagającego, ale tak średnio zamożnego klienta, a Titan czy 90 oferowały wzrosty wydajności dużo niższe od wzrostu marży. I schodziły, bo były kierowane do tych, którzy kupią najlepsze nawet po tak wysokiej cenie. I dokładnie z tego powodu RTX 4080 teraz gnije na półkach. Odeszli od tego modelu, ceny są już w klasie ekskluzywnej, w której klienci sięgają po 4090, a znowu mniej zamozny klient nie widzi ekonomicznego sensu kupna 4080, to nadal zbyt wysoka półka cenowa. Właśnie dlatego, że różnica w cenie jest zbyt mała w stosunku do różnicy w wartości. Gdyby 4080 był tańszy, to dużo ludziby hi teraz kupiło, bo nie potrzebują 30% więcej mocy za 50-100% dopłaty. Gdyby 4090 był droższy, to wiele osób by go nadal kupiło dla tych 30% więcej mocy, ale część konsumentów o zasobnym portfelu by już zeszła na 4080 aby nie płacić tak dużej różnicy dla średniego wzrostu wydajności. Sam jestem jestem w tej grupie. Zarówno 4080 jak i 4090 by spełnił moje wymagania, nie mam żadnego powodu aby pchać się w 4090. No ale w obecnej sytuacji 4090 jest ekonomicznie bardziej opłacalny jeśli nie ograniczasz budżetu, więc na niego czekam. Gdyby z tych dwóch kart 4080 był bardziej ekonomicznie opłacalny, to bym brał go, taki był plan aż do premier i ogłoszenia cen i osiągów tych kart. Szczególnie, że Strix to 1550 i 2000 USD, gdzie różnica w wydajności wynosi około 33%. Aby ekonomicznie były sobie równe, to 4090 by musiał kosztować 2200 (MSRP 1800) lub 4080 by musiał kosztować z 1400 (MSRP 1050), a i tak nadal bym rozważał obie. Dopiero jakby 4090 był bliżej MSRP 2000 (koło 2400 za STRIX) lub 4080 był za MSRP 900 (koło 1250 za STRIX), to słabszy model by był uzo bardziej opłacalny o ile nam nie zależy na dodatkowej 1/3 wydajności. I wtedy ja nie potrzebuje 4090 i kupię 4080, a inni doplacaiduzo aby mieć top of the top. Po prostu muszą utrzymywać duże różnice w marży produktów niższej i wyższej klasy, inaczej nie są w stanie kierować ich do dwóch różnych odbiorców.
Durnoty wypisujecie. Te blaszki lutownicze to terminale. Przewody są do nich lutowane i bardzo dobrze się trzymają. Problem w tym, że te terminale są tak cienkie i usztywnione przez przylutowane przewody, że zginając przewody można urwać cały terminal od reszty złącza. Tak oderwany terminal jest nadal w obudowie i może nadal dotykać reszty, ale ma dużo większy opór i może dochodzić do iskrzenia. Wtedy to miejsce styku się nagrzewa i topi wtyczkę. Problem nie jest w przewodach czy spoinach, a w samej blaszce łączącej terminal z gniazdem wtyczki. Inne adaptery lub przewody od zasilaczy są bezpośrednio zaciśnięte lub wlutowane w piny wtyczki, NVIDIA zamiast tego oddzieliła je cienką blaszką, która jest słabym punktem. NVIDIA też zdawała sobie sprawę z potencjalnego problemu i dlatego ich wtyczka ma gumowe usztywnienie tam, gdzie każdy inny producent nie ma nic. Wiedzieli więc o słabym punkcie, zabezpieczyli go dodatkową gumą, ale nadal niedostatecznie i nadal terminale się odrywają.
To jakby powiesić telewizor na regipsach, które oderwały się od ściany. To nie wina kołków mocujących go do płyty, cała płyta się urwała. Problem jest w konstrukcji sciany. Problem jaki ma NVIDIA to potrzeba zmostkowania wszystkich 6 linii. Kiedy mamy 6 przewodów, to na każdy terminal przypada jeden przewód, wszystko jest małe i niezależne. Przy 4 przewodach rozdzielonych na 6 pinów trzeba zastosować jakiś mostek i on wydłuża wtyczkę tworząc potencjalny słaby punkt.
Akurat 16 pin jest łącznie z sygnałowymi. Widać po wtyczce, że jest to w praktyce 12 prądowych i 4 sygnałowe.
Z tymi zasilaczami to też nie ma co przesadzać. 600W to trochę za mało, ale już 750-800W zasilacz (jakich wiele) spokojnie da sobie radę z kartą bez OC. Mocniejsze procesory typowo zużywają koło 150W i potrafią robić do 200-250W w syntetycznych testach. Lepiej jednak zakładać coś na poziomie 150W typowego zużycia i 200-250W pod maksymalnym, nierealnym obciążeniem. Czy mowa o 5GHz+ na 9700K, czy takim 13600K. Chłodzenie i dyski łącznie nie zbliżą się nawet do 50W. To daje nam max 300W i typowe zużycie powizej 200W. Przy zasilaczu 800W zostawia nam więc 500W do dyspozycji. Obniżając power target w RTX 4090 o 20-30% mamy kartę zjadającą gdzieś w okolicach 350W przy ledwie 5% spadku wydajności. Nadal dużo mocniejszy od chociażby 4080 czy 3090 Ti, a łącznie daje nam to 550W typowego zużycia i max 700-750W w syntetycznych testach nierealistycznie obciążających GPU i CPU. Czyli do normalnego grania na 750W zasilaczu będziemy nadal w optymalnym 70-80% obciążeniu z rozsądnym buforem. To już nie czasy, kiedy sprawność zasilacza leciała w dół po przekroczeniu 50-60% obciążenia, można śmiało używać ich przy 80% obciążeniu nie tracąc ani żywotności, ani sprawności. Nie jest to może PSU kompa z niższej półki, ale też nikt do takiego nie pakuje 4090. Natomiast 700-800W zasilacz to jak najbardziej typowa moc komputerów dla graczy, którzy przewidywali mocne OC lub rozbudowę. W przeciwieństwie do potworów 30XX Ti, nowa generacja jest bardzo oszczędna. Jak ktoś ma głębokie kieszenie, to 4090 jest najlepszą opcją nawet, jeśli zamierza używać go z mocą zmniejszoną o 30%. Będzie cichutki, chłodny i nadal wydajniejszy niż jakakolwiek inna karta na rynku pocąca się i ciągnąca więcej prądu niż jego cały komputer.
Jak
Jak ma się mocnego PC, to można praktycznie wszystko ograć na nim. RPSC3 jest już w bardzo dobrym stanie. Sam miałem problem z kupnem pełnej sagi God of War. Było kilka części na rynku wtórnym, ale tylko podstawowych. Pozostałe jak Ghost of Sparta, Chains of Olympus i chyba Ascention były cyfrowe i ich nie ma, a klucze w GoW Saga są nieważne. Są małe szanse kupna niektórych gier tego typu, ale można zawsze założyć opaskę na oko i ściągnąć pirata. Tak czy siak, nawet legalnie można uruchomić gry z PS3 na PC, RPCS3 jest darmowy i w pełni legalny, działa także z oryginalnymi grami na BD. GoW działał bez zarzutu, The last of Us Lost Behind (czy jakoś tak, ten DLC zdjęty ze sklepu) też działał. Kupiłem kiedyś oryginalne TloU, planowałem dokupić DLC jak skończę podstawkę, a jak już kliknąłem aby to kupić to... Błąd. Nie ma takiej pozycji w sklepie. Na RPCS3 dało radę, chociaż wysypało mi się że 2-3 razy. Dla laika to może nie być idealne, wymaga trochę czytania i obycia. Natomiast skoro niemłody GTX 1070 dał radę, to i współczesne karty typu 2060/3060 dadzą sobie radę nawet z podbitą rozdzielczością. Jedynie warto mieć dobre CPU, bo jednak to wymaga kompilacji gry w tle i przy słabym CPU może przycinać.
Analogicznie, nigdzie nie da się kupić GTA VCS. LCD jest na androida jeszcze, VCS zdjęli ze sklepu i tyle po nim było. A jest to świetna gra, Vice City wydane 2 lata po San Andreas z dużo lepszą mechaniką i grafiką. Klimat jak w Vice City. Polecam spróbować, działa pięknie na PCSX2 (emulator PS2).
Problem współczesnych czasów. Jak jest drogo, to źle, bo człowieka na nic nie stać. Jak pracownicy dostają skromne pensje to źle, bo ich na nic nie stać. Jak zastąpimy kilku robotami i jeden nad nimi czuwa za normalną pensję to źle, bo pracę odbierajo.
W artykule jest poruszona kluczową kwestia. Te regulacje dotyczą produktów certyfikowanych. Zasadnicza większość ludzi kupuje tanie, niecertyfikowane kable i dodatki, więc nadal będzie śmietnik w nazewnictwie. Dokładnie to samo było z USB 3.X. Ich oficjalne stanowisko było proste. Nazwa marketingowa to Full Speed, Hi-Speed, SuperSpeed i SuperSpeed+. Później się poddali, bo nikt tego nie używał poza samym logo SS i SS+ używanym zamiennie z różnymi nieprawidłowymi wariantami. USB 2/3.X to rewizja standardu, a nie wersja produktu. Kolejne wersje 3.X to po prostu aktualizacje, które są kompatybilne wstecz. Właśnie po to, aby nie wypuszczać kolejnej wersji 4, 5, 6... Wtedy jest dopiero bałagan. Miało być tak, że wychodzi standard 3.1 czy 3.2 i on jest jedynym, poprzedni przestaje obowiązywać, a najnowsza wersja jest spójna i jedna. Dzięki temu nie masz 5 różnych specyfikacji, a tylko najnowszą. No i było dobrze, ale marketing wprowadzał chaos. O ile kojarzę, to USB4 (bez odstępu) jest właśnie po to, aby to było zarekestrowanym znakiem. USB jest powszechnie dostępne, 4 tym bardziej, więc nikt nie może nikomu zabronić napisania gdziekolwiek "USB 4". Natomiast jako jeden czlon staje się unikalnym znakiem. Nadal jednak jest marna szansa na prawidłowe oznaczenia i założę się, że będziemy widzieć "USB 4" na tańszych produktach bez certyfikatu na przemian z USB Gen 4, USB Version 4 i innymi wariacjami. Coś za coś, albo zamykasz standard i tylko swoi mogą go używać, albo dajesz go wszystkim i godzisz się na to, że nie każdy zrobi to dobrze.
Nie wiem, co widzisz w tym wszystkim dziwnego. Ten kwadratowy wtyk w drukarce to USB-B. Płaski w komputerach to USB-A. USB-A to urządzenie master, może być tylko jedno. USB-B to urządzenie slave, może być ich wiele chociażby w hubie. Taka była implementacja USB. Są jednokierunkowe. Chciałbyś mieć w padzie taki kwadrat jak w drukarce? No chyba nie, trzeba było zrobić mniejsze. Powstało mini USB-B. Jest też mini USB-A, ale nikt tego nie używa. Urządzenia master są jednak większe. No ale okazało się, że chociażby w smartfonach nawet mini jest za duże, więc powstało micro. Znowu w wersji A i B. Później wszedł USB 3 (SuperSpeed) dodający jeszcze kilka przewodów. Do dużego USB-A dało się je wsadzić, do USB-B i micro USB-B już nie. Więc powstały wersję kompatybilne wstecz z dodatkowym segmentem. Dzięki temu urządzenie z micro USB-B SuperSpeed można połączyć kablem od 2, po prostu będzie wolniej działać. W końcu to zaorali, USB-C jest dwukierunkowe, nie ma podziału na A i B, masz też dużo dodatkowych pinów, więc i można to rozwijać dalej nie zmieniając kolejny raz wtyczki. No ale to znaczy, że kable i urządzenia z tą samą wtyczką będą miały różne możliwości. Coś za coś. Albo zmieniasz ciągle wtyki, albo masz wszędzie takie same, ale jednak standard się zmienia.
To narzekanie nie ma sensu. Chciałbyś, żeby teraz była wersja tylko 5Gbit? Po co dodawać 10, 20, 40... Poczekajmy 10 lat i dodamy od razu 100. Nikt tu sobie nie wymyślił, żeby co dwa lata dodawać kolejną wersję. Po prostu pracują nad tym i rozwijają, a to dodali nowe enkodowanie pozwalające zwiększyć przepustowość, a to umożliwili wykorzystanie dwukanałowego przesyłu. Tak powstał Gen 1, Gen 2 (nowy encoding) i warianty Gen 1x2 i 2x2 (oba poprzednie, ale podwojone). Teraz wyszło znowu coś na 40Gbit.
Na Reddicie zebrała się grupa osób, które zaczęły naciskać na Ubi. Kiedyś ogarnąłem co jest nie tak z tymi ich serwerami, bo nie mogłem zagrać między innymi w Future Soldier, za którego zapłaciłem. Z kumplem znaleźliśmy przyczynę w wadliwych serwerach, tylko niektóre działały poprawnie i blokowanie w zaporze sieciowej tych niesprawnych naprawiało problem, gra łączy się z serwerem o najlepszym pingu. Jak ogłosili koniec wsparcia i większość serwerów dalej miała problem (FC3, Future Soldier i kilka innych gier), to zaczęliśmy ich molestować i w końcu ruszyli tyłek i znaleźli błąd w serwerach. Proponowałem, żeby chociaż wyłączyli DRM na DLC przed wyłączeniem serwerów obsługujących DRM. Mieli opory, ja to olałem, ale inni dalej naciskali i coś tam się w końcu ruszyli w temacie.
W sumie używam GE tylko do aktualizacji sterowników. Optymalizacji gier nie używam, bo zwyczajnie ich optymalizacje nie mają profili. Włączają takie badziewie jak rozmycie w ruchu czy DOF, przez co gra wygląda jakbym wypił przed nią pół litra i nie mógł złapać ostrości. Zwykle też zaniża ustawienia, nie potrzebuję 100+ fps. Prawdopodobnie ich profile nie uwzględniają możliwości kart z OC i dostosowują je pod model. Wyłączyłem też wszelkie nakładki, których i tak nie używam. Niech sobie siedzi. Akurat mnie problem nie dotyczy, bo jedyny komputer z W11 jedzie na grafice Intela, ale jest spore prawdopodobieństwo, że ustawieniami GE da się problem ominąć.
Nie kumam tej nagonki na nich. Jeśli już jakiś problem widzę, to z poziomem cen gier ogółem. To jest po prostu zawyżone, chociaż przynajmniej tego tytułu się jakoś bronią tym, co oferują. To chyba najlepsza gra konsolowa zaraz obok RDR1 jaka wyszła na PS3. Może Uncharted i GoW się jeszcze bronią, ale nie pod względem ilości zawartości. No może GoW III być gdzieś bliżej jeśli chodzi o czas rozgrywki.
Natomiast jaki jest problem tego, że machnęli to samo na nowszym silniku z nowszymi assetami i animacjami i liczą za to jak za nową grę? Kto nie grał nigdy, dla tego jest to nowy tytuł. Szczególnie, że ponoć mechanikę odziedziczył z Part II poprawiając to, co nie grało w pierwszej edycji. To jest cena dla tych osób. Na PC też rzadko pojawia się remake gry, a to właśnie podchodzi po remake wierny oryginałowi. Jak jednak wychodzi, to jest traktowany niemalże jak nowy tytuł, chociażby nowa Mafia I. Trzeba pamiętać, że gracze konsolowi piszą się na to na starcie. Na PC możesz grać w starocie jak długo chcesz, a fajerwerki graficzne starzeją się dużo wolniej. Nie ma ograniczeń sprzętowych, więc gry wychodzą w takiej jakości, jaką można wykorzystać na najnowszych układach high end. Po Ilus latach budżetowy komp jest w stanie sobie z tym poradzić i dalej wygląda to dobrze. A konsole? Gra jest zrobiona pod daną generację, lepiej wyglądać nie będzie. Nikt nie pakuje lepszej jakości tekstur czy animacji lub ustawień, których konsola nie obsłuży. Wychodzi nowa generacja i często nie da się na niej tego tytułu odpalić. Kupując konsole musisz się z tym liczyć. Jeśli TLoU 1 ma trafić na PC, to niewątpliwie to zagranie ma sens. Kto by kupił to w pełnej cenie na PC, gdyby na konsole było za ułamek tej ceny? A tak jeśli wyjdzie na PC, to będzie w zbliżonej cenie i pójdzie jak świeży uleczko, bo wielu graczy PC nigdy nie grało w to ani wiele innych gier konsolowych.
Denuvo jak i wszelkie inne metody ochrony IP mają na celu tylko jedno - odebrać użytkownikom jak najwięcej możliwości wyboru aby byli zdani na to, co wydawca zaoferuje. Gdyby nie one, a piractwo w pewnym zakresie było legalne, to każdy wydawca czy producent by musiał się starać przyciągnąć klienta jakością usług. Nowa gra jest taka sama, jak stara? Nie ważne, zdejmiemy starą ze sklepu i gotowe. Chcesz zagrać, to kup nową. Brak kompatybilności wstecz to jeszcze ułatwia, ile generacji urządzeń będziesz trzymać? Już od dawna polityką większości platform nie jest jakość świadczonych usług, a licencje na wyłączność. Nie wybierzesz lepszej alternatywy, jeśli jej nie będzie! Już całkiem sporo gier zniknęło z rynku. Spróbujcie zagrać sobie w GTA Vice City Stories. Jedna z fajniejszych odsłon, klimat jak w Vice City, mechanika już bardziej jak w San Andreas. Na emulatorze śmiga w 4K bez problemu i gra się świetnie, ale legalnie to możecie najwyżej kupić PS2 i mieć nadzieję, że uda się dorwać grę z drugiej ręki aby grać w rozdzielczości z innej epoki. Ale remastera czy wydania na PC nie będzie, bo licencje. W PSN też nie ma, bo licencje. Teraz Project Cars znika ze sprzedaży, bo licencje. A moze chcecie zagrać w starą sagę God of War? Wyszła tylko na PS3. Może jest chociaż częściowo dostępna w streamingu, ale nie każdy ma internet zdolny do tego, a i opóźnienia mogą być koszmarne. Więc co? Znowu kupować stare konsole i liczyć na to, że jakaś płytka z drugiej ręki pójdzie? No niestety niektóre były w dystrybucji cyfrowej, więc nie kupisz używanej. Dzięki temu produkcje, które można bez problemu skopiować stają się niedostępne, bo nikomu nie opłaca się ich utrzymywać, a jednocześnie nie chcą, aby ktokolwiek to robił nie płacąc im. Taki pies ogrodnika. O ile ochrona IP w pierwszych latach po powstaniu ma sens w kontekście ochrony małych inwestorów przed dużymi graczami (którzy by skopiowali i przejęli rynek przez swoją pozycję), o tyle ochrona IP niemalże dożywotnio to upośledzone prawo, które tworzy nam sztuczny rynek bycia właścicielem prawa do używania czegoś. Tego nie powinno być i tyle. Owszem, niech robią zabezpieczenia jakie im się podobają, ale niech to będzie ich sprawa bez ochrony prawnej.
Kopałem kryptowaluty jak BTC kosztowało poniżej 100 dolarów. Nakopałem tego na jakieś 10k złociszy żeby mi się inwestycja zwróciła i dałem sobie spokój. To było koło 25-30 BTC. Może nie tak ogromny majątek, ale teraz to by było 2,5 miliona.
Niby tak, ale nie do końca. Jeśli gra była dostępna tylko na konsoli, to wchodzi na nowy rynek i dla wielu osób będzie czymś nowym. Nie ważne, czy rok później, czy 4 lata. Tym bardziej, jeśli nie jest to byle port, a remaster na miarę możliwości współczesnych PC. Wiedza, że znajdzie się grono odbiorców na tym rynku płacących i te 300zł, więc doją. Później pewnie pójdzie w dół szybciej niż na konsolach, ale to jest odwieczne prawo rynku. Nikt nie zapłaci więcej, niż zażądasz. Od dawna na rynku PC stosuje się tą samą strategię. Na start ceny z kosmosu i kroić niecierpliwych. Później jakaś lekka obniżka dla normalnych i krótkoterminowe, wielkie promocje dla tych, którzy chcą poczekać i kupić coś okazyjnie. Nie bez powodu możesz kupić gry nawet za dwie stówki, które były jakiś czas temu rozdawane za darmo lub dostępne za kilka dyszek. Kto chciał kupić i czekał na okazję, ten dorwał. Reszta zapłaci więcej. Defacto płacisz za "luksus" kupienia gry kiedy chcesz, a nie w wyrywkowych promocjach kilka razy w roku.
Można też zwrócić nie przechodząc gry, oni tego nie sprawdzają! A podejrzewam, że Steama i tak na tym korzysta, bo w końcu zwrot możesz wykorzystać tylko na zakup innych gier. Później człowiek pomyśli, że lepiej kupić coś bezpośrednio na Steam i to wykorzystać zamiast szukać kluczy na Alledrogo.
Wciskanie kobiet na siłę najczęściej kończy się źle. Było sporo produkcji, w których występowały silne i zaradne kobiety, ale nadal pozostawały kobietami. Ich rolę odpowiadały ich płci i wcale nie musiały się ukrywać w cieniu facetów, ale miało to ręce i nogi, oglądało się to dobrze. Bonda też da się zrobić z kobietą jeśli dobrze to zaplanujemy, ale nie będzie to już Bond. Albo będzie to sztuczny twór, gdzie kobieta gra faceta, albo będzie to zupełnie inna produkcja zmieniając charakter rozgrywki. I znowu wciśnięcie innej produkcji pod ten sam tytuł może być źle odebrane. Dlaczego nie stworzyć bliźniaczej serii z agentką, która nie będzie próbowała wejść w buty Bonda, tylko będzie mu robić konkurencję po swojemu?
Nie widzę w tym problemu. W PlayStation Store TLoU Part 1 kosztuje 70 dolarów. Jak remaster na PS5 będzie kosztować podobnie, to gdzie tu jakikolwiek problem? Oczywiście powinni sprzedawać to jako jedną grę cyfrową na PS3-5 instalując wersję adekwatną do posiadanego sprzętu, ale to jest już coś, na co konsolowcy się godzą i nie zdziwi mnie to, że na PS5 bedzie trzeba zapłacić drugi raz za grę. Natomiast nie widzę powodu aby sprzedawali grę taniej niż oferują wersję bez remastera.
Marudzenie. Można zrobić 2 godzinny film z 15 minut akcji i można zrobić 10 sezonie serialu wypakowane go akcją. Dlaczego więc seriale po 5-10 odcinków niby nie mogą być wypakowane akcją? To dla mnie ma nawet więcej sensu, bo rozwleczenie serialu na 10 sezonów wymaga bardzo rozbudowanej i ciągle rozwijanej historii, która najczęściej gdzieś po drodze traci pierwotny cel. Nawet w takich seriach jak TWD czy SoA gdzieś po drodze coś poszło trochę nie tak, chociaż są spójne i ogląda się świetnie nawet po wielu sezonach. Natomiast historia napisana na 5-10 godzin rozrywki jest zamknięta, opowiada konkretną historię i zamyka ją w takim czasie. I mi się to podoba bardziej niż rozwleczenie tej historii na 20 odcinków wypełnionych byle czym czy wciśnięcie jej do 2h filmu pomijając masę smaczków, które widz chętnie zobaczy. Chociażby do Hawkeye podchodziłem sceptycznie, nie przepadam za tym bohaterem, a mimo to bardzo mi się spodobał. Skrócenie go do filmu by straciło sporo z klimatu, a rozwleczenie by straciło jego dynamikę. Każda historia ma swoją długość, jedna wypełni i kilka pełnych sezonów, inna ledwo nadaje się na 1,5h film, a jeszcze inna idealnie nada się na 5-10h dzieło. Jak można narzekać na seriale stworzone na 5-10h jednocześnie oglądając 4+ godzinne wersje reżyserskie filmów?
Właściwie, to wszystko zależy od faktycznej firmy dystrybucji. Weźmy taki Gid of War Saga czy tam Collection. Masz 5 części GoW w pakiecie, ale faktycznie kupujesz 3 i dostajesz gratis dostęp do cyfrowego pobrania 2 pozostałych. Przypadkiem tych dwóch nie da się pobrać, bo był limit czasowy. Podobnie miałem z The Last of Us. Kupiłem grę i było dostępne DLC. Jak skończyłem podstawkę, to nagle się okazuje, że teraz nie można już ściągnąć DLC do niej. Możesz kupić TLoU w cyfrze z DLC płacąc za to drugi raz. Takie fajne te gry pudełkowe. A co z aktualizacjami? Przecież nie ma żadnej gwarancji, że masz dożywotni dostęp do aktualizacji że strony producenta. To samo dotyczy gier na PC. Aktualizacje czy zawartość cyfrowa zależą od dystrybutora. Jakby Ubi sprzedawało DLC przez Steam, to by były nadal dostępne do pobrania jak gra. Ale że podstawka była dostępna na Steam, a DLC można było dokupić osobno pomijając Steam, to teraz mogą wypiąć wtyczkę i Steam nie moze nic wam oddać, bo nigdy tego nie miał. Grę pobieraliscie że Steama, DLC od Ubi. To samo dotyczy każdej formy. Dystrybutor jest odpowiedzialny za dystrybucję. Patrzcie, od kogo faktycznie macie grę. Jak Steam pobiera launcher, a grę zapewnia Ubi, to kicha. Jak Steam wam instaluje grę i DLC, a wy odpalcie już gotowe, to jest bezpiecznie. Steam chyba nigdy nie odebrał dostępu do posiadanych gier czy dodatków, nawet dawno usuniętych.
Akurat Valve robi dokładnie to, czego można od nich oczekiwać. Tytuł zostanie zdjęty, a co było sprzedawane na Steamie, to nadal będziecie mogli pobrać. To nie wina Steama, że dystrybucją DLC zajmowało się Ubi. Na pierwszy rzut oka może się wydawać, że to to samo. Co za różnica, czy kupisz DLC na Steamie, czy dokleisz kodem, czy może twórcy dadzą DLC każdemu, kto kupi grę? Ano taka, że grę się kupuje, a dostęp do zawartości dodatkowej to inna para kaloszy. Obstawiam, że nikt nie ma żadnego paragonu, faktury ani nic, co by potwierdzało zakup DLC ze Steama. Serwery do usług sieciowych i pobierania zawartości dodatkowej należą do Ubi. Można też używać platformy Valve, ale Ubi czy EA nie będą za to płacić, wolą mieć kontrolę nad tym, co dostaje gracz. I jak Ubi wyłączy serwery, to zostaje wam dostęp do tego, co jest w kontroli Steama, a więc pobrania podstawki gry.
Wszystko opiera się o balans rozgrywki. Gry to nie życie, wszyscy mają dostępny ten sam arsenał i wybiorą najlepsze, co jest. Jeśli różnicę między różnymi wariantami są niewielkie, to ludzie będą dostosowywać to do swoich upodobań, stąd w takich Battlefieldach jest większy rozrzut. Tylko kwestia jest taka, że z czasem nie masz na co wydawać punktów i możesz wziąć klony, wypróbować i nagle się okaże, że ten jest ciut wygodniejszy do twojego stylu. Do tego dochodzi różnorodność map. Jak są monotonne, to wszędzie ludzie grają tak samo. Jak są różnorodne, to na każdą mapę jest inna taktyka i inna pula broni. W grach nie można sprawić, że każda broń będzie odpowiednikiem prawdziwej, bo 95% będzie gorsza od czołówki.
Co wy tu wypisujcie? Problem dotyczy nie samej wymiany dysku, ta jest jak najbardziej ok. Steam ostrzega przed modyfikacją Steam Decka aby wsadzić do niego dłuższy dysk 2242, a nie przed wsadzeniem po prostu dysku w tym samym formacie o większej pojemności. Można kupić 2230 o pojemności 1TB. Jak ktoś chce, to 500GB są stosunkowo tanie na Allegro i to całkiem dobrej jakości. Serwisy i firmy kupują urządzenia z 500GB i wymieniają dysk na 1TB, a wyjęty sprzedają za bardzo dobre ceny. Niestety jest ich mało. One są chłodniejsze o mają mniejszy pobór prądu. Wiem, bo wymieniłem sobie w Surface Pro i badałem ten temat. 2230 ma tylko kilku producentów i jest sprzedawany głównie jako OEM, nie ma go za bardzo w sklepach lub jest strasznie drogi. Za to producenci są porządni i dyski trzymają się standardów, można śmiało sobie podbić pojemność takim dyskiem. Natomiast modyfikacja urządzenia aby wcisnąć 2242 jest już kwestionowalna, a wsadzenie jakiegoś zamiennika kiepskiej firmy, który nie trzyma się nawet specyfikacji 2242 to proszenie się o kłopoty. To żadna sensacja, modyfikacja urządzenia i wsadzenie dysku o większym poborze prądu może go uszkodzić. Profesjonalista może najwyżej odmówić.
Ciekawe, czy pozwolą dalej z niego korzystać, czy będą na siłę wpychać aktualizacje. Mam w rodzinie dosyć mocną maszynę z Xeonem X5670, która sprawuje się doskonale, ale system aktualizacji Windowsa 10 nie działa. Jakiś problem z urządzeniami, które nie mają jeszcze UEFI, bootsector jest obsługiwany tylko na MBR (leży na HDD), a sam system stoi na GPT na SSD. Windows bardzo długo tego nie załatał, a ich przymusowe aktualizacje wywalały cały system. Do tego stopnia, że nie dało się go już przywrócić, a backup Po chwili znowu się chciał zaktualizować bez opcji rezygnacji. Wgrałem 8.1, dałem rodzicom i do tej pory śmiga bez problemu. Nie wiem, czy Windows 11 będzie w ogóle obsługiwać urządzenia jeszcze na płytach P6T.
Kupno składaka od domorosłego sprzedawcy-konfiguratora jest jak kupno "nowej fury prosto z fabryki" od handlarza Mirka. Nie wiadomo co tam siedzi, po co, jaka tego historia. Kupno czegoś takiego od osoby o znanej renomie to zupełnie inny kaliber - produkty na zamówienie robione i podrasowane przez specjalistów. Cała reszta jest jak na rynku pierwotnym. Liczy się rachunek ekonomiczny. Co się lepiej sprzedaje, co się opłaca, czego jest dużo na rynku, czego są braki. Czy byście kupili samochód marki Parkside zrobiony dla Lidla? Kto wie, może cena zachęci, ale nie ma tu co liczyć na coś świetnego. Samochód normalnej marki przypomina gotowca takiego Della czy HP, samochód premium bardziej będzie przypominać produkty firm specjalizujących się w tym jak Origin PC czy NZXT. No i coś w stylu Brabusa czy innej Alpiny już można porównywać do topowych modeli robionych przez kogoś znanego dla najbogatszych. Nie można oceniać jakości gotowych samochodów na podstawie składaka z Biedronki.
Tytuł nieco clickbaitowy. To prawie jakby napisać "współdzielił konto na Netlflixie, dostał 5 lat w zawieszeniu" później precyzując, że chodzi o napad.
O ile piractwo jest szeroko rozumianym pojęciem, to tutaj ma pierwotne znaczenie. Kopiował karty abonenckie, sprzedawał je innym i ostatecznie on zarabiał, a usługodawca musiał świadczyć usługi innym nie dostając za to zapłaty. To jest bliżej kradzieży niż "piractwo", które ani nie skutkuje narażaniem twórcy na koszta świadczenia usług, ani nie przynosi dochodu. Właściwie takie procedery jak sprzedawanie dostępu do współdzielonego konta Steam ma więcej z piractwa niż ściąganie torrentów. Przy takich torrentach można jedynie oszacować na jakie straty narażony jest twórca, jednak nigdy nie wiemy, ile z osób pobierających by było skłonnych zapłacić nawet część pierwotnej ceny. Twórca nie ponosi dodatkowych kosztów za to, że ktoś pobiera kopię na boku. W przypadku udostępniania usług to usługodawca musi je świadczyć, co generuje dla niego jakieś koszta. Jeśli mowa o telewizji satelitarnej, to nie ma to za bardzo znaczenia, bo jest tylko odbiornikiem (jak posiadanie telewizora bez abonamentu TVP), jeśli jest to forma VOD, to już nadawca musi obsłużyć dodatkowych klientów, tak samo w przypadku wszelkich systemów dystrybucji cyfrowej. No a faktyczna wartość powinna być określona na podstawie ceny sprzedaży kopii. To jest jeden z problemów procesów sądowych. Jak nagram film i będę go sprzedawał po milion dolarów, a ktoś zrobi piracką kopię i 100 osób pobierze, to straciłem właśnie 100 milionów? Skąd pomysł, że ktokolwiek by tyle zapłacił?
Po pierwsze, klasa filtra określa nam jak dobrze on filtruje. Filtr z 85% przepuści 15% cząstek. Zwiększając przepływ powietrza dwukrotnie da nam 15%^2, a więc już tylko 2,25%. Przy trzykrotnie większym przepływie da 0,34%. Czyli trzy razy większy przepływ filtra o 85% skuteczności daje 99,66% skuteczność, już przewyższa typowe klimatyzatory/oczyszczacze. Dodajmy jeszcze jeden cykl (4x przepływ) i mamy 99,95% skuteczność, a więc odpowiednik H13. W tym przypadku lepiej będzie stosować słabsze filtry i większy przepływ powietrza niż bardziej skuteczny filtr i mały przepływ. Wysokie klasy filtrów mają znaczenie głównie tak, gdzie zależy nam na wyłapaniu jak największej liczby cząstek przy jednym przebiegu. Odkurzacz nie powinien wyrzucać aż 15% zanieczyszczeń, bo nie ma recyrkulacji powietrza. Filtry przemysłowe zwykle filtrują powietrze cały czas, lepiej więcej filtrować i mieć mniejszą skuteczność. Wydajne filtry są dobre tam, gdzie powietrze przechodzi przez filtr raz (np. na wlocie do pomieszczenia) i nie jest ponownie filtrowane. Oczyszczacz powietrza filtruje je w recyrkulacji i się wyłącza gdy czystość się poprawi. Komputer będzie pracować cały czas, więc nie zależy nam na przefiltrowaniu wszystkiego jak najszybciej, i tak nie wyłączymy go. Lepiej niech filtruje mniej wydajnie, ale długo. Do tego nikt nie mówił, że filtr ma być mały. Powierzchnia filtra ma duże znaczenie. Można zrobić większą obudowę, która na wentylator daje kilka razy tyle powierzchni filtrującej. Można też rozdzielić wloty do normalnej pracy i wydajne. Pewnie przez 90% czasu nie używasz pełnej mocy i spokojnie możesz go chłodzić niewielkim przepływem powietrza przez filtr. Odpalisz grę czy coś ciężkiego, temperatura wzrośnie i wtedy uruchamiasz dodatkowe wentylatory, które mają tylko lekki filtr wstępny i nie oczyszczają powietrza.
W singlu to żadne czitowanie. To tak, jakby wszystkie mody uznawać za czity. Gracz ma się dobrze bawić, jak chce wyciągnąć z gry jeszcze więcej to śmiało.
Ja chociażby lubię grać w Mudrunnera czy dawniej Spintires, ale nie lubię monotonii. Przejeżdżanie kilka razy pod rząd tą samą trasą czy kolejne męczenie się UAZem aby odkryć mapę to nie dla mnie. Używam więc różnych modów aby mieć ciekawe i różnorodne pojazdy rozpoznawcze, a przy dostawach używam buga, który pozwala przeładować ciężarówkę i zabrać kilka razy więcej towaru. Jest ciężko, ale to daje więcej zabawy niż jechać kilka razy lżejszym pojazdem.
W multiplayerze akceptuję tylko równe szanse. Czy mody, czy czity - wszyscy albo nikt. Granie w DST z powiększonymi skrzynkami czy podświetlaniem życia przeciwników to też oszukiwanie, ale jak wszyscy się zgodzili. Dawniej grając na multi specjalnie organizowałem rozgrywki z różnymi czitami i to też daje sporo frajdy. Nagle każdy jest na strzał, a gra z otwartej strzelanki zamieniła się w skradankę. Ważne, aby wszyscy tego użyli, inaczej jest to zwykle utrudnianie gry innym.
No ale też miałem tak, że grając jeszcze w CoD MW spotykałem ogrom cziterow. W końcu sam sobie coś zainstalowałem, identyfikowałem ich i przesladowałem aż I'm się nie odechciało. Przyjemne z pożytecznym, bo odciagalem ich od reszty graczy.
Popieram. Ochrona praw autorskich powinna jedynie autorowi dać gwarancję pierwszeństwa w komercyjnym wykorzystaniu jego dzieła. Po kilku latach cała własność intelektualna powinna trafiać do domeny publicznej aby ludzie mogli z niej korzystać, powielać ją i rozwijać. Zależnie od zastosowania od roku do kilkunastu lat wystarczy, aby spieniężyć jakiś twór. Co więcej, to daje jasny przekaz - masz czas aby to wykorzystać, później będziesz miał równe prawa z innymi. Jak wsadzisz coś do szuflady, to stracisz. Przypomina mi to przypadek powstania nowego mechanizmu młócącego do kombajnów. Lepszy mechanizm, zużywał mniej paliwa, był lżejszy, mniejszy, szybszy i wydajniejszy. Opracowany przez niezależnych inżynierów, kupił go duży producent maszyn rolniczych aby uśmiercić go w szufladzie. Wolał pchać na rynek przestarzałe maszyny niż zainwestować w nową linię. No ale konkurencja nie miała praw aby zacząć to sprzedawać. Dopiero po latach ktoś inny opracował wersję, która była zbyt różna od oryginału aby podpadła pod prawą własności intelektualnej i dopiero wtedy pojawił się konkurent.
Podobnie jest w przypadku gier, filmów czy nawet muzyki. Tworzysz je aby zarabiać. Masz wybór. Możesz zadbać o dostępność tytułu i sprzedawać go jak się tylko da. Twórczość polega na tworzeniu, a nie zarabianiu na jednej rzeczy stworzonej dawno temu. Często bywa tak, że coś legalnie nie jest dostępne, bo dystrybutorowi nie opłacało się tego udostępnić na dany rynek. Chociażby polskich produkcji dostępnych na Netflixie nie obejrzysz w USA. W ogóle nie obejrzysz, nie ma nikt praw do dystrybucji, wszędzie blokady regionalne. I to powinno być proste - albo producenci chętnie sprzedają prawa do dystrybucji byle zarobić na danym rynku, albo tracą klienta, który niedługo legalnie zdobędzie to we własnym zakresie.
Jedynie bym rozróżnił okres wyłącznego prawa użytkowania i użytku komercyjnego. Na przykład coś można wykorzystać na własny użytek legalnie już rok po powstaniu, ale komercyjny użytek dozwolony jest po 5 latach. I teraz możesz sobie zdobyć projekt urządzenia czy jakieś dzieło już rok po powstaniu, ale tylko na użytek własny. Naprawisz telefon, zbudujesz prototyp czy obejrzysz film. Natomiast po 5 latach możesz tego użyć komercyjnie, zacząć sprzedawać, świadczyć tym usługi czy udostępnić na swojej platformie cyfrowej. To zmusi twórców do rozsądnego dysponowania ich tworami, a powód jest prosty. Własności intelektualnej nie da się powielić. Wlasność fizyczną można tworzyć, dwie osoby mogą zrobić coś prawie identycznego i są właścicielami swojej kopii. Własności intelektualnej nie można tak traktować, jak dwie osoby wymyślą to samo, to pierwsza będzie właścicielem obu. Posiadanie praw własności sprawia, że nikt nie może już na ten sam pomysł wpaść.
Już kiedyś o tym wspominałem w kontekście podobnego artykułu. Ten zabieg ma sens właśnie wtedy, gdy taniej jest produkować jeden wariant i sprzedawać tańsze wersje okrojone plus aktywacje dodatkowych funkcji niż produkować więcej wariantów sprzętowych. W samochodach chodzi dokładnie o to. Takie zjawisko ma miejsce wtedy, gdy koszt utrzymania kilku różnych linii produkcyjnych i logistyki związanej z instalacją danego komponentu w danym modelu przewyższa różnicę w kosztach produkcji tańszego i droższego modelu. Ma to miejsce głównie wtedy, gdy wyższe modele cieszą się dużą popularnością i tańsze już nie korzystają na efekcie skali.
Jak kilka procent kupujących samochód chce podgrzewane fotele, to taniej wyjdzie produkować zwykłe, a te droższe osobno za dopłatą wkładać do droższych wersji wyposażenia. Jak większość ludzi kupuje lub jest zainteresowana dokupieniem ogrzewanych foteli, to te tanie by musiały być specjalnie produkowane do niedużej puli najtańszych wersji wyposażenia, które się słabiej sprzedają. To się już nie opłaca. Wtedy decydujemy się na produkcję wyłącznie ogrzewanych foteli, ale to by było za drogie na to grono klientów, którzy chcą jak najtaniej. Robimy więc wersję z programowo wyłączonym ogrzewaniem aby nadal oferować tańszy wariant, to jest nadal tańsze w produkcji niż osobna linia. W ten sposób mamy jeden rodzaj foteli, samochód może zostać skonfigurowany w momencie sprzedaży/wydania zamiast przy produkcji i klient może zawsze dopłacić do lepszego.
Wyobraźcie sobie coś takiego z GPU. Powiedzmy, że produkcja modeli 3050 i 3070 są nieopłacalne, leci tylko 3060 i 3080. Będą osoby o słabym budżecie, które by nie kupiły 3060 i pójdą do konkurencji. No ale jak zaoferujemy im tańszą wersję z wyłączona częścią sprzętu, to kupią takiego pseudo 3050 taniej, a może za jakiś czas najdzie ich ochota i będą mieli budżet aby dokupić odblokowanie. A może nie stać ich na stałe odblokowanie, ale chcą sobie przejść tą jedną grę, która ma zbyt duże wymagania i wykupią na dwa miesiące. Jeszcze lepiej z 3080. Teraz używanie 3070 by było w porządku, ma sporo mocy w zapasie i można śmiało z niego korzystać. No ale minie trochę lat i może się okazać, że ktoś chętnie dokupi upgrade do 3080. A kto wie, może z czasem kupując gry będziesz dostawać darmowy kod na pół roku aby podnieść wydajność karty. Teraz tym bardziej byśmy chętnie kupili sobie upgrade naszych starszych kart graficznych aby nie kupować nowych.
Z CPU może być podobna historia. Może dla Intela jest taniej produkować jeden wariant sprzętowy przy obecnym zapotrzebowaniu, ale nadal chciałby oferować niższy model dla tej części rynku, która nie potrzebuje lub nie chce wyższego. No to co robimy? Produkujemy tylko wyższy model sprzętowy, blokujemy kilka rdzeni czy coś takiego i oferujemy po niższej cenie z opcją dopłaty za odblokowanie. Jeden produkt, jeden cennik, mniej logistyki, jedna linia produkcyjna i łańcuch dostaw, a klienci mogą od nas kupić upgrade nie wychodząc z domu. Dobry deal. Ile razy jeszcze nie warto było kupić nowego sprzętu, ale staremu by się przydało ciut więcej soczku?
To może być prawdą w świecie, w którym większość graczy jest kobietami, a większość rynku gier to gry mobilne.
Obecnie gadanie o rynku gier przypomina wrzucanie seriali, wielkich produkcji kinowych i filmików z tiktoka do jednego wora. W ten sposób 90% filmów to filmy amatorskie na YT, tiktoku i innych platformach tego typu, więc można powiedzieć, że rynek seriali i filmów kinowych umiera.
Sęk w tym, że tak nie jest, to są różne rynki i nie można ich rozpatrywać w tych samych kryteriach. Tak samo jak car sharing czy istnieje taksówek nigdy nie wyprze posiadania samochodu mimo, że taksowki jeżdżą wiele godzin dziennie i przewożą wielu ludzi, a samochody prywatne głównie stoją i mają tylko kilku użytkowników. Przecież licząc w ten sposób wyjdzie nam, że więcej ludzi jeździ taksówkami niż posiada samochód.
Nic z tych rzeczy. System zawsze powinien pytać. Ileż to razy musiałem znowu ustawiać to samo, bo system coś poprawił. Masz kilka wyjść i wejść audio, a system uporczywie je zmienia, bo mu się uroiło, że właśnie podłączyłeś monitor obsługujący dźwięk. I co z tego? Coraz więcej monitorów ma głośnik, a masa ludzi nadal woli swoje słuchawki czy głośniki. Nic automatycznie nie powinno się zmieniać dopóki użytkownik nie wyrazi zgody.
Jak nie widzicie różnicy, to polecam szybko ruszać myszką. Im wyższe odświeżanie, tym bardziej będzie to przypominać płynny ruch. Jak ustawicie 30Hz, to będzie wyraźnie widać mocno oddalone od siebie kolejne pozycje kursora. Zwiększając do 60Hz będą mniej widoczne, ale dwa razy częstsze i tak dalej. Przy 144Hz nadal da się zauważyć, że kursor wyświetlił się w kilku miejscach, ale dużo bardziej przypomina machanie palcami przed nosem niż robienie tego samego w świetle stroboskopu.
Takie trochę marudzenie w stylu "kiedyś to były czasy, teraz nie ma czasów". Długowieczne klawiatury? Żaden problem, wystarczy kupić coś porządnego i o to dbać. Ja przez 10 lat zajezdzalem Razera Lycosa, który był uznany za bardzo awaryjny. I w sumie wcale o niego tak nie dbałem, przez co po latach membrany od brudu się odkształciły. Mam jakiegoś pospolitego Della do pracy, który ma już z 10 lat i dalej jest w pełni sprawny. Długowieczność to w dużej mierze kwestia dbania o sprzęt.
Druga sprawa to mechaniki. Klawiatury ergonomiczne istnieją, często są nawet bardziej ergonomiczne od tej IBM. Mechaników jest sporo na rynku, a te z wyższej półki są bardzo dobre. Taka stara klawiatura IBM ma oczywiście inne przełączniki, ale podobne konstrukcje są teraz w użyciu. Mniejsze, mniej toporne, ale równie dobre. To raczej kwestia przyzwyczajenia i sentymentu. Podobnie dużo lepiej mi się pracuje na moim Dellu, na którym pracuję od lat, a to nawet nie jest mechanik. Do nowej klawiatury przyzwyczajam się w kilka miesięcy. Tak samo jest chociażby z fotelem. To nie znaczy, że są szczególnie lepsze, a po prostu są inne niż przez lata się przyzwyczailiśmy. Nie wiem jakie on klawiatury testował, ale jestem pewien, że z górnej półki mechaników da się kupić coś dobrego. No chyba, że porównywał z obecnymi biurowymi badziewia mi czy pseudo klawiaturami dla graczy. Trzeba pamiętać, że ta klawiatura IBM to nie było byle co dorzucane do chipsów i tak samo odpowiednikiem nie będzie byle co za stówkę.