Intel chce rywalizować z AMD i Nvidia na polu budżetowych GPU dla graczy?
Bardzo dobra wiadomość. Przyda się większa konkurencja wśród producentów kart, a potencjalny rynek zbytu dla takich budżetowych kart, które z pewnością będą idealnie współpracować z procesorami Intela, powinien być bardzo pojemny.
Bardzo dobra wiadomość. Przyda się większa konkurencja wśród producentów kart, a potencjalny rynek zbytu dla takich budżetowych kart, które z pewnością będą idealnie współpracować z procesorami Intela, powinien być bardzo pojemny.
To nie będzie rywalizacja nie o graczy ale o górników! Zrozumcie że dzisiaj karty graficzne nie służą już do grania tylko do kopania kryptowalut!
Po prostu Intel wyczuł hajs jaki może zarobić na rynku kart dla górników!
I? Nadal to konkurencja, więc zrobi dobrze wszystkim potencjalnym kupującym.
Kopanie na GPU się powoli przestaje opłacać, Są moduły przeznaczone tylko do kopania i mają o wiele większą wydajność, niedawno jakaś firma zapowiedziała nawet coś takiego, tylko nie pamiętam już która.
Samsung to zapowiedział. Są takie moduły, ale nie służą do wydobycia wszystkich kryptowalut. Takie urządzonka nadają się może do 2-3 typów.
Zrozumcie że dzisiaj karty graficzne nie służą już do grania tylko do kopania kryptowalut! Po prostu Intel wyczuł hajs jaki może zarobić na rynku kart dla górników!
Ale ty jesteś krótkowzroczny. Oczywiście górnicy powodują bardzo duże zyski dla Nvidia, czy AMD tylko że jest to krótkotrwały zysk, który potrwa kilka tygodni, lub miesięcy, a później magiczna bańka zysku pęknie. Gracze za to będą kupować karty graficzne zawsze(dzisiaj, za 5, 10 , 20 lat), więc pisanie i tu cytuję "karty graficzne nie służą już do grania tylko do kopania kryptowalut" jest totalną bzdurą.
Jestem prawie pewien, że Intel wkroczył na rynek, by wykorzystać zamęt z górnikami i w kroczyć na rynek graczy. Dobrze wykombinowali. Niestety, z takim gigantem jak Nvidia raczej nie ma za dużego pola manewru.
Gdyby chciał zarobić na górnikach to by wypuścił sprzęt dedykowany kopaczom. Na co ma owijać w bawełnę?
Po prostu intel wie, że to nie jest pewne i przyszłościowe źródło zarobku - co innego sprzęt dla graczy oni zawsze będą.
Jeśli będą prawdziwe karty graficzne Intel, to będą działać tylko wyłącznie na Windows 10.
"Patrząc na możliwości techniczne zaprezentowanego prototypu można z całą pewnością stwierdzić, że koncern celuje w rozwiązania z półki budżetowej"
Na podstawie prototypu nie byłbym taki pewny w jaki segment cenowy mogą celować. Produkt końcowy może się okazać zgoła inny.
Odpowiedź na Ryzena 2g? Bo obecnie Ryzen z wbudowanym GPU całkiem ładnie dał sobie radę w testach. Jak widać konkurencja się opłaca, rynek i technologia ruszają, a nie co roku 5% większa wydajność za sporą kasę.
Dzisiaj można kupę kasy zarobić na kartach graficznych. Jutro będzie news że Ubisoft/EA zrobiły własne karty.
I bardzo dobrze, Intel powinien wejść z jeszcze większym przytupem na rynek kart graficznych i zaszaleć, a nie robić tylko kartę do tzw. potocznie pulpitu.
Tak samo chętnie bym zobaczył trzeciego gracza na rynku procesorów, być może w końcu zaczęło się coś dziać.
Monopol, to najgorsze co może być. Jeśli zaczną tworzyć konkretne modele, najlepiej średnia i niska półka, które oczywiście cenowo i wydajnościowo będą dużym zagrożeniem dla nvidi w głównej mierze, to będzie bardzo dobrze.
Spoko, niech wypuszczają, na reklamę wystarczy info jak to kopie krypto :)
Wy tak wszyscy pitu pitu że fajnie, będzie fajnie jak intel przebije sie przez zasrane patenty NV i AMD i możemy mówić o połowie sukcesu. Druga połowa to jak zacznie wydawać te karty w ogóle.
Pewnie wystarczy podpisanie umowy na wymianę patentów z Nvidią lub AMD. Od Nvidii im wygasła rok temu, więc pewnie kolejną podpisali z AMD, co by mogło mieć nawet sens skoro Intel w części swoich procków chce korzystać z grafiki AMD, oraz to, że Raja tak bezproblemowo przeszedł do Intela.
No i bardzo dobrze,im większa konkurencja tym lepiej,może potaniały by niektóre modele a i jak by były mocne karty to te nieroby kryptogówniarze się by na nie rzuciły i karty amd/nvidi może były by tańsze.
No, może w końcu pojawi się jakakolwiek konkurencja dla Nvidia?
Żeby konkurować z nvidia i z amd musieliby zrobić naprawdę szybka kartę i w okazyjnych cenach. Na niższych szczeblach mie maja szans z gigantami.
Z AMD jest ciężko konkurować skoro samo AMD z nikim nie konkuruje. Raczej z nVidia
Wszystko kwestia optymalizacji sterowników, intel ma ogromną szansę i możliwości narobić sporo zamieszania.
Jak dla mnie to Intel jest skreślony. Kupicie kartę graficzną, a za 2 lata okaże się, że trzeba zrobić łatkę, która spowalnia sprzęt o 30%.
Ty tak na serio? To jaki procesor masz?
Tak, na serio. Niestety mam Intela, bo jak kupowałem ponad 3 lata to był to dobry procesor i dostałem dokładnie to za co zapłaciłem. A teraz okazuje się, że nie do końca płaciłem za to czego oczekiwałem.
Intel zaś wiedział o problemach i dopóki nie zaczęły one wyciekać to produkował wadliwe procesory dalej. W dodatku zdecydował się na załatanie luki nie patrząc na użytkowników.
Ja nie wiem ile razy ktoś musi zostać oszukany by być bardziej ostrożnym. Ile razy można pozwolić się dymać przez tą samą firmę, zanim się zdecyduje, że lepiej kupić u konkurencji?
Chyba żartujesz. Te luki są strasznie nadmuchane. Nie ma prawie żadnego niebezpieczeństwa jeśli nie jesteś na celowniku służb, wykorzystanie tego buga w praktyce to dosłownie katorga. W dodatku Intel zareagował bardzo szybko więc nie wiem czemu go winić? Nie chcesz to nie instaluj łatki, ja nie wgrywałem.
Lepiej się przesiąść na AMD, które w żywe oczy kłamało, że ich procki nie są podatne a jednak się okazało, że są? Oni są oboje po jednych pieniądzach.
mbigos - tutaj naprawde emocje nie maja znaczenia. Intel wyruchal, ale wciaz bardziej sie oplaca niz AMD. Nie bede bral gorszego sprzetu dlatego bo konkurencyjna firma mnie wydymala. Nie zywie zadnych osobistych uczuc do tych firm, wybieram to co jest lepsze do grania, a tu nie ma watpliwosci.
Riva TNT ehh, aż się łezka w oku kręci. :)
"...na pokładzie układu miałyby się bowiem znaleźć tylko 144 jednostki Shader Model, a cały układ ma być taktowany częstotliwością od 50 do 400 MHz." - niestety póki co nie będą to karty do gier.
Wojna między 3dfx, a Nvidią :)
Wyrównana walka Voodoo 1,2,3 vs Riva TNT 1,2.
A ostatecznie pierwszy Geforce w 1999 od Nvidii zmonopolizował rynek, bo Voodoo 4/5 okazało się niewypałem.
Teraz mamy już 20 serii Geforce. I nie mają żadnej konkurencji.
Drogi autorze tego tekstu - nie masz pojęcia o czym piszesz. Ten news to jest taki stek bzdur, że głowa boli.
Zacznijmy od tytułu - nie ma on żadnego sensu, bo ten prototyp, który próbowałeś opisać, to jedynie sprzęt poglądowy, który ma służyć sprawdzeniu działania nowego systemu zarządzania zasilaniem.
Piszesz dalej, cytuję "Do osiągnięcia tego celu ma posłużyć specjalny kontroler pamięci". Piszesz to w kontekście zarządzania napięciem. Zastanów się, co tu może nie grać. :)
Piszesz, że koncern "celuje w rozwiązania z półki budżetowej" co znowu jest totalną bzdurą, bo wyciągasz taki wniosek z prototypu urządzenia, które NIGDY nie trafi na rynek. Intel miał w przeszłości podobne prototypy innych GPU, by na nich testować rozwiązania, które trafią do później stosowanych zintegrowanych układów. Po prostu na tak małej liczbie EU mogą wyłapać wszystkie niuanse związane z działaniem chipu.
Polecam na przyszłość nie pisać rzeczy, o których nie masz bladego pojęcia. Można to łatwo rozpoznać - jeśli wiesz, że nie potrafisz rozczytać diagramu, to znak, że nic sensownego nie napiszesz.
Z jednej strony - dobrze, że będzie większa konkurencja, choć to zajmie lata.
Z drugiej... Wciąż sporo gier na mocnych kartach jednej firmy działa słabiej niż na średnich kartach drugiej i na odwrót. Różne procesory też nie pomagają. Im więcej sprzętu tym więcej optymalizacji. Więcej sterowników i więcej trudności w działaniu danej gry na PC.
Tak naprawdę jakość gry zależy w dużej części od tego co chce deweloper osiągnąć. Jeśli komuś się chce patchować, optymalizować itp to gry wychodzą rzadziej. Produkty wypuszczane co roku mogą mieć większe problemy z nowymi sprzętami.
Cóż - niech robią. Ale czekają wszystkich nas miesiące jeśli nie lata testów, dopasowywania sterowników itp.
Wiem ze intel kupil ostation chyba ALTER'E ale robienie karty graficznej z FPGA na pokladzie?, co najmniej dziwny pomysl, glowna zaleta FPGA to re-programowalnosc a z wad to CENA,wydajnosc, pobor energi itp, dobre do prototypowania ale nie masowej produkcji..