futurebeat.pl News Tech Mobile Gaming Nauka Moto Rozrywka Promocje

Technologie

Technologie 23 marca 2015, 16:00

autor: Filip Grabski

Wielka wojna kart graficznych - od czasów Voodoo do bitwy AMD vs nVidia

Wojna konsol to konflikt, który zna wielkich zwycięzców i wielkich przegranych. Na pecetowym polu technologii też jest niezliczona liczba ofiar. Kto upadł, kto jest na topie? Oto krótka historia wojny na polu kart graficznych.

Spis treści

Wyrównanej walki ciąg dalszy

Aby zatrzeć niemiłe wrażenie, Nvidia szybko wprowadziła kolejną rodzinę kart. Modele GeForce z serii 6000 były nowymi chipsetami dla wszystkich szczebli – dla najmniej wymagających klientów (6200 – karty z tym procesorem próbowały nadrabiać małą ilość pamięci korzystaniem z RAM-u systemowego), dla średnio zamożnych (popularne 6600) i dla fanatyków wydajności (6800). Każdy GPU miał kilka wariantów, z czego najmocniejsze karty po raz pierwszy w historii sięgnęły pułapu aż 1000 dolarów za sztukę (GeForce 6800 Ultra 512 MB podkręcone przez BFG). Seria 6 korzystała z DX 9.0c i shaderów 3.0 (choć nigdy w pełni), a znana z czasów Voodoo 2 funkcja SLI – łączenie dwóch kart celem zwiększenia wydajności – odnotowała wtedy swój wielki powrót.

Technologiczne demko z syrenką promowało moc kart z serii 6000. - 2015-03-23
Technologiczne demko z syrenką promowało moc kart z serii 6000.

Po drugiej stronie barykady ATI szykowało nowe nazewnictwo (wszak konkurencja zaczęła numerami zbliżać się do ich własnych oznaczeń). Pojawiła się seria X z najmocniejszą wówczas odmianą Radeona – X850 XT, a odpowiedzią na SLI była funkcja CrossFire (obie technologie cierpiały na słabe wsparcie ze strony sterowników i długo musiały czekać na sensowne zastosowanie w praktyce). W tym czasie jednak to Nvidia zaczęła wychodzić na prowadzenie, głównie dzięki świetnemu GeForce’owi 6600 GT. Idąc za ciosem, firma szybko wypuściła kolejną generację swoich GPU – od taniutkiego GF 7100 GS (nadal korzystającego z funkcji TurboCache) aż po flagowy model 7800 GTX. Nvidia krótko cieszyła się z posiadania najmocniejszej jednoprocesorowej karty na rynku, bowiem pod koniec 2005 roku zadebiutowała pierwsza karta z chipsetem wyprodukowanym w technologii 90 nm – ATI Radeon X1800 XT i została wówczas najszybszą kartą... na nieco ponad miesiąc. Nvidia odpowiedziała, wypuszczając 7800 GTX wyposażoną w 512 megabajtów pamięci.

Dość wyrównana walka trwała przez kolejne kilkanaście miesięcy. ATI próbowało wyprzedzić Nvidię w rywalizacji o tytuł najlepszej przystępnej karty, tworząc i ulepszając procesory z serii X1300/X1600, z kolei „zieloni” zaliczyli swoje pierwsze poważne podejście do karty dwuprocesorowej. Co prawda pierwsze próby opracowania sensownej karty graficznej z dwoma chipsetami miały miejsce już w 1999 roku (ATI Rage Fury Maxx – sukcesu brak, bo wsparcie było znikome, a sterowniki beznadziejne), ale dopiero lata 2005 i 2006 przyniosły konkretny przełom. Firma Gigabyte sprzedawała produkt nazwany 3D1 (dwie kości GF 6600 GT na jednej płytce), zaś GeCube zaoferowało podwójnego Radeona X1650 XT (który oszukiwał system i kazał się uważać za dwie osobne karty połączone w trybie CrossFire). Wspomnianym wyżej pierwszym poważnym podejściem Nvidii okazała się karta GeForce 7950 GX2 – potwór o długości 31 centymetrów, który nie mieścił się w wielu standardowych obudowach, ale mógł pochwalić się naprawdę niezłymi wynikami.

Te efekty, cząsteczki, cienie… - 2015-03-23
Te efekty, cząsteczki, cienie…

ATI znika z rynku

Dzisiaj dla wszystkich jest zupełnie naturalne, że karty Radeon posiadają logo AMD, ale pod koniec 2006 roku taka informacja wywołała niemały szok. Po 21 latach istnienia jako niezależna firma ATI zostało wykupione przez największego konkurenta Intela, firmę Advanced Micro Devices. Fuzja kosztowała AMD 5,4 miliarda dolarów i dzięki niej drugi wielki gracz na rynku procesorów stał się gigantem trzymającym w garści dwie bardzo ważne i dochodowe gałęzie podzespołów komputerowych.

Owo śmiałe biznesowe posunięcie rywala nie przeszkodziło jednak Nvidii wyjść na prowadzenie wraz z premierą nowych bibliotek DirectX. DX10 zunifikował shadery, co ułatwiło pracę inżynierom, a marka GeForce w 2007 roku mogła pochwalić się pierwszym GPU wykorzystującym tę nowość. Karty z serii 8800 początkowo pojawiły się jako najmocniejsze odmiany GTX i GTS, które niszczyły konkurentów pod względem czystej wydajności. Dodatkowo Nvidia zaprezentowała architekturę CUDA (w 2007 roku jeszcze w wersji beta) pozwalającą na wzrost ogólnej wydajności obliczeniowej dzięki wykorzystaniu mocy samego GPU. Odpowiedź AMD na świetną propozycję Nvidii była, niestety, rozczarowująca. Radeon z nowej rodziny HD, model 2900 XT, nie okazał się produktem z najwyższej półki, choć jego apetyt na prąd zdawał się to sugerować. Ale nawet jeśli karta ta była pod każdym względem słabsza od 8800, to trzeba wspomnieć o wielu nowościach wraz z nią wprowadzonych. HD 2900 to pierwsza karta firmy obsługująca DX10, pierwsza integrująca audio przy użyciu wyjścia HDMI, pierwsza (i jedyna) wykorzystująca 512-bitową szynę pamięci oraz wyposażona w ciekawostkę w postaci teselacji (wówczas zignorowanej przez twórców gier i bibliotek DirectX).

Filip Grabski

Filip Grabski

Z GRYOnline.pl współpracuje od marca 2008 roku. Zaczynał od pisania newsów, potem przeszedł do publicystyki i przy okazji tworzył treści dla serwisu Gameplay.pl. Obecnie przede wszystkim projektuje grafiki widoczne na stronie głównej (i nie tylko) oraz opiekuje się ciekawostkami filmowymi dla Filmomaniaka. Od 1994 roku z pełną świadomością zaczął użytkować pecety, czemu pozostaje wierny do dzisiaj. Prywatnie ojciec, mąż, podcaster (od 8 lat współtworzy Podcast Hammerzeit) i miłośnik konsumowania popkultury, zarówno tej wizualnej (na dobry film i serial zawsze znajdzie czas), jak i dźwiękowej (szczególnie, gdy brzmi ona jak gitara elektryczna).

więcej

TWOIM ZDANIEM

Który producent kart graficznych ma Twoim zdaniem najlepsze sterowniki?

AMD
16,5%
Nvidia
83,5%
Zobacz inne ankiety
Najlepsze dyski SSD dla graczy – porady dla kupujących w kwietniu 2018
Najlepsze dyski SSD dla graczy – porady dla kupujących w kwietniu 2018

Obok karty graficznej i procesora to dysk SSD jest komponentem, który poprawi wydajność waszych pecetów w najbardziej widoczny sposób. Wybraliśmy dla was najlepszych przedstawicieli tej klasy sprzętu – łącznie z dyskami ze złączem M.2.

Czym jest ray tracing – technologia światła i cieni?
Czym jest ray tracing – technologia światła i cieni?

Producenci kart grafiki wystąpili ostatnio z nowym rozwiązaniem, mającym zaserwować graczom niespotykaną do tej pory jakość światła i cieni. Mowa o ray tracingu – technologii, która ma pozwolić na generowanie fotorealistycznej oprawy wizualnej w grach.