Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Wiadomość Karty graficzne RTX 50 otrzymają nową architekturę, ale poczekamy do 2025 roku

14.08.2023 20:00
2
9
odpowiedz
17 odpowiedzi
bolek2018
84
Generał

rafq4 i na tym pozostań. Seria 40 to jest wielka pomyłka biorąc pod uwagę cena/wydajność analizując wcześniejsze układy.

14.08.2023 19:41
rafq4
1
7
rafq4
174
Shadow in the darkness

50? Cholera, ja dopiero do serii 30 dotarłem :o

14.08.2023 19:41
rafq4
1
7
rafq4
174
Shadow in the darkness

50? Cholera, ja dopiero do serii 30 dotarłem :o

14.08.2023 20:00
2
9
odpowiedz
17 odpowiedzi
bolek2018
84
Generał

rafq4 i na tym pozostań. Seria 40 to jest wielka pomyłka biorąc pod uwagę cena/wydajność analizując wcześniejsze układy.

14.08.2023 20:42
2.1
Pietrekursa
24
Chorąży

A te 30 albo więcej fpsôw dzięki dlss3 to poszły na piwo aha

14.08.2023 21:07
pieterkov
2.2
pieterkov
155
Senator

Pietrekursa - tylko, że te fpsy dzięki dlss 3 można sobie w D wsadzić. Artefakty graficzne na każdym kroku. Wydajność GPU bez DLSS taka sama albo słabsza, w cenie wyższej. Takie praktyki trzeba tępić.

14.08.2023 21:53
arabus
😎
2.3
arabus
62
zardzewiały

Hehe.
Tak piszą tylko ludzie, którzy nie mieli 4xxx w rękach.
Ja uważam, że to najlepsza seria od dawna.
Pomijając już spory skok wydajnościowy, to nieważne, czy kupisz jakąś gunwo wersję 4080, czy topowego Suprima - i tak będziesz miał CICHO.
Jako wręcz fanatyk wodnych chłodzeń, po kilku dniach od zakupu swojej 4080 (a kupiłem FE na premierę), przestałem szukać wodniaka. Nie ma to sensu. Te karty to po prostu ultra ciche. Cewki ledwo słyszalne jak włożę głowę do budy.
W UWQHD full detale w żadnej grze nie miałem więcej jak ok. 1400 rpm wentyli na karcie - oczywiście UV obowiązkowe.

14.08.2023 22:40
Link
2.4
Link
23
Senator

pieterkov
Przykro mi, ale nie mogę się z Tobą zgodzić.

Kupiłem RTX 4070 12 GB całkiem od niedawna za okazjonalna cena (około 2500 zł) i miałem okazję testować Frame Generation osobiście na Cyberpunk 2077 i Ratchet & Clank Rift Apart. Artefakty graficzne wcale nie uświadczyłem. Żeby coś takiego zauważyć, to naprawdę trzeba namęczyć oczy. Jeśli są jakieś widoczne artefakty (np. migotające obiekty), to raczej wina niedopracowany DLSS lub FSR, które zostaną naprawione wraz z aktualizacji (np. DLSS 1.0 -> DLSS 2.0 i tak dalej), czego było widać w grze Control.

DLSS 3 to tak naprawdę kombinacja DLSS 2 i Frame Generation. Ta nowa technologia robiło na mnie duże wrażenie. Można włączyć Frame Generation bez DLSS 2 i odwrotnie, ale to zależy od opcji graficzne w niektórych grach.

RTX 4070 12 GB bez DLSS 3 jest prawie dwa razy lepszy od RTX 3060, więc nic nie stracę na to.

Po prostu w ogóle nie miałeś RTX 4000 w rękach i nie testowałeś DLSS 3. Więc proszę nie wprowadzaj innymi w błąd.

post wyedytowany przez Link 2023-08-14 22:55:29
14.08.2023 23:08
pieterkov
2.5
2
pieterkov
155
Senator
Image

Link
to już kwestia indywidualna. To, że Ty nie widzisz artefaktów to nie znaczy, że ich nie ma.
Ponadto cóż z tego, że licznik pokazuje Ci 100 fps jeżeli realnie nadal grasz na opóźnieniach jak dla 60fps?
No i czemu porównujesz 4070 do 3060 skoro ta karta kosztuje 3x tyle? Nawet 3070 jest sporo wydajniejsza od 3060, a 4070 ma wydajność 3080. Ogólna zasada jest taka, że x80 too 100% wydajności a x60 to 50% wydajności. Niestety w generacji 4 coś im nie pykło i to 60ti stanowi te 50%, a 60 to raczej 40%.
arabus
gdzie ta lepsza wydajność? Bo na pewno nie tu https://i.imgur.com/65Yx1WX.png
Chyba, że wg Ciebie 4070 jest lepsza od 3070. Bo jest. Tyle, że jest przy tym droższa. A co za tym idzie wydajność za 1pln jest taka sama.
Szkoda tylko, że x70 poprzednich generacji były 16-29% wydajniejsze od x80 generacji minus jeden, a przy tym były tańsze. Tutaj masz x70 o wydajności x80 w cenie x80. Rewolucja XDDD

post wyedytowany przez pieterkov 2023-08-14 23:27:23
14.08.2023 23:26
2.6
fenfir
183
Generał

pieterkov -> nie zgodzę się, że te dodatkowe generowane klatki przez frame generation są do D. Zanim miałem okazję się tym pobawić też miałem bardzo sceptyczne podejście do tego tematu, ale testując to samemu na prawdę to daje radę. Artefakty w ogólnym rozrachunku jasne, że są bo kłamstwem by było napisać, że ich nie ma, ale serio jak zaczniesz grać a nie robić stop klatki to w zasadzie tego nie widać, zaliczyłem m in 50h godzin w cyberpunku z włączonym dlss3 i było bardzo spoko. Większym problemem dla mnie było właśnie odczuwanie dodatkowego opóźnienia dlatego z włączonym dlss3 celowałem w okolice przynajmniej 80fps bo przy takiej wartości opóźnienie było dla mnie bez problemu akceptowalne. Zresztą to są rzeczy, do których szybko adaptuje się człowiek. Warto samemu to ocenić nie poprzez filmy i komentarze na yt itp.

Co do ostatniego zarzutu można ująć temat inaczej. Mając do wyboru granie w 60fps i opóźnieniach jak przy 60fps albo granie w 100fps i opóźnieniach jak przy 60fps co wybierasz? Ja wybieram bramkę nr 2. Nie mówię, że jest to technologia bez wad, ale ma to perspektywę przed sobą jak i już jest w mojej opinii bez problemu używalne w grach.

14.08.2023 23:29
pieterkov
2.7
2
pieterkov
155
Senator

fenfir - no ja wybieram 60/60 a nie 60/100. Dlaczego? Bo oczy się mniej męczą. Często w grach świadomie rezygnuję nawet z DLSS 2 bo wolę mieć mniej FPS za to ostrzejszy, mniej rozmazany obraz bez artefaktów. Oni do tej pory nawet dlss 2 nie zrobili dobrze w wielu grach, a co tu jeszcze mówić o dokładaniu sztucznych klatek :P
Ogólnie z samą technologią problemu nie mam. Fajny bajer, jak ktoś chce to niech używa. Podobno działa to dobrze, gdy ze 100fps zrobimy 200, bo różnica w input lagu nie jest tak znacząca.
Problem w tym, że w ten sposób fałszuje się wyniki, a ludziom sprzedaje się to jako klatki z powietrza. Myślą, że nagle z 40fps zrobią sobie bez żadnych wad 80fps, czyli wg nich karta jest wydajniejsza i warto na nią wyłożyć 3000zł. A to jest po prostu okłamywanie klientów. Jeżeli nvidia będzie dalej wstrzymywać postęp w ten sposób to będę musiał poważnie zastanowić się nad swoim fanbojstwem pro-nv i pomyśleć nad przesiadką na AMD :/

post wyedytowany przez pieterkov 2023-08-14 23:32:30
14.08.2023 23:41
Pulser.X
2.8
Pulser.X
48
Konsul

pieterkov, też wybieram 60 na 60, dlss nawet 'jakość' obraz trochę rozmazany, opóźnienia, niekiedy jakieś błędy graficzne, nieee, dziękuję postoję. Kto chce niech to włącza, ja dlss zawsze na off.

15.08.2023 00:45
Link
2.9
Link
23
Senator

pieterkov
fenfir - no ja wybieram 60/60 a nie 60/100. Dlaczego? Bo oczy się mniej męczą. Często w grach świadomie rezygnuję nawet z DLSS 2 bo wolę mieć mniej FPS za to ostrzejszy, mniej rozmazany obraz bez artefaktów. Oni do tej pory nawet dlss 2 nie zrobili dobrze w wielu grach, a co tu jeszcze mówić o dokładaniu sztucznych klatek :P
Ja też wolę ostrzejszy obraz bez DLSS 2. Ale jeśli mam wybrać 30 FPS a 60 FPS z DLSS 2, to wolę te drugie. 30 FPS bardziej męczą oczy.

DLSS 2 to coś więcej niż tylko "zmniejszenie rozdzielczość". Poprawi obrazu po zmniejszenie rozdzielczość dzięki sztuczne inteligencji i takie tam, więc utraty jakość jest prawie niezauważalny, ale to już zależy od tytułu gry i styl graficzny. Nie wszystkie tytuły mają dopracowane DLSS lub FPS. Czasem DLSS u Resident Evil 4 wygląda lepiej niż FPS, bo nie było widać artefakty.

Rozmazany obrazu? Porównałem Cyberpunk 2077 z DLSS 2 jakość i bez tego. Jestem zdziwiony, że różnica jest prawie nie do zauważenie poza więcej FPS.

Nie twierdzę, że DLSS 2 i Frame Generation nie mają efekty uboczne. Zawsze będą. Ale to trudno jest zauważyć. To zależy od wyboru rozdzielczość i gry. Nie wszystkie gry mają idealne działające DLSS lub FSR, ale to zależy od wersji.

No, DLSS 2 wydajność i balans nie jest wskazany i nie warto w moim odczucie. DLSS 2 jakość jest jedyna, słuszna opcja, jak masz poniżej 40-50 FPS. Frame Generation jest alternatywna rozwiązania, jak ktoś nie chce DLSS 2. Połączenie DLSS 2 i FG ma sens tylko wtedy, jak ktoś chce grać na 4K.

To twój wybór. Każdy ma wybór, czy chce korzystać z tego.

Ale modlę się, żeby twórcy gier nie za bardzo polegają na DLSS. Oby nie idą za śladem Remnant 2, gdzie DLSS 3 jest obowiązkowy.

Przy okazji, pytam Cię, czy masz RTX 3000 lub 4000? Czy wypróbowałeś DLSS 2 i 3 w różnych grach?

Pulser.X
Jaki rozdzielczość dla monitora wybrałeś? Pytam to z ciekawostki dla nauki.

post wyedytowany przez Link 2023-08-15 00:51:17
15.08.2023 00:58
2.10
Pietrekursa
24
Chorąży

pieterkov x70 poprzednich generacji były 16-29% wydajniejsze od x80 generacji minus jeden, a przy tym były tańsze. Tutaj masz x70 o wydajności x80 w cenie x80, nigdy prawie tak nie było a jak sie zdarzyło to przy ostatnich generacjach jak chcesz żeby takie zjawisko miało miejsce jak nie chcą dać więcej ramu a schodzenie im w litografi idzie jak krew z nosa następna generacja to będzie skok a po nie bedzie to samo jak w tej seri co 3 może coś się ruszy trzeba poswięci jakiegoś barana albo owieczke rytualnie zeby im sie chciało powiększyć ilośc ramu do tych 50x0

15.08.2023 01:09
Link
2.11
1
Link
23
Senator

Pietrekursa
Prawda. Jak ktoś ma RTX 3070, to zakup RTX 4070 za prawie 3000 zł jest zdecydowanie nieopłacalny. Ale jeśli ktoś ma RTX 3060, a cena RTX 4070 będzie to 2000-2500 zł, to byłaby inna bajka.

15.08.2023 08:33
pieterkov
2.12
pieterkov
155
Senator

Pietrekursa - jak "nie było" jak było?
Popatrz sobie na wyniki wydajności np. tutaj 4070 vs 3070 vs 2070
https://www.purepc.pl/test-karty-graficznej-msi-geforce-rtx-4070-gaming-x-trio-dobrze-chlodzona-i-bardzo-cicha?page=0,31
(3070 ma 30 pp większą wydajność za ok. 2400zł niż 2070 za 2300zł)
lub tutaj 2070 za 2300zł vs 1070 za te same pieniądze - wzrost 33%:
https://www.purepc.pl/test-nvidia-geforce-rtx-2070-szybszy-od-geforce-gtx-1080?page=0,8
https://www.purepc.pl/test-nvidia-geforce-rtx-2070-szybszy-od-geforce-gtx-1080?page=0,6
i dopiero tutaj sytuacja przypominająca obecną 4 generację, jednoczesny wzrost wydajności (prawie 50%!), ale też ceny z 1500 na 2300zł. Wzrost wydajności, był jednak na tyle duży, że nadal się opłacało:
https://www.purepc.pl/test-geforce-gtx-1070-nastepca-gtx-970-szybszy-niz-gtx-980-ti?page=0,5

post wyedytowany przez pieterkov 2023-08-15 08:38:23
15.08.2023 08:48
pieterkov
2.13
pieterkov
155
Senator

Link już w ramach zamknięcia tematu mam 3070. Kupioną dopiero rok temu za raptem 1800zł z gwarancją jeszcze do stycznia przyszłego roku (już się raczej nie zepsuje jak do tej pory nie padła).
I boli mnie to, że ta karta ma 3 lata i nadal nie ma nic bardziej opłacalnego. Na 4060ti nie ma sensu się przesiadać bo jest GORSZA, a 4070 to ta sama wydajność co 3070, tylko, że mogę dać więcej pieniędzy, żeby dostać więcej fps, ale po podobnym przeliczniku. To tak jakby zamiast 3070 kupić 3080...
Z drugiej strony ten sam problem miałem z 1070, więc pozostaje mi po prostu cierpliwie czekać 2 lata na premierę 5060ti i modlić się, żeby do tego czasu ludzie nie zaczęli wykupywać wszystkich GPU z rynku do AI.

DLSS 2 używam tylko wtedy kiedy muszę, bo gra jest słabo zrobiona np. steelrising. Używam go też gdy nie widać żadnych jego wad, bo czasem po prostu zmniejsza input lag zerowym kosztem.
Niemniej, uważam, że DLSS to główny powód plagi lenistwa i gdyby ta technologia nie powstała, rynek gier miałby się lepiej. Patrząc chociażby po Twoim przykładzie z remnant 2.

post wyedytowany przez pieterkov 2023-08-15 08:54:44
15.08.2023 11:28
Link
2.14
Link
23
Senator

pieterkov
Nie dziwię się i to zrozumiałe. Jeżeli masz RTX 3070, to nie widzę powodu, by przenosić się na RTX 4060 Ti lub RTX 4070, bo to jest zdecydowanie nieopłacalny. Na DLSS 3 lepiej nie można polegać, bo nie działa idealnie u wszystkie gry, a niektóre tytuły są celowo zablokowane dzięki nieuczciwe umowie AMD. Lepiej jest poczekać na RTX 5000.

Na pocieszenie, RTX 3070 jest bardzo dobra karta i wystarczająca na wszystkie gry (prawie), więc nic nie stracisz.

Ja kupiłem RTX 4070 tylko dlatego, że różnica w porównaniu do mojego poprzednika RTX 3060 jest bardzo odczuwalna i to za okazjonalna cena. Traktuję DLSS 3 tylko jako miły dodatek, a nie główny argument do zakupu. To zależy od posiadana karta i cena.

Jeśli karta będzie za słaba dla wybrany tytuł, to pozostaje tylko DLSS. To zawsze lepsze niż opcji graficzne na Medium/Low. DLSS jest odczuwalny lepszy niż zwykły obniżony rozdzielczość w sposób tradycyjny (dużo pikseli, bardziej rozmazane tekstury). Używam DLSS, kiedy tylko muszę. Bez DLSS nie ma sensu jest wypróbować Path Tracing dla Cyberpunk 2077.

uważam, że DLSS to główny powód plagi lenistwa i gdyby ta technologia nie powstała, rynek gier miałby się lepiej
Wątpię. To zależy od twórcy gier. Niektórzy traktują optymalizacji gier z powagą, a inni wykorzystują DLSS 3 jako wygodna wymówka na olewanie optymalizacji (pluję na twórcy Renmant 2, błe, tfu).

To tak jakby napisać, że gdyby nie powstają mocniejsze karty graficzne, to rynek gier miałby się lepiej.

Gdyby nie powstało DLSS, to tak powstają mocniejsze karty graficzne, ale za znacznie wyższe ceny, a twórcy gier nadal będą leniwi i pójdą na łatwiznę, czego to było widać po niektóre gry za czasów karty GTX. Wtedy niektóre gry nie da się grać na RTX 3000.

DLSS powstał z myślą o użycie RT dla rozdzielczość 4K (lub 1440p) i to jest główny powód. Bez DLSS, to RT byłby nieopłacalny dla większości gracze.

Czy chcesz, by twórcy gier będą dawać sporo downgrade do grafiki gry podobnie jak Watch Dogs 1, żeby móc działać na 4K, bo to obowiązkowy standard? Jeśli mam wybrać, to wolę DLSS niż odczuwalny downgrade dla grafika gry. Taka jest cena moda 4K i ray tracing.

Ray tracing może wygląda cudownie u Cyberpunk 2077, Spider-Man i Watch Dogs Legion (te odbicie wody i lustro), ale dla wielu gry RT to po prostu przereklamowany i zbędny dodatek. Świetnie to było widać po Elden Ring.

To zależy od twórcy i silniki gry. Bywają różne.

Ale masz rację. DLSS jeszcze nie jest idealny i lepiej będzie dla wszystkich, jak twórcy gier nie za bardzo polegają na DLSS.

Ale gdyby nie powstaje DLSS, to twórcy gier nadal będą leniwi w kwestii optymalizacji. Ale na szczęście DLSS i FSR z upływem czasu są coraz bardziej dopracowane i mają coraz mniej artefakty graficzne. Czas pokaże.

Życzę Ci miłego grania.

post wyedytowany przez Link 2023-08-15 11:44:52
15.08.2023 22:59
SpoconaZofia
2.15
SpoconaZofia
84
Legend

Ja tu raczej widzę duży ból tyłka. Że kogoś nie stać na kartę. Równie dobrze można napisać. Że nie opłaca się produkować Ferrari Bugatti i Rolls-Royce. Bo tylko bogaci jeżdżą tymi markami, a to tylko 1% społeczeństwa. Więc trzeba je wszystkie niszczyć. I piętnować takich ludzi.

16.08.2023 02:40
Pulser.X
2.16
Pulser.X
48
Konsul

SpoconaZofia o czym ty pendolisz gościu?? Nieźle jesteś odklejony, i te twoje przygłupie porównania. Brawo ty

16.08.2023 08:41
SpoconaZofia
😁
2.17
SpoconaZofia
84
Legend

Od razu taki agresywny. Bo nie zrozumiałeś.

14.08.2023 20:01
-=Esiu=-
😉
3
4
odpowiedz
7 odpowiedzi
-=Esiu=-
210
Everybody lies

Też na początku roku wskoczyłem na rtx 3060ti i na tym pozostanę spokojnie do 25 jak nie dłużej ;)

14.08.2023 20:14
👍
3.1
3
GeDo
85
Konsul

Ja 2 tygodnie temu też na RTX 3060 Ti sie przesiadłem z GTX 1060 6GB(pominołem serie GTX 1600 i RTX 2000).Rożnica spora w wydajnosci,tylko wiatraki jaskieś takie głosniejsze:)

post wyedytowany przez GeDo 2023-08-14 20:17:06
14.08.2023 20:18
Pulser.X
3.2
3
Pulser.X
48
Konsul

Ja też, od roku na 3070 i na razie jest ok a seria 4000 to pomyłka, poczekam na 5

14.08.2023 20:21
Crod4312
3.3
4
Crod4312
162
Legend

No to witam w gangu 3060Ti do którego też dołączyłem w czerwcu ;)

14.08.2023 20:29
John_Wild
😉
3.4
3
John_Wild
45
Okropnie_Wściekły_Dzik

Na początku roku też 3060Ti wskoczyło. Spory ten gang się nam robi ;)

14.08.2023 21:13
😁
3.5
1
A_wildwolf_A
226
Senator

Przepłaciłem za swojego rtx3060ti w tamtym roku ale do dzisiaj nie żałuje wyboru nawet jak staniał o prawie 600zł

14.08.2023 22:26
Link
3.6
2
Link
23
Senator

Nie ma co się dziwić. RTX 3060 Ti to bardzo dobra karta i wystarczy na większości gry tak jak GTX 1060 w tamtędy czasach.

Życzę Wam dużo radości w odkrywanie nowe gry.

post wyedytowany przez Link 2023-08-14 22:27:07
15.08.2023 04:22
Dessylyn
3.7
1
Dessylyn
15
Legionista

Ja kupiłam w lipcu 2021 to przepłaciłam jeszcze więcej ale nie było wyboru

14.08.2023 20:23
Herr Pietrus
4
odpowiedz
Herr Pietrus
230
Jestę Grifterę

A ja planuję przesiadkę na 4070. Coś czuję, że to i tak będzie tańsze i lepsze rozwiązanie niż czekanie na 5060Ti.

14.08.2023 20:24
Mr. JaQb
😜
5
1
odpowiedz
Mr. JaQb
115
Legend

No to czekamy na te karty o mocy takiej, jaką powinny mieć karty serii 40, w tej samej cenie, tylko 3 lata później.

14.08.2023 20:26
6
odpowiedz
4 odpowiedzi
Szproto
54
Pretorianin

I co teraz zrobić jak planuję nowego peceta składać w 2024, rtx 2070 w 1440p już za bardzo nie wyrabia

14.08.2023 20:48
6.1
4
GreedFire
35
Pretorianin

Graj w 1080p ja tak robie.

14.08.2023 21:08
pieterkov
6.2
pieterkov
155
Senator

kupisz to co będzie najbardziej opłacalne. 3070 są usuwane ze sklepów więc pewnie co najwyżej 4060ti lub 4070.

14.08.2023 23:45
George84
👍
6.3
George84
5
Legionista

Radeon RX 7700 XT będzie tańszy i lepszy od RTX 4060Ti

16.08.2023 08:34
Szlugi12
6.4
Szlugi12
119
BABYMETAL

Tez mialem rtx 2070, zmieniłem na 4070Ti i teraz pasuje wszystko idealnie. 1440p, ultra, blokada na 90 fps i jak na razie wszystko daje rade.

14.08.2023 20:41
John_Wild
😊
7
odpowiedz
1 odpowiedź
John_Wild
45
Okropnie_Wściekły_Dzik

Kto wie, może do tego czasu Intel też podgoni i będzie większy wybór :)

14.08.2023 20:45
7.1
1
Pietrekursa
24
Chorąży

Równie dobrze możesz obstawić ze polska reprezentacja piłki nożnej zacznie wygrywać mecze

14.08.2023 21:12
Persecutor
8
odpowiedz
Persecutor
44
Tosho Daimosu

Nowa architektura i +200$ do ceny :)

14.08.2023 22:25
Link
👍
9
2
odpowiedz
2 odpowiedzi
Link
23
Senator

rafq4
Nie martw się. Karty 3000 są bardzo dobre i wystarczą na większości gry, jeśli nie grasz na zbyt wysoki rozdzielczość takich jak 4K.

Życzę Ci dużo radości w podziwianie grafiki i płynności nowe gry dzięki karty 3000. Znam te cudowne uczucie.

14.08.2023 22:41
😊
9.1
bolek2018
84
Generał

Dokładnie spokojnie się nadaje do 1440p u mnie RTX 3080 jak znalazł. Brakuje troszkę VRAM'u na przyszły rok ale jakoś to będzie.

15.08.2023 14:19
9.2
laki2217
135
Generał

Nawet do 4k bez problemu, ale bez technologii śledzenia promieni. Pozdrawia rtx 3080 12GB.

14.08.2023 22:34
Alba_Longa
😒
10
odpowiedz
10 odpowiedzi
Alba_Longa
100
Generał

Jeszcze mają zapasy magazynowe serii 3000 z czasów davida19. Więc tanio skóry nie sprzedadzą.
Najbardziej opłacalna GIGABYTE GeForce RTX 3060 Ti WINDFORCE OC 8GB.

15.08.2023 01:05
Link
👍
10.1
Link
23
Senator

Alba_Longa
Jeśli ktoś kupuje karty Gigabyte, to zdecydowanie polecam wspornik/uchwyt do karty takich jak ten:
https://www.x-kom.pl/g-5/c/3510-uchwyty-do-karty-graficznej.html

Bo karty Gigabyte nie są dość wytrzymałe i mogą się łamią pod wpływem ciężarem (lub ktoś nie obchodzi z karty delikatnie), a oni nie dają gwarancji za to.
https://www.telepolis.pl/tech/sprzet/gigabyte-karty-graficzne-awaria-zlamane-pcb

Ktoś, kogo znam, używa uchwyt do karta Gigabyte od wielu miesięcy i nie ma problemu z tym.

Uchwyty do karty graficzne to podstawa w dzisiejszych czasach, jak patrzę na rozmiary i waga karty.

post wyedytowany przez Link 2023-08-15 01:05:54
15.08.2023 01:09
Alba_Longa
👎
10.2
Alba_Longa
100
Generał
Image

Link co to za drogie gówno rakotwórcze chcesz ludziom wciskać!
Ja używam prętów wolframowych są dużo tańsze i pisz poprawnie po polsku, a nie bez ładu i składu.
Lub można karyty graficznyej zamontowaność w pionowy pozycjii.

post wyedytowany przez Alba_Longa 2023-08-15 01:14:46
15.08.2023 11:40
Link
10.3
Link
23
Senator

Alba_Longa
Proszę uważaj z tym słowem, bo ktoś może Cię zgłosić na panelu. To, że nie pasuje Ci takie rozwiązanie nie znaczy, że daje Ci prawo do obrażanie innymi. Szczególnie do osoby, co mają mniej szczęście w kwestii zdrowotne. Trochę grzeczniej.

Ja wybrałem taki:
https://www.x-kom.pl/p/582327-uchwyt-do-karty-graficznej-jonsbo-uchwyt-do-karty-graficznej-vc-1-czarny.html
i nie mam z tym problemu. Jestem bardzo zadowolony. No, to kwestia gustu.

Twój wybór też nie jest źle. To zależy od modelu karty graficzne i obudowy.

Miłego dnia.

post wyedytowany przez Link 2023-08-15 11:45:55
15.08.2023 12:17
10.4
tynwar
90
Senator

Alba_Longa
A jak z przepływem powietrza i temperaturą z kartą w ten sposób zamontowaną, że pionowo?

post wyedytowany przez tynwar 2023-08-15 12:17:49
15.08.2023 12:42
Link
10.5
Link
23
Senator
Image

tynwar
Dobre pytanie.

Jeśli chodzi o mnie, to nie mam problemu z temperatury nawet, kiedy CPU i GPU są pełne obciążone. Temperatura jest akceptowalna (50 stopni C przy pełne obciążenie).

Ale jeśli chodzi o moja karta graficzna Gigabyte, to nie może być pionowy, bo przecież musi gdzieś wyrzucić ciepłe powietrze. Załączam tu zdjęcia.

Więc rozwiązania Alba Longa w moim przypadku raczej odpada. To zależy od modelu karty graficzne i obudowy.

15.08.2023 15:54
10.6
tynwar
90
Senator

Link
Dzięki za wyjaśnienie. Czyli to znaczy, że takie rozwiązanie nie jest ani powszechne ani uniwersalne i dla każdej karty tak jak zasugerował alba_longa.

post wyedytowany przez tynwar 2023-08-15 15:55:23
15.08.2023 18:40
Alba_Longa
10.7
Alba_Longa
100
Generał

tynwar
To rozwiązanie spisuje się wyśmienicie - od czego są wentylatory w obudowie.

Link
Chcesz to zgłaszaj, a nie strasz. Wykonanie takiej podpórki to koszt maks 20zł.
A ty spamujesz jakieś linki co można kupić u chińczyków na ali.
Chyba, że masz z tego prowizję to jeszcze zrozumiem.
Nie obrażam Ciebie Szanowny Kolego tylko wyrażam swoje zdanie o tym przedmiocie.
Kupiłem plastikową kieszeń na dyski twarde to śmierdziało nie wiadomo czym i po kilku dniach 5€ poszło do śmietnika. Szkoda tylko czasu przestoju komputera BOINC i czasu montażu.

15.08.2023 19:46
Link
10.8
Link
23
Senator

Alba_Longa
Chcesz to zgłaszaj, a nie strasz.
Nie muszę. Ale ktoś może to zrobić. Tylko ostrzegałem.

A ty spamujesz jakieś linki co można kupić u chińczyków na ali.
Podałem tylko przykłady, jeśli chodzi o podpórki. Nie każdy to wie, że coś takiego istnieje. Ale kto i gdzie kupuje, to jego sprawa i jego pieniędzy. Nie musi to sklep x-kom, ani te wybrane produkty.

Nie obrażam Ciebie Szanowny Kolego tylko wyrażam swoje zdanie o tym przedmiocie.
Co z tego, że wyraziłeś własne zdanie, skoro pisałeś do mnie w sposób niegrzeczny. Widzę, że już edytowałeś post, ale doskonale wiesz, co napisałeś, więc mnie nie oszukujesz. Bez odbioru.

post wyedytowany przez Link 2023-08-15 19:48:15
15.08.2023 23:25
10.9
tynwar
90
Senator

Alba_Longa
Możliwe, ale to w dalszym ciągu jest jednak rozwiązanie dla niektórych modeli, więc nie jest to uniwersalne rozwiązanie.

16.08.2023 11:09
Link
10.10
Link
23
Senator

Alba_Longa
tynwar
To rozwiązanie spisuje się wyśmienicie - od czego są wentylatory w obudowie.
Zapomniałem coś dodać. Dopóki mam akceptowalna temperatura dla CPU i GPU, to nie muszę uciekać do Twojego rozwiązania. Chyba że ktoś woli, by wnętrza obudowa będzie tak wyglądać dla podziwianie. To kwestia gustu i podzespoły PC.

Ale z drugiej strony, twoje rozwiązanie są dobre dla karty graficzne, co wymagają wtyczki 12-pin, a obudowa nie jest wystarczająca szeroka, by podłączyć kabel w sposób bezpieczny (kabel nie może być zgięty poniżej minimalny długość).

Nie bez powodu wybrałem Gigabyte RTX 4070 Eagle, a nie inne marki i modeli, ponieważ obsługuje tradycyjny 8-pin, co sprawi, że nie muszę wymieniać zasilacz do PC (co dopiero kupiłem od niedawna) na nowy ze standardem ATX 3.0.

Wszystko ma swoje zalety i wady.

Miłego grania.

post wyedytowany przez Link 2023-08-16 11:09:28
15.08.2023 01:13
😂
11
odpowiedz
2 odpowiedzi
zanonimizowany1376576
5
Generał

Tak nowe jeden i ten sam plastik z elektroniką co przynajmniej 10 lat temu tylko cyferki zmienią w sterownikach, systemie tak wygląda rzeczywistość.

post wyedytowany przez zanonimizowany1376576 2023-08-15 01:13:40
15.08.2023 01:15
Alba_Longa
11.1
Alba_Longa
100
Generał

A jaki ty masz plastik na twojej karcie?

15.08.2023 03:25
11.2
zanonimizowany1376576
5
Generał
Image

.

15.08.2023 15:23
12
odpowiedz
1 odpowiedź
Zanonimizowany 4280123
23
Pretorianin

Podobno RTX 5060 będzie miał wydajność 4090, a 5090 będzie wydajniejsze od 4090 o 120%

15.08.2023 15:34
Link
😈
12.1
Link
23
Senator

Zanonimizowany 4280123
Podobno RTX 5060 będzie miał wydajność 4090
Albo RTX 5060 będzie miał wydajność 4060 plus nowa technologia dla VRAM i wsparcie AI na bonus za wyższa cena. :>

Czas pokaże.

15.08.2023 17:29
LukaszKukaszTm
😉
13
odpowiedz
6 odpowiedzi
LukaszKukaszTm
27
Pretorianin

Jestem za tym by do 2025 roku uklady owe nie powstaly,ludzie z uposledzenia technika zaczeli wkoncu swoim mózgiem myslec o ile jeszcze cos takiego jak mózg posiadaja i licze ze nie bedzie z czego techniki robic gdyz zycze sobie zeby wogóle z ludzkiego Zycia dla zdrowia znikneła dla psychiki to dobre i dla ciala

15.08.2023 20:55
Roniq
13.1
1
Roniq
110
Unknown

tobie już nic nie pomoże

15.08.2023 22:07
LukaszKukaszTm
13.2
LukaszKukaszTm
27
Pretorianin

Roniq
Wam juz nic nie pomoze.Wasze zindoktrynowanie wam nie pozwoli sie wyrwac.
Pozatym was ciagnie do rtx mnie nie.wy co jakis czas kupujecie to i owo do kompa.Jesli mi zydsoft bedzie wciskal ai moj kompek leci z chukiem za okno.I kto na tym zdrowiej wyjdzie.Wam znowu wcisną kit bajere i ja lykniecie.A ja sobie bede zyl po swojemu bez wplywu kogokolwiek kto zechce probowac mi wcisnac nowomode ktorej wy nie odmowicie.Powiedz,ze sie myle?

15.08.2023 22:09
Alba_Longa
13.3
Alba_Longa
100
Generał

Jest tyle ludzi na świecie, że tylko technika wykorzystana w właściwy sposób im pomoże. Np. przewidywanie pogody i siewy w odpowiednim czasie.

15.08.2023 22:22
LukaszKukaszTm
13.4
LukaszKukaszTm
27
Pretorianin

Alba_Longa
Jesli za tym stoja ludzie.Jeszcze.Bo jak to przejmie AI to bedzie cyrk.Wasz nie moj.Pozatym ludzie z roku na rok coraz glupsi,a zgadnij z jakiego powodu?Co sie przyczynia do pogarszajacego sie stanu umyslowego ludzi na swiecie?Pamietaj o tym,jak za dziesiec lat ani nic nie napiszesz ani nic nie powiesz.Bo ai bedzie toba zarzadzac.Dzieki tobie zreszta.Bo na to dales zgode i przyzwolenie

16.08.2023 12:32
13.5
Zanonimizowany 4280123
23
Pretorianin

Fajnie, tylko, że u ciebie ilość błędów językowych jest tak przerażająca, że tobie już nic nie pomoże.

16.08.2023 15:57
LukaszKukaszTm
13.6
LukaszKukaszTm
27
Pretorianin

Zanonimizowany 4280123
A pytal cie ktos o zdanie.Wracaj korporacjom chołdy skladac i wielbic ai,a odemnie i mojej pisowni wara.Pisze jak chce i nikomu nic do tego

Wiadomość Karty graficzne RTX 50 otrzymają nową architekturę, ale poczekamy do 2025 roku