Prezentacja możliwości nowych GeForce'ów wyciekła do sieci
wszystko wyglada fajnie, robi wrazenie, ale to nic czego juz nie bylo. Najwazniejsze to nie mozliwosc bo to jest od dawna, tylko wydajnosc. A jak znam zycie, znowu sie okaze, zeby w grze wykorzystac kilka postaci z takimi wlosami, trzeba bedzie miec najdrozsza karte, albo sli i 'cieszyc' sie 30 fpsami na srednich detalach w 1280. Fenk ju weri macz.
Na czym polega ray tracing?
mazzeo - na tym co oznacza, czyli sledzenie trajektorii swiatla
W filmiku z FC2 to GF100 jest po lewej, tak? A co jest po prawej?
Mam nadzieję, że tańszy model będzie kosztował podobnie, co HD5850.
Tych włosów chyba bardziej już się nie da poprawić ?
Wszystko fajnie, ale w grach i tak tego nie uswiadczymy.
A jesli juz jakies szczatkowe efekty, to i tak na niezoptymalizowanym silniku i wydajnoscia = zeru.
Czekam na lepszą jakość tej prezentacji, dosyć niską cenę tańszych modeli i szybką premierę ;P
woow
Nie wiem dlaczego ale zawsze uważałem że
Nvidia ma bardzo rozwiniętą technologie w porównaniu do ATi ale trzeba przyznać że to Ati odnajduje wszystkie bajery które pózniej Nvidia tuninguje że piękno się widzi ;>
Będzie można gdzieś w sieci pooglądać na żywo pokaz nowych GF?
Prucz wody , która poruszała się zybt wolno i włosów nic nie ma ciekawego
Real time Ray tracking - może za rok w grach zobaczymy (0.6 fps xD)
Co do włosów - imba fajnie to wyglądało, chciałbym to obejrzeć w jakimś RPG (nawet MMO) :D
Nie ma czym się podniecać. Cała moc procków idzie na jedną perukę czy jeziorko z wodą. W grach prędko się tego nie zobaczy bo jest o wiele więcej rzeczy do policzenia. Poza tym Fermi jest tylko o 20% wydajniejszy od Radeonów z serii 5000 a nVidia ma poważne problemy przy ich produkcji więc pewnie karty z tym GPU będą bardzo drogie.
te włosy wyglądają realistyczniej niż na renderze Xd
np lepiej niż w FF VII Advent children xD
Wyobraźcie sobie to jako włosy Geralta. Koniec lamentów, że coś się przenika.
A to tylko GTX360. Co będzie jak dojdą do GTX395?? Włosy i woda wyglądają wspaniale
Fajnie, bo w teście brały udział 3 karty...paranoja -_-
I na to czekam tyle czasu?
_MaZZeo - ray tracing to metoda renderowania uzywajaca sledzenia promieni swiatla. dosyc powszechnie uzywna podczas redneringu 3d - "na zywo" sie jej nie stosuje bo jest jedna z najwolniejszych - takie real time preview mimo, ze nie jest to pewnie jakosc jaka uzyskasz z ustawieniem AA i ambient occlussion i global illumination, ale i tak mozliwosci takiego preview to dla wielu grafikow (w tym mnie) cos naprawde przydatnego.
Ciekawe jest to, ze tutaj ludzie pisza tylko o tym, ze zabije to piractwo albo, ze to nic takiego jak na rewolucje - nie myslac, ze to nie jest kierowane wylacznie na rynek domowy (nie w tej wersji - zbyt kosztowne), ale na rynek profesjonalistow.
soft body bylo juz wczesniej (nie wiem czy ktos pamieta ze w gf jest przeciez hardwarowy silnik fizyczny) to co zrobili to pewnie finalna implementacja tego w sterownikach :)
Bardzo podoba mi sie raytracing, jezeli beda jakies porty (pewnie po dx) do powaznego softu. bedzie fajnie.
Ale generalnie jakos rewolucji nie ma, w sumie ciezko juz pokazac cos rewolucyjnego.
Antonio, ale to jest niewiele dalej (raytracing) do tego co karty pokazywaly wczesniej mowiac szczerze.
Pięknie to wygląda chyba zrezygnuje z wielu, wielu przyjemności na taki sprzęt XD
Te włosy świetnie wyglądają, niesamowite. Ciekawe kiedy doczekamy się takich standardów. Będzie pięknie.
Ehh jak dla mnie nic szczególnego Far Cry 2 chodzi dużo lepiej ale cudeńka na kiju ledwo działają, raytracing 0,6 fps a włosy ~25fps xD
I najnowsze podzespoły GeForce będą i tak kosztować 2/3 razy drożej niż najnowsze Radeony. Ja kupiłem w końcu w zeszłym tygodniu HD 5870 Vapor-X i powiem wam moi Drodzy szczerze, że razem z moim procesorem Phenom II x4 3.5 GHz OC to jak brzeszczotem po jajach - Istna miazga!
Ładnie wygląda, ale tak jak było powiedziane wyżej, pewnie szybko tego nie uświadczymy, bo to by zarżnęło najmocniejsze procki i karty graficzne.
Pamiętacie entuzjazm Nvidii dotyczący PsyhX? W ilu grach zostało to użyte? Ilu graczy tu obecnych widziało u siebie PsyhX w akcji? (oczywiście w płynnej animacji, ale nie 10 FPS/s) Na mnie wrażenie zrobił nowy Batman:AA, ale tylko na filmikach :P
Twórcy zamiast skupiać się na tesselacji lub ray tracingu powinni zająć się fizyką w grach. Twórcy Half Life 2 udowodnili, że dzięki temu można mocno podnieść grywalność. Tak samo Crysis, fizyka wspaniała, ale był to tylko taki bajer, który się zbytnio nie wykorzystywało w grze, a jest tyle możliwości... pokazał to także Red Facion: Guerrilla
Śmieszne te karty ... praktycznie brak postępu.
Czekamy na następną gen. konsol.
I tak łatwo zauważyć że nastąpiła mała zamiana miejsc.
Zawsze to GeForce wypuszczał jakąś super mocną kartę a później AMD próbowało się do tego zbliżyć co i tak nie miało znaczenia bo zaraz po tym GeForce wypuszczał jeszcze mocniejszą kartę. Zawsze byli krok do przodu.
Teraz to AMD wypuściło pierwsze swoją kartę i jest ona najszybsza na rynku. Odnoszę wrażenie że GeForce troszke zaspał.
Tak więc następne miesiące będą decydujące. GeForce dzisiaj pokaże swoją kartę i jeśli tylko niedługo AMD przebije ich nastąpi długotrwała zmiana warty na rynku kart graficznych.
Pfu to samo przecież potrafią/będą potrafiły Radeon(y) HD 5xxx ,a co do tych wyników to nawet nie wiemy jakie karty to renderują równie dobrze może być to GTX295 i GT310 :P chyba pamiętacie ostatnią atrapę na targach ? :D Z tego co ostatnio mi wiadomo to Fermi szybko nie trafi do sprzedaży (jeśli w ogóle trafi ?) ,a wydajność (GTX380) ma tylko 20% wyższą od HD5870 ,a ATI jeszcze nie długo wprowadzi HD5890 i będzie miała zarówno najszybszą kartę jednordzeniową jak i dwu bo z Fermiego podobno się nie da zrobić sklejki bo pobiera bardzo dużo prądu
zresztą sami obczajcie :
---> http://pclab.pl/news40618.html
MirekHeros --> Z tego co mi wiadomo to ATI ma zamiar wypuścić serię HD6000 jeszcze w tym roku (3 kwartał chyba), więc wszystko może się zdarzyć, że Nvidia długo nie będzie królem wydajności.
Inna sprawa to fakt, o którym wcześniej pisał Pan Dzikus, mianowicie są duże problemy przy produkcji układów, więc według prognoz cena końcowa GT380 może wynieść nawet ok. 600$, więc jeśli karty nie będą dużo wydajniejsze od Radeonów HD5000, którego obecna cena wynosi ok. 450$, to klienci pewnie wybiorą ATI.
Raytracing nie bedzie chodzil szybciej bo to raytracing, moze jakies piec lub wiecej generacji kart poczekamy na raytracing nadajacy sie do grania. Poki co gry nie sa targetem raytracingu, dlugo jeszcze nie beda, oczywiscie elementy takie jak ambient occlusion, radiosity, caustics sa implementowane (badz tez fejkowane) ale sledzenie promieni jako takie, nie ma na dzisiaj najmniejszego sensu w grach (o ile wogole bedzie mial sens).
[32] Myślę podobnie. Nawet nie przeszkadzałaby mi grafika z PS2 byle tylko fizyka była na co najmniej takim poziomie jak Guerrilla czy Crysis. Można by ją też wykorzystać do rozwiązywania zagadek i wielu innych.
Niestety fizyka dużo wolniej się porusza naprzód niż grafika.
Lutz <--- a ja uważam, że właśnie raytracing to przyszłość gier (jeśli chodzi o grafikę oczywiście).
Dlaczego ?
Oczywiście rację masz pisząc, że dłuuugo jeszcze będziemy czekać na karty które obsłużą raytracing w sposób nadający się do grania, ale jak już takowe będą,, to wszystkie te ambient occlusion, radiosity, caustics i inne, będą po prostu zbędne, że o ułatwieniu (jakim będzie ray) dla programistów piszących gry nie wspomnę.
Całkiem niedawno Intel zrezygnował z projektu pod nazwą Larrabee, a szkoda, bo gdyby im się udało zrealizować ten projekt przy założeniach które przyjęli i dodatkowo wprowadzić go na rynek, to byłaby rewolucja graficzna i firmy takie jak ATI czy Nvidia musiałyby si…ę szybko dostosować, albo po prostu zniknęłyby z rynku kart graficznych przeznaczonych do gier.
Kopec23 ---> O tym mówie. Te miesiące będą decydujące. Jeżeli AMD przebije GeForce to dłuuugo nie zejdą z pierwszego miejsca, tak jak miało to miejsce teraz w przypadku drugiej firmy. Ale teraz zależy to tylko od ekspertów z AMD aby utrzymać dobrą formę.
Jak dla mnie karty graficzne powinny najbardziej iść w stronę mniejszego zużycia prądu aż do następnej generacji konsol. Od 2007 poza Crysis nie wyszliśmy przy czym to jedyna gra, która ma taką jakość grafiki, a z portami z konsol radzi sobie starszy sprzęt.
"...Uruchomiony na GPU, proces raytracingu w silniku PantaRay był 25 razy szybszy niż wtedy, gdy działał na tradycyjnych procesorach, zaś ogólny proces obliczeń wstępnych trwał 10 razy krócej. „Jeśli zastanowić się, ile czasu zajęłoby opracowanie scen o takiej złożoności tradycyjnymi metodami, to najprawdopodobniej nowa metoda jest około 100 razy szybsza”, powiedział Sylwan..."
http://pcfoster.pl/aktualnosci/efekty-specjalne-w-filmie-avatar-4861.html
Eee nic ciekawego :].Gdyby np zrobili GTA z takimi włosami i wodą to by nikomu ta gra nie ruszyła.25 fps na włosy i wcale nie dużo wiecej woda :].A mowa tutaj o włosach dla jednego modelu ::]
Tak czy siak przynajmniej nie będzie problemów z grami, tak jak to ma miejsce w przypadku kart ATI. Obecnie i tak wolę kupić starego GTS 250 czy GTX260 niż jakiegoś nowego ATI.
ohy ahy itd. a za 1,5 tysiąca czy nawet 2 i tak nic nie zobaczycie, bo nie ma takich gier... wszystko jest piękne, zanim nie zobaczy się tego u siebie na monitorze. Potem same lamenty. Zresztą niż większość z nas sobie to kupi, to już będą kolejne model i kolejne. Takie włosy to w następnej generacji, jak na teraz to takie jak z FF XIII będą najlepsze, chyba że może jacyć twórcy zrobią trochę lepsze. teraz starczy GTX 260 i raczej nie odczuje się różnicy, bo prawie żadna gra więcej nie wymaga... w sumie żadna, jedynie crysis/gta IV i Far Cry będą ładniejsze. A jeszcze jedno: wszyscy niby się tak podniecają tm 70fps na sekundę, a prawie nikt z nas w akcji nie zauważa, czy gramy z 50fps/ na sekunde czy 70... to tylko takie chwalenie w teorii. Ja myślę, że prawdziwą grafikę(taką jak film czy jak naprawdę) zobaczymy w 9 albo i 10 generacji... o ile grafika się będzie rozwijać, a nie np. zapach czy ruch.
Wszystko fajnie, ale jaki odsetek graczy to kupi zanim te karty staną się już stare ?
Szkoda sianka,
Woda lepsza niz w Crysisie :O Jestem pod wrazeniem
TobiAlex [ Level: 36 - Generał ] - bo jestes fanbojem i nie majac nigdy ati myslisz, ze wiesz duzo o ich kartach
Fizyka wlosow rowniez robi wrazenie, jest taka naturalna
lajosz --> dłuuugo jeszcze będziemy czekać na karty które obsłużą raytracing w sposób nadający się do grania, ale jak już takowe będą,, to wszystkie te ambient occlusion, radiosity, caustics i inne, będą po prostu zbędne, że o ułatwieniu (jakim będzie ray) dla programistów piszących gry nie wspomnę.
Czy ty wogóle wiesz o czym piszesz ? Bo nie wydaje mi się. Ambient occlusion, radiosity i caustics nigdy nie zostaną zastąpione przez raytracing gdyz służą one do modelowania efektów niemożliwych do obsłużenia przez samo śledzenie promieni. Tych modeli często używa się aby urealnić scenę wyrenderowaną wstępnie przez raytracing (np radiosity używa się aby wyliczyć składową odbitą światła rozproszonego, caustics aby zamodelować releksy wynikające z załamania promienia światła w drodze między źródłem a sceną).
na mnie bardziej demko z rakietą i to co się dzieje z domkiem:)
http://www.youtube.com/watch?v=3-1GMbqzGX0&feature=related
ale nie oszukujmy sie; jeszcze duzo czasu uplynie zanim zobaczymy to wykorzystane w grze.
ATI i tak robi w tej chwili karty o lepszym stosunku mozliwości do ceny, nvidia jak na razie same kotlety i obietnice (fermi).
@leon691 [ Level: 13 - Generał ]: jakkolwiek lubie ATi i im kibicuje, to nie moge sie do konca zgodzic.
Owszem, robia karty o dobrej wydajnosci, ostatnio wiedzie im sie zdecydowanie lepiej - pierwsi siegneli po 40nm, pierwsi zaklepali produkcje w TSMC na szersza skale i maja lepszy uzysk z wafla.
Ale ostatnio cenowo przeginaja pale, czuc, ze wrocily czasy gf8800, kiedy karty kosztowaly po 2-3kafle [tyle kosztuja obecnie topowe karty ATi].
Ale tez coz.. brak konkurencji robi ewidentnie swoje. A na koniec dnia, zadna z tych firm przeciez nie robi charytatywnie.
Co do testow: wlosy robia wrazenie, ale to tylko jeden model na calej scenie, a i tak fpsy nie sa nijak powalajace - do gry to sie po prostu nie nadaje. To samo odnosnie raytracingu, nawet hybrydowego, o ktorym wspominaja: klasyczny - 0.6fps, hybrydowy raptem niespelna 15-20fps Szal pyty to to jednak nie jest, raczej czysta ciekawostka.
Econochrist -> "Ja kupiłem w końcu" o bo to trzeba się speszyć bo grafy już stare... bo się zesrasz, a i tak dx11 na razie gówno masz, daruję sobie te głodne kawałki o cenach nv, jakby to amd miało tanio, jak będzie trzeba kupić grafę z dx11 to już dawno cena będzie niska, ale tacy kretyni jak ty już teraz muszą kupić grafę od amd bo myślą że im coś to da.
Amd jest w tyle za procami intela i za kartami nv, o intelu wiedzą a niedługo zobaczą także, że nie wystarczy na sucho zaimplementować dx11, ale trzeba też mieć nową architekturę karty a taką ma nv, gdzie dx11 jest tylko dodatkiem a nie szczytem możliwości jak to w amd.
kaszanka9 bucu kupiłem tą kartę, bo byłem na wymianie sprzętu a nie dlatego, że mnie DX11 oczarowało, bo akurat nigdy na DX nie zwracałem uwagi. Nawet mam teraz Windows XP zainstalowany więc choćbym miał ochotę i przy czym to jak ośle wykorzystam DX11? Mam gdzieś czy AMD jest w tyle czy z przodu przed Intelem. Nigdy nie miałem procesora od Intela, i nie żałuję. Wcale nie mają tak Intel jak i nVidia droższych podzespołów. ATI i AMD może i gorsze, ale wśród konkurencji NIE ZNAJDZIESZ ZA TE PIENIĄDZE lepszego sprzętu niż ich. Za procesor z odblokowanym mnożnikiem Intel sobie życzy prawie 4 tysiące złotych, a ja za jeden bajer i lekką przewagę nad AMD nie mam zamiaru przepłacać. Swojego Phenoma II kupiłem za ponad 5 stówek i podkręciłem jak chciałem. Tak, że KRETYNIE zanim coś powiesz to się 10 razy zastanów.
Nvidia mogłaby się pośpieszyć z wypuszczeniem nowych kart.Teraz Radeony nie mają żadnej konkurencji a to bardzo źle wpływa na ceny:)
transistor [ Level: 9 - Legionista ]: przed marcem nie da rady uzbierac sensownej ilosci dzialajacych chipow w magazynie, bo TSMC z projektu nvidii ma uzysk z wafla jakies 20%.. a wiec 4/5 produkcji to nie dzialajacy syf :)
Hriss zobacz przyjacielu kto zaczął. A ja nie dam się poniżać.
O bump mappingu też jeszcze niedawno mówiło się, że to zbędny bajer :)
A DX9 miał być ogromnym niewypałem (pff takie błyszczące powierzchnie i "fałdki" na ścianach, kto na to zwróci uwagę w trakcie grania) :P
Czemu oni nie pokazują tych prezentacji na pojedynczej karcie ?.Kogo obchodzi potrójne SLI z tymi kartami.Co oni myślą że ludzie na kasie spią.Panie weż pan pokaż produkt solo a nie wciskaj mi pan 3 kart do kompa i nawijaj jak niesamowicie nowa karta działa.Po drugie pokaż pan produkt który tego wymaga bo jak do tej pory niema chyba jeszcze takiej gry co by GF285 nie obsłużył na maxie,wiec na ch.. mi ten nowy badziew.
Ja jeszcze długo swojego sprzętu nie będę wymieniał bo po co wszystko ładnie mi śmiga a dx11 jak na razie 1 gra niby to wykorzystuje , co do filmików , niby spoko ale tak jak wielu poprzedników pisało jeszcze bardzo dużo czasu minie jak zobaczymy takie efekty w normalnych grach przy płynnym oglądaniu , popieram wypowiedz "Przemoman" producenci powinni bardziej poprawić fizykę , pamiętam dobrze jak wyszedł HL2 wtedy owa gra była czymś naprawdę rewolucyjny ale nie z powodu niesamowitej grafiki tylko z powodu niesamowitej fizyki i co najlepsze gra była naprawdę super dopracowana pamiętam to dobre jak odpaliłem ja na swoim starym złomie Duron 1,8 256 ramu i starym dobrym GeForce 4MX i choć owa karta nie obsługiwała DX9 ani nawet DX8, to do dzisiaj HL2 zapamiętałem jako nieziemski pokaz wykorzystania fizyki
Wszyscy tacy fan-boy'ie, kłócą się jak to te najnowsze karty się sprzedają. ATI lepsze, NVidia Lepsza bla bla bla...
A ciekawie ile osób z których tutaj tak komentuje to wszystko tak naprawdę je kupi w czasie ich wydania.
@brigand [ Level: 9 - Legionista ]: bo bump mapping jest zbedny.
to dopiero normal mapping zrobil te cala roznice w jakosci, bo zawiera wiecej informacji o cieniowaniu, niz zwykly bump.
Znajomy (doktor, w trakcie profesury - fizyk, pracuje w jednym z zespołów przy LHD*) - już od miesiąca ma FERMIEGO - w pierwszej kolejności to właśnie Naukowcy, Inżynierowie dostali sample do testów. W Polsce był jedną z pierwszych osób, które dostały poprzednika czyli TESLĘ. Jak dostał karty z Nvidii sam mu składałem kompa - widok porażający - 3 karty TESLA do złudzenia przypominające grafikę - spojrzenie na tył i DRAMAT brak łączy graficznych - po czym płacz, że tyle mocy marnuje się na jakieś oblicznie zamiast na porządne gry :) :) :)
Nie dziwię się, że NVidia "olewa" graczy - rynek przemysłowy jest DUŻO większy - obliczenia, obrazowanie - nie wiem, czy wiecie, że w sporej liczbie USG, Tomografów i reszcie takiego sprzetu pracuje TESLA i ma pracować FERMI. Karol pokazał mi najnowszej generacji detektor promieniowania, który pracuja na TESLI - wystarczy wymienić modół na FERMIEGO i zwiększamy moc obliczeniową. Do tego każdy kto chce mieć super komputer w domu nie musi już kupować koszmarnie drogich klastrów o dziesiątkach czy setkach procesorów - wystarczy 19 calowy rak i kilka modułów TESLA/FERMI. Dla Nvidii to żyła złota, już teraz rynek ten jest nie wiele mniejszy niż rynek kart graficznych i stale się szybko rozwija - dużo szybciej niż rynek kart graficznych.
Wg Karola FERMI jest od 10 do 100 razy szybszy od TESLI - MÓWIMY O OBLICZENIACH - więc nie wiadomo jak będzie z grafiką.
Ja spokojnie czekam - mam 2 x GTX280 - więc na ATI się na 100% nie przesiądę :) poczekam na noą kartę NVidii i porównam co szybsze - i kupię najszybszą.
Niestety o ile w grafice ATI walczy skutecznie z Nvidią to w kwestii obliczeń jest DALEKO w tyle, biblioteki CUDA są genialne, proste, darmowe, do tego masa ludzi z nich korzysta. AMD/ATI - czyli Stream dało poważnie ciała, błedy, niewygodne programowanie, cłość sprawia wrażenie zrobionego na odwal się - kiedy programowałem w Sreamie miałem ochotę rzucić myszą w monitor. Masakra. I co najgorsze ATI rupełnie OLAŁA pomoc techniczną - ZERO odzewu - tymczsem ku mojemu zdziwieniu Nvidia szybko odpowiadała na moje maile w sprawie CUDA.
@Miri [ Level: 36 - The Cat Warrior ]: wyciaganie argumentu o tym, ze karty ATi ustepuja nv pod wzgledem obliczen jest nie na miejscu.
Dlatego, ze ATi nigdy nie aspirowalo do rynku innego, niz rynek gier komputerowych.
Chodzi o to, że wielu NIE ROZUMIE - że dla Nvidii to rynek obliczeniowy staje się ważniejszy niż rynek kart graficznych. I nic dziwnego, że Nvidia nie spieszy się z grafikami i że w pierwszej kolejności dostarczają karty obliczeniowe. O to mi chodzi - rynek i ekonomia są nieubłagane.
Miri [68] co to są karty obliczeniowe?
(może zadaje głupie pytanie ale nie znam sie na tym)
@Miri [ Level: 36 - The Cat Warrior ]: wielu nie rozumie, bo nvidia nie daje tego jasno do zrozumienia. Sam mowisz, ze Fermi to bardziej obliczenia, niz grafika.. wiec po co sprzedaja to ludziom jako grafike do gier? Bo taki jest wlasnie marketing - Fermi to ma byc nowa konstrukcja dla graczy, nigdzie nie ma nic o zastosowaniu profesjonalnym.
Czyzby oszukiwali swoich wiernych klientow? Tak to wyglada.
Mi się wydaje ze na początku Nvidia myślała ze najnowszy układ będzie bardzie wspierał grafikę, ale jak się okazało ile maja strat przy produkcji i jakie wysokie są ich koszta , chyba nowy układ na początku będzie dostępny tylko do obliczeń
Wszystko fajnie tylko szkoda ,ze rozwoj grafiki w grach hamuja niestety konsole . Jedynie co odczujemy to masywny przyrost fps . Mamy sprzet a gry nadal wygladaja jak 5'cioletnia kupa :] .
Tak czy siak wlosy sa boskie :] . Jeszcze z 4 nowe generacje kart graficznych i skonczy sie uzywanie prostych meshy z textura wlosow :] .
woda - bardzo powolna animacja, plus jakość dużo gorsza od Crysisa...
Wlasciwie zastanawia mnie jak to dziala ze gry wizualnie wcale do przodu nie ida, do tej pory nic lepszego od Crysisa nie wyszlo, a jednak wymagania rosna.
draug_xiii - ponieważ producentom nie chce się tracić czasu na optymalizacje, tylko dokładają kolejne nowe efekty. Smutne.
juz DX 11 a ja jeszcze się na 10 nie przesiadłem
żal mi gry-online za ten gol sms...;/ żeby przeczytać nowy artykuł trzeba zapłacić 11 zł??? lubię ten portal ale sory..NIGDY!!