2319
-
#158 Amúgy én ezt nem hiszem de majd a tesztek megmondják:) Akkor is túl sokat fogyaszt és melegedő féltégla... Nehogy már egy videókártya többet egyen mint egy másik komplett konfig lol. -
#157 A GDDR3 vs GDDR5ről beszélek te idióta:D Megnézhetnéd mire válaszoltam... -
zoolee #156 Te mi a vérről beszélsz?!
2-3 x lesz elméletieleg gyorsabb a GTX nél. -
#155 ;) -
#154 OFF:
kurvajó szmájli:DD -
#153 Te az értelmes nvidia fanok közé tartozol, aki látja a fától az erdőt.
-
#152 Arról nembeszélve hogy a GDDR3at is az általad annyira utál ATi fejlesztette ki, igaz az nvidia alkalmazta először az FX5950XT-n. -
#151 Semmi gyorsulás csak harmadakkora fogyasztás:) -
zoolee #150 Szép és jó "DE!" az a baj, hogy az atinak nincs pénze egy alsógatyára se, nemhogy egy komoly gammára, és ugye addíg az a nyerő aki több kesst tömköd a cégek zsebébe...
Amúgy meg, hót fölös ez a gddr5, a 4 is az volt, semmi gyorsulás, csak a nagy szavak, aztán semmi.
És amíg az Nv úgy érzi, hogy nemkell dx10.1 addíg az nem is kell.
1 giga bőven jó, mivel manapság 1 re több ember oltja a népet ~20-30' os kukkerrel, és ahoz kell ám a memó.
Minden karinak megvan a vásárló közönsége..
Ezt a karit se a 15' os moncsin játszó, c2d2160-e6400 as procijú géptulajoknak
találták ki.Azoknak ott a 9600 gt/8800gt/9600gtSLI... -
#149 kutyát nem érdekli ha az egész azonkívül hogy gyors egy rakás szar -
#148 -
#147 Leglényegtelenebb. -
#146 nvidia párti vagyok, viszont most csúnyán nézek rájuk...
512bit miatt drága lesz
1giga szerintem fölös...
remélem programozók előállnak végre valami DX10.1-es játékkal... akkor végre nVidia is rá lenne kényszerítve a fejlődésre... bár amíg a játékfejlesztők programjait többnyire lewarezolják, és a hardvergyártók pénzéből élnek meg, addig nvidia eléggé előnyben lesz... ami hogyha nem lenne drága nem is zavarna, most viszont nagoyn úgy néz ki hogy drága lesz, és tényleg nagy a fogyasztása... pedig a 8800gt meg 9600gt nagyon jó volt tőlük :S -
zoolee #145 Az kimaradt, hogy a leggyorsabb. -
#144 -
#143 Ez egy drága, energiazabáló, melegedő, őskor (GDDR3, DX10) kártya lesz :( -
#142
GTX 280 -
strebacom #141 inkább igy!! -
strebacom #140 GTX 260 Graphics Demo *NEW AND REAL* NOT CRAP FAKES*
-
#139
B@szottnagy féltégla (v. inkább egész tégla). -
#138 Az hogy annyit fogyaszt hogy mindkettőre kell dugni kábelt:D -
zoolee #137 Alakul ez !:P -
#136 Ja az, hogy nem indul el. -
Bircsike #135 Miért van külön 6 és 8 pin-es csatlakozó is rajta? Van valami hátránya ha csak 6 pines dugunk rá? -
#134 147W persze:D A referencia meg 236. Szerintem ez kamu. -
strebacom #133 A fogyasztás lenne, idleben, film nézés alatt és 3D-ben!!
Sztem kamu!! -
#132 jóllátom hogy 3-way-SLI? kiváncsi lennék mennyit bír úgy :D meg a fogyasztására XD
ez a táblázat mi? -
strebacom #131 -
strebacom #130 És beépítve (??!):
Forrás: VR-Zone/HOC -
strebacom #129 Computex 2008: NVIDIA GeForce 280 GTX fotók
Forrás: VR-Zone/HOC -
#128 akkor most vedd szépen figyelembe hogy nagyon sok játék nemigen használja ki a 2 magják és akkor máris szopós szar eredmények lesznek... nomeg a driverproblémák, etc... ahol gyorsabb lesz ott persze hogy gyorsabb lesz... 2 magtól elvárja az ember :C -
#127 Nem az 50k-s kártyát kell a 100k-ssal hasonlítani.
Mivel egy árban van ezért tökéletes az összehasonlításra.
Majd ha megjelenik kíváncsi leszek, hogy melyik lesz a gyorsabb.
ATI 2 magos, de ha ugyanannyi pénzért gyorsabb kártyát kapsz esetleg, akkor nem fog érdekelni, hogy hány magos csak az, hogy gyorsabb. -
zoolee #126 ahogy=ahhoz -
zoolee #125 De egy 2 magost egy 1 magossal ahogy már nagy cig.nyság kell! -
#124 Ja meg azért az X2-vel hasonlítom, mert a 4870 X2 is 650 dollár lesz, ugyanannyi, mint az Nvidia GTX 280 és azonos árú kártyákat illik összehasonlítani. -
zoolee #123 gt200B majd ősszel. -
#122 LOLLER. Megmondta az Nvidia, hogy nem lesz 280 GX2, mert az már 500W-ot fogyasztana egymaga és nincs olyan technológia amivel lelehetne hűteni.
Víz hűtés is kevés lenne neki. Talán majd ha áttérnek 55nm-re akkor talán lenne esély megcsinálni. -
#121 Mit is akarsz pontosan mondani, mert nem értem a mondatodat? -
zoolee #120 Ki nem sz@rja le az x2-t? Senkit se érdekel!!! Az majd a 280 GX2 vel lesz versenyben...
Hát ez mi a halál?
2 magosat 1 magos ellen?Grat. Ennyi ésszel bakker..-.-
Majd meglátjuk mit tud a hőn áhított 4870... -
#119 4870X2 kb dupla olyan gyors lesz, mint a 3870 X2 akkor a Geforce közelében lesz és mindezt a Geforce-ok árának a felén.