2319
banner.jpg\"
  • [HUN]FaTaL
    #158
    Amúgy én ezt nem hiszem de majd a tesztek megmondják:) Akkor is túl sokat fogyaszt és melegedő féltégla... Nehogy már egy videókártya többet egyen mint egy másik komplett konfig lol.
  • [HUN]FaTaL
    #157
    A GDDR3 vs GDDR5ről beszélek te idióta:D Megnézhetnéd mire válaszoltam...
  • zoolee
    #156
    Te mi a vérről beszélsz?!

    2-3 x lesz elméletieleg gyorsabb a GTX nél.
  • Solten
    #155
    ;)
  • [HUN]FaTaL
    #154
    OFF:

    kurvajó szmájli:DD
  • Solten
    #153
    Te az értelmes nvidia fanok közé tartozol, aki látja a fától az erdőt.

  • [HUN]FaTaL
    #152
    Arról nembeszélve hogy a GDDR3at is az általad annyira utál ATi fejlesztette ki, igaz az nvidia alkalmazta először az FX5950XT-n.
  • [HUN]FaTaL
    #151
    Semmi gyorsulás csak harmadakkora fogyasztás:)
  • zoolee
    #150
    Szép és jó "DE!" az a baj, hogy az atinak nincs pénze egy alsógatyára se, nemhogy egy komoly gammára, és ugye addíg az a nyerő aki több kesst tömköd a cégek zsebébe...
    Amúgy meg, hót fölös ez a gddr5, a 4 is az volt, semmi gyorsulás, csak a nagy szavak, aztán semmi.
    És amíg az Nv úgy érzi, hogy nemkell dx10.1 addíg az nem is kell.
    1 giga bőven jó, mivel manapság 1 re több ember oltja a népet ~20-30' os kukkerrel, és ahoz kell ám a memó.


    Minden karinak megvan a vásárló közönsége..
    Ezt a karit se a 15' os moncsin játszó, c2d2160-e6400 as procijú géptulajoknak
    találták ki.Azoknak ott a 9600 gt/8800gt/9600gtSLI...
  • [HUN]FaTaL
    #149
    kutyát nem érdekli ha az egész azonkívül hogy gyors egy rakás szar
  • Solten
    #148
  • Solten
    #147
    Leglényegtelenebb.
  • armageddon666
    #146
    nvidia párti vagyok, viszont most csúnyán nézek rájuk...

    512bit miatt drága lesz
    1giga szerintem fölös...

    remélem programozók előállnak végre valami DX10.1-es játékkal... akkor végre nVidia is rá lenne kényszerítve a fejlődésre... bár amíg a játékfejlesztők programjait többnyire lewarezolják, és a hardvergyártók pénzéből élnek meg, addig nvidia eléggé előnyben lesz... ami hogyha nem lenne drága nem is zavarna, most viszont nagoyn úgy néz ki hogy drága lesz, és tényleg nagy a fogyasztása... pedig a 8800gt meg 9600gt nagyon jó volt tőlük :S
  • zoolee
    #145
    Az kimaradt, hogy a leggyorsabb.
  • Solten
    #144
  • [HUN]FaTaL
    #143
    Ez egy drága, energiazabáló, melegedő, őskor (GDDR3, DX10) kártya lesz :(
  • Solten
    #142


    GTX 280
  • strebacom
    #141
    inkább igy!!
  • strebacom
    #140
    GTX 260 Graphics Demo *NEW AND REAL* NOT CRAP FAKES*

  • Solten
    #139




    B@szottnagy féltégla (v. inkább egész tégla).
  • [HUN]FaTaL
    #138
    Az hogy annyit fogyaszt hogy mindkettőre kell dugni kábelt:D
  • zoolee
    #137
    Alakul ez !:P
  • davidka003
    #136
    Ja az, hogy nem indul el.
  • Bircsike
    #135
    Miért van külön 6 és 8 pin-es csatlakozó is rajta? Van valami hátránya ha csak 6 pines dugunk rá?
  • [HUN]FaTaL
    #134
    147W persze:D A referencia meg 236. Szerintem ez kamu.
  • strebacom
    #133
    A fogyasztás lenne, idleben, film nézés alatt és 3D-ben!!
    Sztem kamu!!
  • armageddon666
    #132
    jóllátom hogy 3-way-SLI? kiváncsi lennék mennyit bír úgy :D meg a fogyasztására XD

    ez a táblázat mi?
  • strebacom
    #131
  • strebacom
    #130
    És beépítve (??!):





    Forrás: VR-Zone/HOC
  • strebacom
    #129
    Computex 2008: NVIDIA GeForce 280 GTX fotók












    Forrás: VR-Zone/HOC
  • armageddon666
    #128
    akkor most vedd szépen figyelembe hogy nagyon sok játék nemigen használja ki a 2 magják és akkor máris szopós szar eredmények lesznek... nomeg a driverproblémák, etc... ahol gyorsabb lesz ott persze hogy gyorsabb lesz... 2 magtól elvárja az ember :C
  • davidka003
    #127
    Nem az 50k-s kártyát kell a 100k-ssal hasonlítani.
    Mivel egy árban van ezért tökéletes az összehasonlításra.
    Majd ha megjelenik kíváncsi leszek, hogy melyik lesz a gyorsabb.
    ATI 2 magos, de ha ugyanannyi pénzért gyorsabb kártyát kapsz esetleg, akkor nem fog érdekelni, hogy hány magos csak az, hogy gyorsabb.
  • zoolee
    #126
    ahogy=ahhoz
  • zoolee
    #125
    De egy 2 magost egy 1 magossal ahogy már nagy cig.nyság kell!
  • davidka003
    #124
    Ja meg azért az X2-vel hasonlítom, mert a 4870 X2 is 650 dollár lesz, ugyanannyi, mint az Nvidia GTX 280 és azonos árú kártyákat illik összehasonlítani.
  • zoolee
    #123
    gt200B majd ősszel.
  • davidka003
    #122
    LOLLER. Megmondta az Nvidia, hogy nem lesz 280 GX2, mert az már 500W-ot fogyasztana egymaga és nincs olyan technológia amivel lelehetne hűteni.
    Víz hűtés is kevés lenne neki. Talán majd ha áttérnek 55nm-re akkor talán lenne esély megcsinálni.
  • davidka003
    #121
    Mit is akarsz pontosan mondani, mert nem értem a mondatodat?
  • zoolee
    #120
    Ki nem sz@rja le az x2-t? Senkit se érdekel!!! Az majd a 280 GX2 vel lesz versenyben...
    Hát ez mi a halál?
    2 magosat 1 magos ellen?Grat. Ennyi ésszel bakker..-.-
    Majd meglátjuk mit tud a hőn áhított 4870...
  • davidka003
    #119
    4870X2 kb dupla olyan gyors lesz, mint a 3870 X2 akkor a Geforce közelében lesz és mindezt a Geforce-ok árának a felén.