2319
banner.jpg\"
  • reaper4
    #198
    kung-fu panda szereplők :) hiába. jó a game :D
  • Solten
    #197
  • armageddon666
    #196
    Helyesbítés:

    Forrás: Paks ; Forrás2: Chernobyl
  • strebacom
    #195
    A képek alapján úgy tűnik, hogy a teszthez ForceWare 177.26-os Vista meghajtó programot használtak a srácok. Érdekes lett volna látni ennek fényében azt is, hogy egyetlen GTX 280-as kártya milyen teljesítményt tud felmutatni. Hogy az eredmények mennyire hitelesek, az már más kérdés, ám egy biztos: még néhány nap, és megérkeznek az első, hivatalos - és hiteles - tesztek is, akkor majd kiderül, hogy mire képesek az Nvidia új videokártyái. Addig is gyönyörködhetünk a fenti sajtófotókon látható "drágáságokban".

    Forrás:Ipon
  • strebacom
    #194

  • davidka003
    #193
    kösz, Death Note-ból Kira.
    link
  • Solten
    #192
    Jó az új logod Dévid.. Jingsaw v. miez?
  • davidka003
    #191
    LOL. FAKE.
  • kemencebalázs
    #190
  • strebacom
    #189
    A referenciamodelleken felül további négy-négy speciális GeForce GTX 280 és GTX 260 piacra dobását tervezi az EVGA...

  • kemencebalázs
    #188
    Az ASUS már kifüggesztette az 1 GB-os (DDR3) GTX 280-asának árcéduláját -- vagyis az erősebbik fivért --, melyet nem kevesebb, mint 575 euróért lehet előrendelni. Ez, akárhogy is számoljuk, kb. 142 000 forintot jelent, mely azért (nem is) picit több a vártnál.



    Forrás: TC Magazine/ HOC
  • Hecker007
    #187
    nah látom itt is jó dolgokról megy a vita, am 550-es táp jó hogy elég neki, de akkor még nincs mellette 3-4 merevlemez, 2dvd író, egy jobb hangkártya, meg stb amit sok ember még ráköt a gépre és onnan zabálja az áramot is
  • Solten
    #186
  • Abu85
    #185
    Ahogy elnézem a Site-okat a Geometry Shader problémákat, úgy oldották meg, hogy minden Streaming Shader processzor tartalmaz egy Cache-t (valszeg 48-64kB már elég), ahol az adatokat ideiglenesen el lehet tárolni. Erre utalnak a Local memory kulcsszóval... Így viszont a 12 TPC blokk kilőve, mert 10 TPC blokk-al is megvan bőven az 1400 milla tranyó. Elég pazarló ez az megvalósítás, mert gyakorlatilag harmincszor használtak fel egy viszonylag méretes gyorstárat, amit az R600 féle megoldásba elég egyszer beletenni. És az eredmény ugyanaz, sőt még az R600-nak mindig ott van az az előnye, hogy a tovább GS számításokhoz nem muszály ugyanazt a Shader processzort használnia, ami jobb párhuzamosságot teremt (bár ez gyakorlati teljesítményben annyira nem drasztikus különbség már, mint ami eddig volt GS oldalról).

    A másik kérdés, hogy mostantól kb. jónak mondható a GS sebesség Pipe megoldások esetén is. De mi lesz a régi G80 és G92-es karikkal, azok helyből beszarnak egy ilyen eljárástól. Vagy ez is a GT200-ra való áttérítés része.
  • Solten
    #184
    De jó a paksiaknak...
  • zoolee
    #183
    Segítek, éppen kábeleznek a környéken, van 2 dobnyi kábel, gyere lopjuk el.
  • armageddon666
    #182
    na bazz... köv szériától már félek :S asszem kezdem fektetni a kábelt paksig -.-
  • Abu85
    #181
    Ez semmi, a Beyond3D-an az a téma, hogy az egyik HW oldal tesztelője szerint a HD4850CF-ben gyorsabb a Crysis-ban, a GTX280-nál is. Lényegében az R700 simán el fogja verni és az ára is alacsonyabb.
    A Computex-en már beszéltek egy kariról amit az R700 ellen vetnek be. Valószínűleg a GT200 Ultra változata. A rendezvényen látni már három dedikált PCI-E csatival tápokat, szóval raálisan kihozható egy Ultra, ha nagyon muszály.
  • Abu85
    #180
    Nem kő neki 550W-os táp ... Egy GTX280-at még egy négymagos proci mellett is elbír egy 400W-os max. 450W-os FSP. Annyi a kikötés a GTX280-ra, hogy olyan táp kell neki aminek van egy 6-pin-es és egy 8-pin-es PCI-E csatija. Az átalakító pedig akkor jó csak, ha az aktuális az ágra már nem kötsz semmit. Egyéb esetben mindig piros LED-et ad a kari és nem indul be.
  • zoolee
    #179
    Bakker, már te is áttérték HC 3dmark játékossá?
  • grebber
    #178
    Prohardver hasonló fórumán tettek be linket majd később csak magát a táblázatot és hát nem igazán meggyőzőek az új nvidiák.

  • Solten
    #177
    veel = vele
  • Solten
    #176
    "Ahhoz, hogy egy GeForce GTX 280-as kártyát biztonságosan ellássunk árammal, a vélemények szerint legalább 550W-os tápegységben kell gondolkoznunk. A GeForce 9800 GX2-es esetében az ajánlott tápegység teljesítménye csak alig kisebb, mint a GTX 280-as esetében, pedig előbbi kártya összesen két darab G92-es GPU-val van felszerelve. Ha két- vagy háromutas SLI rendszerben gondolkodunk, akkor az 1 KW-os, illetve 1,2 KW körüli tápok között kell majd keresgélni.
    Úgy tűnik, hogy lassan kezdenek értelmet nyerni az 1 KW fölötti teljesítményt kínáló tápok is, ezekre pedig kissé kétkedve néztek eddig a felhasználók. Tény viszont az is, hogy két- vagy három darab GTX 280-at talán csak a hardcore játékosok kis része fog majd megvenni."


    Ha van olyan kretén aki megvesz 3 db-ot ebből a szörnyűségből úgy kell neki... Semmire nem megy veel. Támogatja majd kb 3 db játék.
  • armageddon666
    #175
    "direktbe kell bedugni a kártyát a 220ba"

    ezt már elsütöttem :p
  • Solten
    #174
  • [HUN]FaTaL
    #173
    Látom már nektek készül a következő szériás Geforce 3xx, ahol direktbe kell bedugni a kártyát a 220ba annyit fog fogyasztani mint egy hűtőszekrény de legalább 10%-al gyorsabb lesz a HD5870nel ami harmadannyit fog fogyasztani:D
  • Solten
    #172
    Oké!

  • zoolee
    #171
    MEnnyél hangyát számolni..-.-
    Sőt, vidd magaddal a sok kis haverod...
    Tudod, ilyen "Sok kicsi sokra megy... " alapon.
  • Solten
    #170
    Sok kicsi sokra megy...
  • gurubefree
    #169
  • zoolee
    #168
    Aki ilyet vesz az elhiheted, hogy nem 400 as kódgánnyal nyomul, meg havi 80 rongyos fizetésből él...
  • grebber
    #167
    "20kval drágább hozzá a táp"
    Hát aki az nvidia 100ezer fölötti dolgait akarja venni annak tuti lesz pénze tápra is.
    Direkt azért irtam 60ezret (mert én annál még ha millárdos lennék se adnék ki többet VGA-ra) mert ilyen értékű VGA-khoz beleértve a most érkező 4850 és 4870-et is 550Wattos táp elég.És nem kell venem újat mivel alapból az van a gépbe :D
  • czky
    #166
  • [HUN]FaTaL
    #165
    Nem, de az ugye érdekel hogy 20k-val drágább hozzá a táp is?:) És nem 500HUF hanem több^^ Meg a zaj és hőtermelés sem utolsó szempont. De akkor nézzétek csak az idióta teljesítményt:D
  • grebber
    #164
    Ez kurvajó mindenki ezzel a csicska fogyasztással van elfoglalva.
    Én kerek perec szarok bele mertha már 60 ezerért veszek VGA-t nem fogom nézni hogy most 500ft-al több a villanyszámla.
  • [HUN]FaTaL
    #163
    Fogyasztás ember, fogyasztás.
  • davidka003
    #162
    "Az ati hülyesége, hogy a magot, és a shadert szinkronban futtatják,"

    Már nem így van. Az új kártyákat már nem így gyártják. Külön lesz a mag órajel-shader órajel-memória órajel.
  • armageddon666
    #161
    Na itt a baj... hogy amíg nvidia úgy nem mondja addig nem lesz DX10.1... pedig milyen jó is lenne ha azt a nyamvadt élsimítást -50 helyett -2 FPS-ért be lehetne nyomni...

    GDDR5 meg kisebb fogyasztással, kisebb hőtermeléssel, nagyobb frekvencián ÉS OLCSÓBBAN annyit tud kb mint az 512bites GDDR3 amire jó hogy nem egy 230V-s csatlakozót raktak egyből és nem paksra kell kötni, az előállítási költségről nem is beszélve...
    ---
    amíg jó áron árul kártyát az nvidia, olyat ami jobban viszi a gémeket az atinál, addig nem érdekel hogy a kártya valójában rosszabb lenne ha a programozók normálisan írnák meg a programokat nem picit ide meg picit oda kedvezve, addig nem érdekel hogy valójában gagyibb... de mikor régi technológiákat erőltetik már nagyon, ilyen-olyan tuninggal, így növelve a gyártási költségeket, a hőtermelést és egyebeket, ezekkel együtt a bolti árat is... ilyenkor már nem tetszik az üzleti stratégiájuk :\
  • zoolee
    #160
    Ok, bocs, csak mert több dologról is szólt az a hsz.
  • zoolee
    #159
    Azt én letojom ki fejlesztette ki....
    A lényeg, hogy az nv használta először, és bevált, most is jól müxik, ha meg jól müxik, és megfelel a célra, ellátja a dolgát, akkor minek váltani?


    Teljesen jó a gddr3.
    Az ati hülyesége, hogy a magot, és a shadert szinkronban futtatják, és egyre "gyorsabb" ramokt raknak rá, ami ugye sz@rt se ér.
    Mert szép és jó, hogy gddr4, de mennyi gyorsulás érhető el vele? Órajelben, szinte semmi, szinte sehol nem látni ~1200-1300 as ramokat...
    És 1 helyett 0,8 ns ..Pff.szemkiszúrás.