33
  • xardas231
    #33
    jha és ugy kb 60 rugoért
  • xardas231
    #32
    hoho asszem 2 év és jo eséllyel feltehetem netre:9600-as vidkari elado addig meg már csak használom....:P
  • Kissjuni
    #31
    Hál istennek egy ujabb vidkari 150.000 ért ... Ahogy megjelenik 2öt is veszek hogy SLIbe kössem ja de kell új alaplap is nem baj azt is veszek DDR3as memoriával együtt...

    Kösz inkább maradok a "lassu" Ati X1600 Pro nál...
  • BiroAndras
    #30
    "Ha 8800GTX van a gépben, meg egy P4EE, akkor a csúcsfogyasztás 300W környékén alakul, de ez a maximum, amit egy darab procival és egy darab videokártyával el lehet érni."

    Nekem a 400W-os Chieftec táp nem bírta a kiképzést. Igaz, van még a gépben 5 vinyó és egy TV-tuner, viszont P4EE helyett csak egy mezei X2 4200+ van benne, ami alig eszik valamit.

    "Eleve ez a dual-GPU megoldás a gyártónak nem nagyon éri meg, mivel nem kérhet érte annyit, mint két külön kártyáért, ugyanakkor a legyártása majdnem kétszer annyiba kerül (a tervezői munka költségéről nem is beszélve, ami kisebb szériára, kevesebb legyártott kártyára oszlik el)."

    Nem jól számolsz. A dual-GPU csak egy kevés plusz tervezést igényel, így azzal nincs gond. A gyártási költség viszont töredéke az eladási árnak, pont a magas tervezési költségek miatt. Tehát, ha tudnak elég GPU-t gyártani, akkor a dual-GPU megoldás ténylegesen nem sokkal drágább, mint a sima változat.

    "Végül pedig: ha egy 8800GTX fogyasztása 145 watt, akkor kettő együtt már majdnem 300 wattot disszipálna."

    Ez csak az első sorozatra igaz, ami 90nm-en készült. Az újabbakat 80-on gyártják, vagy akár 65-ön is, így a fogyasztás a töredékére csökkenhet, és jóval kisebb hűtés is elég.
  • dez
    #29
    Hát, így pl. el lehet adni az előírtnál alacsonyabb órajelet bíró példányokat. (Ti. a GX2-eseken alacsonyabb órajelen mennek, így a hő is kevesebb.) Meg állítólag az R600 jóval erősebb lesz, mint a 8800 (pedig már az sem gyenge), talán még a 8900 sem bír majd vele.
  • Tyberius
    #28
    Nyáron, amikor kint 35 fok van, akkor egyik gép mellé sem árt a klíma :)

    Egyébként kevesebbet fogyasztanak a gépek, mint sokan gondolnák. Egy átlaggép (K7,K8, Prescott vagy C2D procival és legfeljebb 7600GT szintű vidkártyával) fogyasztása a 200W-ot sem éri el, maxra terhelve. Ha 8800GTX van a gépben, meg egy P4EE, akkor a csúcsfogyasztás 300W környékén alakul, de ez a maximum, amit egy darab procival és egy darab videokártyával el lehet érni. Ergo egy kétprocis-kétvidkártyás csúcsgép (mondjuk egy AMD 4x4 platform, SLI-be kötött 8800GTX-szel) lehetne esetleg 600W környékén.

    Mellesleg szerintem ez a 8950 GX2 úgy kacsa, ahogy van.
    Eleve ez a dual-GPU megoldás a gyártónak nem nagyon éri meg, mivel nem kérhet érte annyit, mint két külön kártyáért, ugyanakkor a legyártása majdnem kétszer annyiba kerül (a tervezői munka költségéről nem is beszélve, ami kisebb szériára, kevesebb legyártott kártyára oszlik el). A 7950GX2-t is csak az hívta életre, hogy kellett valami, amivel lenyomhatják az AMD-ATi aktuális csúcskártyáját. Most viszont az nVidia ül a trónon, és a 8800GTX csak az első dobásuk volt ebből a szériából, ezen még tutira tudnak fejleszteni, tehát ha az ATi R600 át is veszi tőlük a jogart, később lesz mivel visszavágjanak (8900) - nincs arra szükség, hogy két GPU összepakolásával csináljanak csúcskártyát. Akinek kevés a 8800GTX, az vegyen még egyet, mondhatják.

    Ezenkívül azért is logikátlan lenne mostanában kidobni a 8950-et, mert ennél nagyobb típusszámot nem nagyon tudnak mondnai a 8000-es szériában, márpedig gyanítom, ők sem szeretnék idő előtt kifuttatni ezt a generációt.

    Végül pedig: ha egy 8800GTX fogyasztása 145 watt, akkor kettő együtt már majdnem 300 wattot disszipálna. Megnézném én, hogy ezt hogyan húznák ki a kártya/kártyák (mivel a 8800GTX-et elnézve kizárt, hogy egy nyáklapon elférjen két GPU) alól/közül, a bővítőslotnyi nyílásokon át.
  • Sanyix
    #27
    Nem hamarosan, hanem már :\ voltál már bix szerverteremben? :D na mondjuk az picit más :)
    De azért hallottam pár egyedülálló otthoni gépről is, ami mellé nemárt a klíma.
  • Sanyix
    #26
    Hát max kifigurázása, ugyanis nem poén :\
  • dez
    #25
    Nem kell fűtés? Hamarosan légkondi kell majd a gépek mellé! :)
  • dez
    #24
    Szó lehet 2 8900-ról is, és ma már eléggé alap a HDCP.
  • sathinel
    #23
    Lehet hogy tápegységekből is kihozzák az atomreaktorok kisebb fajtáját? Mennyit fog fogyasztani egy PC? 2 procis rendszer, 2 magos vidkarikkal?
  • sathinel
    #22
    Reméle lessz még egy másik cég is, és még nagyobb verseny lessz. Hát igen fűtésre valószínűleg nincs szükség abban a szobában ahol ilyen új gépek fognak működni:DDD
  • AgentKis
    #21
    Mivel felénk nem olcsó dolog villannyal fűteni, én megvárom a passzívhűtős verziókat...
  • Dodo55
    #20
    Amúgy a 8950GX2 név biztos?
    Csak mert ha 2 8800GTX-ről van szó, akkor 8800GX2 kéne, hogy legyen a neve.
    Egyrészt ez még G80, tehát 8800, és nem 8900.
    Másrészt a 7950GX2 nem azért 50, mert dual kártya, hanem mert HDCP chip van rajta, mint a 7950GT-n is. Meg volt olyan is, hogy 7900GX2, de azt csak OEM-be adták ki.
  • item
    #19
    Nem te erre vársz még mindíg : BlackHoleForce 98000 GX2
  • Sir Quno Jedi
    #18
    Én most 8800GTS 320mb-vel tolom, az x800pro-m után és nem rossz. Halk is, gyors is, melegszik is.
  • xuldar
    #17
    Esetleg egy új hűtőn nem gondolkodtál? Lehet olcsóbb lenne, mint egy új kártya, ráadásul ha meg vagy elégedve a mostanival, minek váltani?
  • huuu
    #16
    Valaki használja a vistát:)
    vicc
  • fourgee
    #15
    TV kimenetben az ATi a király :) Kipróbáltam még régen az 1000 éves 9100-as kártyámon, és ott nagyon szép volt a képe. Most 1900GT van, ennek még nem próbáltam. Valahogy azt figyeltem meg, hogy az ATi-nak általában szebb a képe monitoron is. Állítólag DX10-nél ilyen nem lehet, egyformának kell lenniük. Ha ez így lesz, akkor én is áttérek GeForce-ra, egy alascsonyabb fogyasztásúra. Szegény 1900GT-m terhelés alatt nagyon zúg. Annak utána sem mertem nézni, hogy mennyit fogyaszthat :)
  • Keldor
    #14
    Az aláírásod meg az évezred poénja:):/
  • Keldor
    #13
    Ez az évszázad poénja volt...
  • Sanyix
    #12
    Én meg Blackholeforce 85999 gtx8-ra :)
  • hapi
    #11
    Nagyon sokban fog ez nekünk kerülni hogy az ATI-AMD így töketlenkedik.
  • Sliders
    #10
    A 8950 GX2 mikor fog bemutatkozni előreláthatólag?
  • Inquisitor
    #9
    Mondjuk ehhez hozzátartozik, hogy a hír után pár órával kint volt az is, hogy késöbb jön a GF8300, 8500, 8600 sorozat, nem április 17-én. Valószinüleg az is csak májusban jön.
  • AnonyX
    #8
    Húú... fejlődik azért ez a videókari biznisz... Nekem egy kis Galaxy Geforce 7300GT-m van 128MB DDR3 all és nagyon megvagyok elégedve vele, szépen dolgozik, bár most sajnos úgy néz ki a TV-out bekrepált, igy viszem vissza gariba. De emegy a TV-out ot leszámítva minden tökéletes, játékokban szépen muzsikál. Tényleg Vista-ra tudtok valami progit ami nvidia kariknál a tv kimenetet konfigurálja? Csak mert ami a driverben van az elég szegényes, sőt nagyon.
  • scorpeeon
    #7
    1-2 hónapon belül tervezek új kártyát, remélem ezek mégjobban lenyomják az árakat addig. A 8600GT/GTS gyengének tűnik, sztem 8800GTS lesz 320 megával.
  • dez
    #6
    A 8950GX2 meg még drágább lesz.
  • gabeei
    #5
    Bocsánat, "1k $-os" akartam írni, csak szar ez a bill...
  • gabeei
    #4
    OMG, 1k é-os VGA, ki a f*szom fog olyat venni? Richie Rich-re meg nem kell(ene) piacot építeni...
  • dez
    #3
    "A legújabb hírek szerint az AMD-nek kisebb gondja támadt az olcsóbb Radeon változatok sorozatgyártásával" -- A legeslegújabb hírek szerint az Nvidiának is gondja akadt az új középkategóriával.
  • Dodo55
    #2
    Én meg majd egy 9800GTS-re, addig jó lesz a 7950GT :)
  • GVG
    #1
    szvsz majd egy nvidia 9600GT-re beújítok mikor kijön, addig meg "nem kell dx10, nem kell Vista";)