8009
Avagy az nVidia NV4X
-
#295 A részrehajlásról: Szerintem azoknak fordul meg először (általában reflexből) a fejükben, akik maguk is elfogultak ugyanabban a témában a másik oldallal szemben.
Engem például valami hihetetlenül nem érdekel, hogy ki csinálja a gyorsabb kártyát, azt veszem meg amelyik a jobb. Kezdtem 3Dfx Voodoo1-2, amikor kijött a Voodoo3, váltottam TNT1-2, aztán geforceok, majd jott az FX széria, akkor lett Ati 9500Pro, most 9800pro van. Elfogult lennék? Azt vettem ami jobb, nem vagyok saját magam ellensége és mivel egyik kártyát sem én gyártottam, sőt pénzt sem kapok, hogy használjam, így semmi érdekem nem fűződik egyikhez sem, csak a saját felhasználói érdekeim. Régen kinőttem már abból, hogy győzködjem magam (és másokat) egy esetlegesen rossz beruházás után, (tudva, hogy basszus mégsem ezt kellett volna venni) hogy az enyém a jobb.
Aki még ott tart azt (bizonyos kor felett) csak sajnálni tudom, mert egy kis agyatlan marketingzabáló fogyasztó lett (a szó rossz értelmében).
-
Borg #294 Ugyanígy gondolkodok én is.
Akkor ebben egyetértünk.
Éppen ezért irtam lentebb a reakciókat az nv pr anyagában megjelentekre, illetve az NV40-ről kiderült dolgokra. -
sniper #293 "A 9600 vs g4 dolog is biztosan nem tőlem származik, szóval..."
Nem is allitottam hogy toled jott, a "volt itt mar olyan hozzaszolo is"-ban nem latom hol szerepelsz.
Nekem nem veled van bajom (vagy barki massal), hanem a reszrehajlassal, akarkitol jon. En (es gondolom sokan masok is) azert jarok ide, hogy a gyartok PR rizsajatol mentes valodi infokat szerezzek olyanoktol, akik sajat borukon tapasztaltak hogy tenyleg azt tudja-e az adott cucc amit a gyarto allit. Namost ha itt is csak a PRt latom, akkor nem leszek okosabb. -
Borg #292 Én egyszer sem állítottam a 6800-ról, hogy ne lenne jó.
Valakivel összekeversz...
A 9600 vs g4 dolog is biztosan nem tőlem származik, szóval...
Azt sem irtam, hogy felesleges lenne a SM3.0, de ami tény az tény, jódarabig nem lesz szükség még rá.
Ami jó az jó, én nem is vitattam ezt. De ha vannak negatívumok azt is el kell fogadni. -
sniper #291 Itt nem arrol van szo hogy lesz vagy nem lesz. Hanem arrol hogy a DX9 kurvara fontos volt, mert azt csak az ATI tudta, igaz mostanaig semmi se tudta kihasznalni. A PS 3.0 meg "felesleges, minek az", mert az csak az Nvidia kartyajaban lesz (amikor bejelentettek, es ehhez a fikazas keszult, meg igy volt). Namost nehogymar attol fuggoen legyen valami jo vagy rossz, hogy azt a hazikedvenc vagy az osellenseg csinalja. Es ez csak 1 pelda, mert volt itt mar olyan hozzaszolo is, aki szerint egy mezei 9600 egy gf4et is alaz. Miert nem lehet elismerni vmirol akkor is hogy jo, ha (nemcsak) neked nem az van? -
Borg #290 Utólag is elnézést mindenkitől, akinek szúrná a szemét amit lejjebb OFF irtam.
De eddig tartott a türelmem az illetővel szemben.
A jövőben igykszem tisztántartani az ilyen jellegű témáktól a topicot (és a többit is). -
#289 Kösz az infót:) -
Borg #288 A B3D-sek is 450W táppal futtatták, és nekik elég volt.
Amúgy írják azt is, hogy van csipogó a kártyán, ami jelez ha elégtelen a tápellátása. Szóval a védelemről úgymond gondoskodtak. -
Borg #287 Ez csak azok számára problémás kérdés, akik egyből felültek annak a PLETYKÁNAK, miszerint az R420-ban nem lesz SM3.0.
Persze van rá minimális esély, hogy tényleg nem lesz, ami sajnálatos, de nem egetrengető hiány lenne. -
sniper #286 Nyilvanvalo. De a "DX9 vs PS 3.0" "problemat" azert gondolom te is eszrevetted. -
#285 A 9800XT elvileg 81W-ot eszik, a 6800Ultra 120W-ot.
Ami itt a probléma, az az, hogy a tápegységeknél nem úgy van, hogy összeadjuk az áramfelvételt, és ez legyen x watt, hanem bizonyos feszültségekre vonatkozólag van megadva, és ez van összeadva. Tehát ha megnézed a tápegységed oldalán a matricát, akkor a márkásabb tápoknál fel van sorolva, hogy mondjuk +5V a terhelés max. 2A, +12V esetén pedig 17A, és a többi. A gond az, hogy +12V-on most már egyre több eszköz vesz fel energiát, többek között újabban a molex csatikon át a videókártyák is. Az nVidia nem írhatja azt, hogy +12V-on mondjuk min. 20A-es terhelést vigyen a tápegység, mert nincs előírás, hogy ezt fel kell tünteni. Ehelyett azt írja, hogy min. 480W-os tápegységet ajánl, mert egy ilyen táp már valószinüleg bírni fogja ezt a terhelést.
Értelemszerűen ilyesmire pedig azért van szükség, mivel szeretnék valahogy védeni magukat az esetleges perek ellen, ha esetleg valaki ráköti egy noname 400W-os tápra a 6800Ultrát, és a táp elszáll, magával rántva az egész gépet...
Ilyenkor védekezhet azzal, hogy mekkora volt a táp? 400W? Akkor a felhasználó hibája. Valószinüleg a márkásabb 420 v. 450W-os tápok is elviszik majd amúgy a kártyát... -
Borg #284 Egyformán le lesz, amint tudunk valamit az R420-ról.
De addig nem igazán lehet EGYFORMÁN irni, remélem ezt belátod.
Most az NV40 amit ki lehet vesézni, csak épp egyeseknek nem tetszik, hogy negativumok is vannak az amúgy jó megoldásban. -
sniper #283 Nem. Az nvidia negativumait is ugyanugy le kell irni mint az ATIet. De egyforman! -
sniper #282 Nem is allitottam hogy te irtad. Csak az nem teccik hogy egy "nem ATI" kartyanak mindig a negativumait kell kiemelni, az ATInak meg mindig a pozitivumait. Ilyen volt korabban a PS + VS 3.0, ami ugye nem nagy szam, mert csak az Nvidiaban lesz, de persze a DX9 alatti teljesitmeny az nagyon szamitott, mert abban az ATI domborit, pedig epphogy csak megjelent 1 ilyen jatek. -
#280 20 wattal eszik többet mint a 9800XT. Én nem értek hozzá szal lehet hogy az a +20 nagyon sokat számít:P Csak azt nem értem hogy ha egy 9800XT-nek elég volt egy 350W táp akkor a 6800-nak miért kell 480? 350+20 az 370 nem? -
Borg #278 Erről van szó. De ha itt valaki is egyetlen negatívumát fel meri sorolni egy nvidia kártyának, máris atifan... -
Borg #276 Egyszerűen elegem van belőle, hogy miattad már nem az első topicban van ilyen vita.
Érdekes, soha egyetlen másik topichoz nem tudsz hozzátenni semmit, de ha kötözködni meg okosítani kell, rögtön itt vagy szítani.
Ez a topic nem fog a másikak sorsára jutni, hiába próbálkozol. -
#275 Milyen fikázás? Én azt mondom, hogy a jelenlegi teszteredményektől nem vagyok elszálva. Többet vártam, főleg olyan dolgok miatt, mint a 100W feletti energiafelvétel. Azt vártam, hogy tényleg megkérdőjelezhetettlen lesz a kártya. Ennyi.
Kissé csalódott vagyok. De ugyanígy csalódott leszek, ha az Ati Radeon X800 is kijön 100W-os energiaigénnyel és ehez hasonló teszteredményekkel... -
Borg #274 Te szerencsétlen, még azt sem birod felfogni mit mond a másik! Takarodj már innen, mert tényleg elgurul a gyógyszerem tőled.
Semmi mást nem tudsz, csak ócsárolni másokat, meg kiforgatni a mások számára egyértelmű mondatokat. Rajtad kivül mindenki más fel tudta fogni, hogy nem PS2.0-van a képen, csak valami butított szar. De persze te ezen lovagolsz azóta is, mert ennyit tudsz.
Ettől kezdve nekem sirhatsz hogy ki az admin meg ki nem, ugy penderitelek ki innen mint macskát szarni, aztán sirhatod el más topicban másoknak a hülyeségeidet. Eszem megáll rajtad. -
K.András #273 30-35 éves embereket akarsz itt kioktatni,miközben még semmit nem tettél le az életben az asztalra,ez a nevetséges. -
K.András #272 "Sem nvidia fan, sem atifan nem kell ide."
Akkor mit keresel itt?Milyen tényeket irsz te?Nincsen shader a képen?LOL
Atyaéág,borg szerintem te nem 81-ben születtél hanem 2001-ben... -
K.András #271 MEGALOL -
Borg #270 Szánalom power basszus, hogy itt még mindig egyesek ott tartanak hogy ki nvidia meg ki atifan... Ekkora lámer egy társaságot, hihetetlen.
Még amikor valaki azt irja, hogy milyen jó lett a 6800, még akkor is ezzel jönnek egyesek. Azt persze nem veszi észre egyik sem, hogy ő maga nem tud mást hajtogatni az nvidia a királyon kivül, míg a másik legalább tényeket sorol fel, még ha nem is pozitiv mindegyik az nvidiára nézve...
Az ember azt hinné, hogy legalább abból tanulna egy pár, ahogy korábban, más topicokban égett mint a rongy a hülyeségei miatt, de nem... itt megint folytatni kell igaz? Nyissatok fantopicot a gumiban, aztán lehet tobzódni ott. Aki nem birja elviselni a tényeket, az a továbbiakban ne jöjjön ide, köszi. Sem nvidia fan, sem atifan nem kell ide.
PS: Senki nem mondta, hogy szar lenne a 6800. Ezt kéne észrevenni... -
K.András #269 -
sniper #268 Nekem is 9800pro van most, de azert nem vagyok elszallva tole. Nem irtam ala a szamlval semmilyen ATI PR ugynoki szerzodest. Ami teny az teny, ne attol fuggjon mar hogy a "kis szeretett" vagy a "nagy satan" gyarto termekerol van-e szo. -
K.András #267 Mire vártál volna jobbat?Nincsen játék ami a 98XT-n ne futna el full felbontáson,erre az Nvidia meg rátett uj játékok esetében 200%-ot,mihez kéne még nagyobb teljesitmény,szvsz még Doom3-on is full grafikával fog rajta futni elképesztö sebességgel,hozzáteszem valszeg 98xt-n is full grafban fog futni...Mind1 mennyit csinál uj ati karesz,mert ezek az eredmények már olyanok amit nem lehet kihasználni, 3 év mulva majd esetleg... -
sniper #266 En meg annak hogy meg meg se jelent, de maris jon a fikazas az ATI fanoktol. Lehet hogy az x800 meg annyira siralmas lesz mint az nvidianak az fx, akkor mi lesz a magyarazat? Nem szamit se az fps, se semmi, csak a markanev? :) -
#265 Tiszta sor, vegyen mindenki Gf4Ti videókártyát - én egyenlőre azonban megmaradok a 9800XT-nél, mivel még AA és AF mellett is játszható FPS-t nyújt
Lehet köpdösni :))) -
#264 Jajj, akkor ki is az előitéletes emberke itt? :)))
Én, azért, mert nem tudok felhőtlenül örülni a GF6800 teszteredményeknek, látva, hogy messzire nem olyan vadállat, mint amit elvártam? -
sniper #263 Mondjuk bele lehetett volna meg venni a gf4-et, ami helyenkent (pl. NWN) meg a 9800prot is alazza (AA, AF nelkul termeszetesen), es akkor le lehetne vonni a konzekvenciat hogy a 9800pro szinte nem is jobb a gf4nel. :) -
#262 Legalábbis ha a 9800XT-t akarod összehasonlítani a 6800Ultrával, ami kb. olyan, mint a Gf4Ti4200 vs. 9700Pro tesztek anno...
A magam részéről az ilyen kijelentésekkel várok addig, amíg megjelennek a Radeon X800 teszteredmények, és utána nyilatkozok... -
#261 200%-ot? A Halo-ban valóban, de a TR:AoD-ben vagy a Lock-On-ban messze nincs ilyen durva előnye, és ez az, ami kicsit aggaszt... -
#260 András!
Hagyd te is az egészet, amíg nem pártatlan az admin, teljesen felesleges bármi érvet idírni!
Szal' az a jó fórum, topic,összehasonlítás, amelyik az Ati-t hozza ki pozitívan a többi kamu...
Anno mikor az oroszok bebizonyították, hogy az nv35 annyit nem tud mint a 9800 , minden ettől volt hangos! Most, hogy ugyanezek megemelik a kalapjukat a 6800 elött már kamu emberek... -
#259 Én is kiragadok, csak úgy találomra:
-
#258 Szinte vártam, hogy ezt írod!:D
Sima mezei user-ként aki ha vesz egy kártyát nem azzal kezd, hogy apró darabokra szedi, hanem megnézi az adott játéknál mit tud! Ez szoftveresen, vagy akár hogy csinálják, LÉNYEG a minőség!!!!
Egyébként nem az átlag a 25-30% hanem NEM Nvidiás játékoknál mutat ennyit.
Összegezve ha megnézem az eladási toplistát illetve az idei évi megjelenéseket , hamar levonva a konzekvenciákat hüje gyerek módjára rájövök, hogy az Nvidia jobb...
-
K.András #257 A DX8-as játékokban van csak kisebb elönye(idáig azt hajtogatta mindenki, hogy a DX9-számit),DX9-ben 200%-ot ver a 98Xt-re,asszem magáért beszél... -
#256 Eleddig ezt én se vitattam, de akkor meg ezeket az eredményeket kellene vitatni:
(csak kiragadott példák Cram linkjéből)
Ahol a 9800XT elmarad a 5950Ultrától, ott is max. 10%, míg máshol (lásd képek) meg kb. ugyanennyivel gyorsabb nála... -
sniper #255 Es? -
sniper #254 Na, azert az 5900 sorozat se olyan szar. D3D-ben valoban lassabb, de openglben meg forditva. -
#253 Ezt senki sem vitatta, csakhogy az R300 (9700) immár 2 éves...