35
-
dez #35 Szerintem nem az ASUS pakolja bele ezeket a cuccokba... -
Dinosaur #34 ASUS se annyi pixelt meg vertex-et rakott a 6800 GT-be mint amennyit más gyártó. -
dez #33 Ez persze csak az én véleményem, nem kell egyetérteni vele. -
dez #32 A Vavle-val 2 eset lehet: vagy tudott róla az ATI, hogy messze nem voltak még kész, vagy nem. Mindenesetre a Valve, és a híres főprogramozójuk szavahihetősége enyhén megkérdőjelezhető.
Tudom, hogy a shaderekben volt gyenge az FX, nem mondtam mást, csak azt, hogy 16 bites módban már általában (akkori játékokkal) elviselhető volt. És legtöbb esetben nem látszott a különbség (az akkori egyszerűbb shaderekkel), főleg nem annyira, mint az ATI mutogatta. (Korábban a FarCry-ban igazábol nem emiatt voltak a bugok.)
A csalásokat nem igazán követtem, de azt tapasztaltam, hogy az ATI-é volt kb. minden 2. lépés. És mintha ők kezdték volna valami játékkal, még jóval a 3Dmark előtt. Később persze kimagyarázták, hogy véletlen volt.
"kártyagyártó hibája kit érdekel"
Akkor meg nem tudom, minek vitázuk itt.
Az SM3.0-ban nem csak az esetleges sebességnövelés az érdekes. És az NV 6-os sorozat ezen kívül is tud 1-2 "apróságot", ami által néhány új effektet lehet megvalósítani (lásd FarCry 1.2). (ATI-n most ilyen csak egy eléggé erőforrásigényes, trükkös techdemóban látható.) És világosan megmondták, hogy azért mondtak le ezekről, hogy többet keressenek a mostani generáción. (De az is lehet, hogy ez is csak szöveg, és próbálkoztak, de akkor még nem ment nekik. Remélhetőleg a köv. gen. már tudni fogja ezeket. Mert ugye ha csak NV tudja, akkor nem sok játék fogja kihasználni.) -
acdc #31 Pontosan tudom milyen kategoriák vannak.
Arról,hogy a Valve késett mi köze az atinak persze adott kupont de arról nem ati tehetett.Doom is késett mégse nvidia tehet róla pedig ők nyomták a lét.Stalker is késik meg hosszasan lehetne sorolni de erről inkább játékfejlesztők tehetnek mintsem hardvergyártók.
(Persze lehet kész van csak megvárják ki tejel többet és arra optimalizálják)
Az fx pontosan a pixel és vertexshaderben volt gyenge.
Ati kezdte részletezhetted volna.Segítek 3dmark csalással kezdte nvidia.
kártyagyártó hibája kit érdekel.
Ha fogok egy 6800nvidia vagy ati csippet ráragasztom egy nyákra és odadom valakinek persze semmit nem csinál akkor nem nvidia vagy ati tehet
róla hanem én.
Arról nem tehetek nem láttad.Pl. volt egy terem tele gépekkel. valami 3d vagy rajzfilm studio szerű és azt mondta az nvidia elnöke,hogy ezt az egészet belesüritettük az fx csipbe és hasonlók..
Sm3.ról nem mondtam a mostani nvidiák rosszak sőt 600gt dicsértem is ez mégse 100000 és valszeg jobbak mint x700 szeria
Sm3-szerintem előny lehet még (de egy kicsit hadd kössek bele
"Ahogy az várható volt, az SM 3.0 nem javított a képminõségen, bármit is állítson az NVIDIA. Az, hogy a FarCry tapasztalatai más játékokban is megjelenik-e, idõvel megtudjuk.
"Az NVIDIA és a Crytek bebizonyította, hogy az SM 3.0 gyorsabb, mint az SM 2.0, dacára annak, hogy az ATi az utóbbi pár hónapban folyamatosan ennek az ellenkezõjét állította. A FarCry-tesztek többségében az NVIDIA kártyái képesek voltak legyõzni ATi-s versenytársaikat. Különösen a GeForce 6800 GT teljesítménye volt igazán meggyõzõ, ami $399 dolláros árát is tekintve komoly érv a közvetlen versenytárs X800 Pro-val szemben."
http://www.tomshardware.hu/graphic/04q3/040705/index.html
"A sebességnövekedést ugyanis okozhatta más is ? például, hogy az SM 3.0-s kódot direkt az NV4x architektúrára optimalizálták"
Mivel az nvidia kérte fel a crytek nevezetű céget,hogy csináljon az nvidiának egy techdemot ami szemlélteti a kártya képességeit és ez nagyon jól sikerült ezért mondta nekik csináljanak egy játékot és potovázik rendesen támogatás meg ubi soft stb..
"A sebességnövekedést ugyanis okozhatta más is ? például, hogy az SM 3.0-s kódot direkt az NV4x architektúrára optimalizálták"
nem én modom amúgy egyértelmű
de sm3 ténleg jól jöhet még. -
acdc #30 Nem a méretével volt a baj hanem az elviselhetetlen zajával.Ráadásul úgy volt indokulatlanul hangos és magas fogyasztású ,hogy a teljesítményt nem tükrözte.
Amúgy tudod mit legyen ez a leghangosabb hütő a világon de a világ jelenlegi leggyorsabb vga-jától valahogy jobban elmegy..
Nem tudom milyen iróniát kellene éreznem...Nem állítottam,hogy nem lenne jó jelen pillanatban az nvidia csk azt,hogy gusztustalan és hazudik amúgy az intelt is gusztustalannak tartom de a chipszettjével és procijával elégedett vagyok (nem a reaktorból való van)
Naiv? csaltak 3dmarkban tény,azt állította, hogy az ati driverei nem kapnak whql minősítést-én még nem talélkoztam olyan hivatalossal ami nem lenne az-hazudott nvidia igen tény,valamint azt is hogy
nem kompatibilis a PCI Express szabvánnyal-szintén nem tudok olyan ati pci express kártyától ami nem menne pci expresses lapban- hazudtak igen tény.Ráadásúl olyan piti hazugság és alaptalan rágalom(irigység) ami rövid időn belül ki is derült és nagy beégés volt-ennyit tudnak
Részemről befejeztem nem látom értelmét továbbra is gusztustalannak tartom az nvidiát valamint ati se szent. -
dez #29 "5600 közép 5800 felső
9500 közép 9700 felső"
Nem csak a három fő kategória létezik. Most nem szedegetem elő a belső felépítéseket, de a 9500 mindenképp erősebb, és a maga idején drágább is volt.
"Most 6600gt tartóm "jó vételnek" (attól még gusztustalanok)"
Látod, ez a "hívés". Az ATI-nak is vannak, voltak érdekes megmozdulásai. Most például a profit növelése érdekében lemondtak az SM3.0-ról, és miközben korábban ők is reklámozták, nekiálltak lényegtelennek beállítani. Korábban meg félrevezető képekkel "illusztrálták", hogy milyen rossz a 16 bites shader (mert abban elviselhetőbb shaderteljesítményt nyújtott az FX). Persze, tényleg nem volt túl jó az FX, de erre ők még rátettek egy lapáttal. Meg ez a Valve ügy... Úgy állították be, hogy már akkor megjelenik a játék, meg még jópár másik DX9-es játék, valójában már kint volt a köv. gen, mire tényleg megjelent (az meg szerintem egy nagy kamu, hogy azért csúszott, mert betörtek). És az akkori legkedveltebb játékok (nem = legújabbak) megfelelően futottak az FX-en is. Szóval ment a manipuláció szépen.
"Alaptalanok voltak és az nvidia kezdte utánna jött az ati azzal a különbséggel,hogy ő valóságot közölt"
Szerintem az ATI kezdte, mégpedig érdekes stílusban.
"Tv kimenet homályosabb ezt ugye nem mondtad komolyan"
Vazz, gyere el és nézd meg. Ez persze lehet a kártyagyártó hibája is, de az kit érdekel?
"reklám... látnod kellett volna a videot...csodálkoztam.hogy nem perelték be a fogyasztó megtévesztése miatt.."
Miről beszélsz?
"Amugy arról is csináltak filmet mikor a mérnökök kifigurázzák magukat a 6800 hütése miatt elég durva de legalább öszinte"
Azt láttam. Most az ATI is csinálhatna egy ilyet. Lásd #28. -
tehen_m #28 ati
Ja rosz csúnya nv..milyen hűtést rakrá...
VAlyon miért kell rá ekkora hűtő?
"de ugye nem baj.hogy anno ti 4200 ati 9500 egy árban volt és ugye 9500 dx9 stb....
Most 6600gt tartóm "jó vételnek" (attól még gusztustalanok)"
Nem érzed az iróniát abban amit leírsz...Most ugyan ezt a helyzet...csak most az nv az ugymond fejlettebb technológia.
"Alaptalanok voltak és az nvidia kezdte utánna jött az ati azzal a különbséggel,hogy ő valóságot közölt"
Ne légy naiv. -
acdc #27 Miről beszélsz?
"Meg még jó, hogy jóval gyorsabb a ATI 9500, mint az NV 5600, az első eggyel magasabb kategóriás kártya"
5600 közép 5800 felső
9500 közép 9700 felső
"Ne legyél már ennyire elvakult hívő"
mindig az általam vélt aktuális "legjobbat" veszem
de ugye nem baj.hogy anno ti 4200 ati 9500 egy árban volt és ugye 9500 dx9 stb....
Most 6600gt tartóm "jó vételnek" (attól még gusztustalanok)
"Azok a vádak nem voltak teljesen alaptalanok, és ATI is csinált már hecc-vád-kampányt"
Alaptalanok voltak és az nvidia kezdte utánna jött az ati azzal a különbséggel,hogy ő valóságot közölt
500wattos táp ne szószerint értsd tény,hogy jobban melegszik és többet fogyaszt
Tv kimenet homályosabb ezt ugye nem mondtad komolyan
reklám... látnod kellett volna a videot...csodálkoztam.hogy nem perelték be a fogyasztó megtévesztése miatt..
Amugy arról is csináltak filmet mikor a mérnökök kifigurázzák magukat a 6800 hütése miatt elég durva de legalább öszinte
-
Mice #26 másodjára is csökkentett igen:) -
dez #25 Juj, te hiszel a reklámszlogeneknek? Meg még jó, hogy jóval gyorsabb a ATI 9500, mint az NV 5600, az első eggyel magasabb kategóriás kártya. Tudod nem minden újabb kártya gyorsabb, mint a régebbiek. Esetleg hasonlítsd össze az árakat. 500W-os táp? Aha, az SLI-hez, mert máshoz nem. Egyébként enyhén több több tranzisztor van az nv-ben a 32-bites pixel shader, + most az SM3.0 miatt is. TV-kimenet? A mostani ATI-m TV-kimenete homályosabb, mint a kb. 4 éves NV-é volt. (Ja, a VGA kimenete is, meg túl színes is, mint amikor NV-n kicsit felnyomtam a Digital Vibrance-t, csak itt nem lehet állítani. Még szerencse, hogy már DVI-től megy.) Alaptalan vádak? Hát ahogy vesszük. Azok a vádak nem voltak teljesen alaptalanok, és ATI is csinált már hecc-vád-kampányt. Ne legyél már ennyire elvakult hívő. -
dez #24 Ha tuningolni akarod, ha nem, ugyanúgy, ahogy Inquisitor leírta.. :) -
acdc #23 Miért szerinted az mi mikor kijelenti az nvidia,hogy soha nem látott grafika stb... egy egész szupercomputerekből álló számítási teljesítményt süritettűnk bele az fx csipbe? visszapörgettem a filmet,hogy jól halottam-e mikor még a több mint egy évvel azelőtt kiadott ati 9500 is lealázta az 5600 ost pedig egy év sok idő...
Most is gagyik gyorsnak gyorsak de 20000 3dmark helyett kapjak 19500 de legalább nem kell 500wattos táp tv kimenetről ne is beszéljünk de mindegy ez személyes vélemény izlésel és pofonok de a lényeg hazudnak és csalnak 3d-be is és alaptalan vádakkal illette az atit mer nem ment a bolt.
-
#22 Nem tuningolni akarom hanem egy "amirenincsmagyarázat" hibát kijavítani..
Tehát a BIOSt hogyan írom át?? -
sghu #21 Tipikus, régen is baromságokat mondtál és ez azóta sem változott. -
Kalwa #20 Tipikus... az Nvidia mindig is gerinctelen volt - ez az FX korszakban volt a legnyílvánvalóbb - és mindig is az marad -
#19 jó hogy a Trio 3D kártyáknál ránézésre látszik hogy hány melyik típus ^.^ használjatok olyat.. -
Nyiri #18 En 9700-t vettem a haver is ugyanazt a tipust. Nekem a gepem 9700 Pro-nak ismeri fel a havere 9700-nak. Kicsereltuk a kartyat egymas gepebe es az ovebe is 9700 Pro az enyembe az ove 9700. Makom volt vagy csak valami bug. -
Inquisitor #17 Nem piszkálás képpen, de egy csomó szorit hallottam pont ilyen jó cseréről már :)
R9500 -> 9700 vagy 9700 -> 9700pro meg ilyesmikről. De tényleg ritka ... -
#16 Hát amikor a megvettük a videó kátyámat, elvileg GeForce 5600-ast akartunk venni az is volt a dobozon ,de 5600 SE volt benne :) (vagyis javított változat) -
TheZsenyka #15 Természetesen hibákat mindenhol elkövetnek, azért elgondolkodtató, hogy olyasmit sohasem hallani, hogy:
- 9800 helyett 9800PRO-t csomagoltak
- 3GHz helyett 3.2GHz-s P4-et pakoltak be
etc.
Szóval mindíg szarabb a cucc, sohasem jobb. Ez inkább tényleg arra mutat, hogy valamiféle szándékosság van a dologban. -
vvega #14 "toló-"
-
vvega #13 bazz tolomérővel mennyek kártyt venni???
:))
-
Inquisitor #12 Hát ez elég OFF téma egy GeForce topicban. Ált. normális gyártóktól leszedhető hivatalos, meg 1000 helyről nem hivatalos program, amivel cserélhető a Bios. Persze ha rossz Bios-t égetsz be vagy elszúrod közben, akkor volt egy kártyád.
(Mellékesen elmész a radeon.ru oldalra, és leszeded a RadEdit-et, azzal akár át is buherálhatod ...)
Amúgy tök értelmetlen, felteszel egy RivaTunert-t és azzal szépen ki/be kapcsolgathatod a Pipe-okat a 9500-ön vagy a GF6xxx kártyákon. Aztán vagy megy vagy nem.
-
irkab1rka #11 The Termentor: először tájékozódj, aztán tegyél be rasszista kijelentéseket, különben még lejáratod a rasszistákat :) muhahahahahaaa -
#10 Hogyan lehet a vidkari BIOSát átállítani (lehet h nekem is azt kéne!) pls!!
/Sapphire Radeon 9500 128MB/ -
dez #9 Ez a legvalószínűbb ok. Esetleg valahol valakik átflahelték a kártyát. Mellesleg könnyedén vissza lehet kapcsolni a letiltott egységeket. Akár a rendes bios visszatevésével, akár egy kis programocskával. Többnyire működni fog, mivel a GT-n nyilván megvan hozzá a megfelelő erősebb tápellátás és hűtés. -
The Termentor #8 de az is lehet hogy egy sarga veletlenul rossz gombot nyomott meg es ipp hopp lett egy rakas ilyen. 1000 meg 1000000 oka lehet nem???? -
Inquisitor #7 Ja merthogy a fenti butítások ugye fizikailag nem léteznek, csak szoftveresen van butítva az ólcsóbb kártya. Igaz ennek soxor az az oka, hogy nem funkciónál teljesértéküként a chip. -
Inquisitor #6 Na most ha hinni lehet a GigaByte védekezésének, akkor ez nem csalás, csak sok kártyába rossz Bios lett beégetve ... (vagy kamuznak?), de el tudom képzelni, hogy igaz. -
Keldor #5 ATI RuleZ
egyébként ennek tényleg semmi köze az NV-nek
a gyártó a problem... -
juhand #4 Amelyik gyártó benne volt a buliban, attól nem veszek többet cuccot. -
#3 Kérlek szépen, erről az nVIDIA nem tehet, hogy ki milyen kártyát épit az aktuálisan rendelt chipekből. Itt nem az NV a bűnös,hanem a kártya gyártó. -
#2 Ennyit az NVidia felkapaszkodásáról... és ehhez semmi köze az ATI-nak...
-----------------------------------------
.:i2k:. = IMYke2000 - @ - 2005 ® - Első számú honlap
.:i2k:. = IMYke2000 - @ - 2005 ® - Második számú honlap
----------------------------------------- -
Andris #1 Biztos a németek nyúlták le azt a 4 futószalagot a kártyáról