5388
Avagy az NV3X...
Ha netán törlödne a hozzászólásod, csak csekkold ezt: #1940
  • Borg
    #2257
    Röhej mi van külf. fórumokon:)
    Most már ott tartanak, hogy a hardOCPt kiközösitik a d3 hozzállása miatt, a microsoftot támadják, hogy hogy tud ilyen driverre WHQLt adni, valamint egy új dolgon is kezdenek mormogni, mégpedig azon, hogy mig az összes common benchmarkban 5900U vezet, addig az olyan tesztekben amik nem annyira elterjedtek (megkentek...), simán alázza a 9800PRO.

    Itt egy jó kis anekdota, b3d fórumon találtam az nvidia driver ciklusairól:) :

    nVidia: OK, let's do this driver performance hack to circumvent hardware issue...
    Initial Web Reviews: Looks good!
    Follow-up closer inspection: Hrm...Something isn't right
    Detailed analysis: Looks like nVidia is "doing this" shortcut, based on these tests...
    nVidia: OK, newer drivers...
    Initial web reviews: Looks good!
    Follow-up closer inspection: Hrm...Something isn't right.....


    (ugye egyre több programban jön elő, mennyire golden sample a detonator FX ugye, gta3 vc, 3dmark03 mother nature, bugok, IQ romlás, stb)

    Cvd kedvéért ideirom, ezt megint nem én találtam ki.
  • Borg
    #2256
    Uhum, akkor ugyanott vagyunk ahol a part szakad. Szerinted még mindig én vagyok a hibás azért, hogy az nvidia nincs túl rózsás helyzetben mostanában. HA NINCS POZITIV HIR RÓLA, NEM IS TUDOK POZITIVAT BERAKNI. Tudod? Ennnyire egyszerű. De egész nyugodtan tehetsz valamit te is a topicért, az örökös NULLA tartalmú kötözködésed helyett, ugye.

    Persze, most lehet jönni megint azzal, hogy nincs köze a valós játékokhoz, meg azzal, hogy nem adnak az eredményeire. Érdekes módon minden oldal használta a tesztjeihez, de MINDEZEK ellenére mégis CSAL BENNE AZ NVIDIA. Hiába próbálsz megint mellébeszélni, mitsem változtat a tényen, ami szóban van.

    Igen persze, 3.4es béta, csak úgy mint az összes béta driverek mindig elérhetőek bizonyos helyekről mielött megjelennek.
    Komolyan mondom, igencsak gyenge volt azt állitani hogy ATI adta a kezükbe a teszteléshez... Ennek ellenére, szerinted mivel kellett volna teszteljenek egy kártyát, amihez nincs driver support még? Ugyanis a cat3.2 nem támogatja a 256os radeon9800at még. Szal megint melléfogtál.

    Másrészt, magyarázd el nyugodtan, hogy miért is veszi ki carmack az összes render pathet a doom3ból, ha ennyire okos vagy. Kiváncsian várom, hogy az Ő nyilatkozatát hova ferdited el. Mert ezt sem én találtam ki, akármennyire is szereted igy beállitani a dolgokat.

    Igy utólag megjegyezném, hogy ha ELOLVASNÁD amit irtam, pont azért irtam a béta drivereket, mert MIND2 kártyát olyannal tesztelték. Ezt persze te rögtön elferditetted úgy, mintha azt állitottam volna, hogy csak ATI oldalról volt inkonzekvens a teszt.

    Abbahagyhatnád már végre a gebeszkedést, már csak saját magad miatt is. Vedd észre hogy a szemellenző nem ezen az oldalon van. Egyre gyengébb érvekkel próbálsz csak ferditeni azon amit beollózok ide, vedd észre hogy egyedül neked nem tiszta, hogy mi miről szól itt.
  • Cvd
    #2255
    "Szerinted a játékfejlesztők érdeke az, hogy minden plattformra, hardwerre külön kódot kell majd irjanak amikor megjelennek a játékokkal?" - Igen érdeke, és ez is van a gyakorlatban. Szinte minden játékot optimalizálnak a két lagnagyobb cég kártyáira. Csak az okát nem fogtad fel a dolognak. Te ott tartasz, hogy ez plusz munka, így nem érdeke a fejlesztőknek. De a dolog messzebbről indul. A fő cél a minnél nagyobb bevétel, amihez ugye az eladott példányokon keresztül vezet az út. De ahhoz hogy sokat adjanak el valamiből, ütős grafikával kell rendelkeznie, és rendesen kell futnia egy akkor átlagos gépen is. Ehhez pedig sokat besegít a legelterjedtebb típusokra optimalizálás. Nem különösebben nagy munka, főleg ha már menet közben is odafigyelnek rá. Arról már nem is beszélve, hogy az optimalizációval már fejlesztés közben is pénz folyhat be, hisz cserébe az nVidia (vagy kisebb arányban de az ATI is) támogatja pénzzel a fejlesztést.

    De ezt miért nekem kell leírni? Annyira alap dolog hogy magadtól is tudni kellene..
  • Cvd
    #2254
    "Right. Mivel nem irom le lépten nyomon a GeforceFXek erényeit, hanem (nem is tudom miért) mindig csak a gondok jönnek elő velük, ezért elvakult vagyok. Jó a logikád." - Kösz, a logikámmal sohasem volt gond. Megint csak felesleges akármit állítanod, aki olvass a fórumot az tudja mi a helyzet. Egyetlen pozitív hírt se szúrtál be még ide Nvidia oldalról, csak és kizárólag negatívakat. Illetve egy-két esetben nyomtál be pozitívat is, de azt még abban a hozzászólásban szétfikáztad. ATI oldalról még csak és kizárólag pozitívumokat szúrsz be ide (holott sokszor nem itt lenne a helyük). Neked csak fekete (nVidia) vagy fehér (ATI) létezik. Ez nem is baj egy gyereknél, de idővel illik kinőni. Nálad ez még várat magára.

    "A licensz jogról meg annyit, hogy az nvidia nem véletlenül nem kapott debugger verziót, szimplán azért, mert nem volt hajlandó részt venni a fejlesztési munkálatokban, vajonmiért ugye, (találgatás:) nincs ütős DX9 megoldásuk, igy jobb volt nekik ezen a téren nem belefolyni a dolgokba. " - Vagy meg rájöttek menet közben arra, amire mindenki más is a megjelenés után: Minimális köze van csak a tesztnek a valódi jelenlegi és a jövőbeni játékokhoz, így nem is tükrözi azok ilyenirányú teljesítményét, akkor meg minek pénzelni? A gyakorlat őket igazolta, sehol sem szokás igazán adni a 03 eredményére, sőt sok helyen egyáltalán nem is használják tesztelésre. Ez persze találgatás, de legalább tényeken alapszik, és nem állítom be az egészet tényként mint te a te verziódat.


    "Másrészt, az etech tesztjeiben egyátalán nem olyan rózsás az eredmény az 5900 javára, mint a BÉTA, BUGOS, KI NEM ADOTT, 3.4 DRIVERREL készült anandtech tesztben, AMIRE TE MÉG MINDIG MINDENT ALAPOZOL, UGYE." - Jól van, akkor az igazság: Addig ugye nem terjedt a figyelmed, hogy megnézd, a te drágalátos Etech-ed milyen driverrel próbálta az 5900-at? Ja hogy valszeg még egyáltalán nincs is hozzá rendes támogatás, hisz nincs a piacon? Így ugye be kell érni a jelenlegi legújabb Detonatorral, ami vagy kezeli NV35-ként, vagy csak NV30-ként. De még ezt se tudni, mert ugye az Etech meg el se árulta hogy mivel tesztelt. Tudva hogy hova húznak, egyáltalán nem lepődnék meg ha jópár hónapos drivert használtak volna. Namost akkor 1-1. Másrészt a Cat3.4-et az ATI adta önként, tudva hogy teszteléshez kell. Az Anandtech csak használta amit kapott. Akkor itt az ideje hogy fikázd az ATI-t, amiért béta driverekkel tesztelteti a kártyáját... Újabb gratula neked.:) Habár ezek után nyilvánvaló, hogy még meg se nézted ezt a két tesztet se rendesen, hisz akkor mindkét dologról tudnál. Ezeket én tudom, és szerinted az én tapasztalatom nulla. Akkor logikus következtetés hogy te minuszban vagy keményen...
  • Borg
    #2252
    Másrészt, egyre több külföldi fórumban kezd előjönni, hogy más téren is problémák vannak az nvidia lebegőpontos felületkezelésével.
    Valamint kiderült, hogy még csak MRT (Multi RenderTarget) támogatás sincsen.
  • Borg
    #2251
    Gondolkozz picit.
    Szerinted a játékfejlesztők érdeke az, hogy minden plattformra, hardwerre külön kódot kell majd irjanak amikor megjelennek a játékokkal?
    Ezt nem gondolhatod komolyan.

    Az egyedüli, akiknek NEM érdeke a standardizálás (tehát az ARB2), az a hardware gyártó, mert igy többet húzhat le egyes új játékok és kártyák kapcsán. Lásd NV-EA szövetség.

    Ideje lenne kicsit gondolkodnod is, mielőtt automatukusan engem kezdesz lehurrogni, ugye.
  • Cvd
    #2250
    Ez igaz lenne, ha CSAK NV30 kóddal kellene futnia minden jövőben érkező kártyának választási lehetőség nélkül. De miért kellene? Nincs ott az ARB2? Akkor miért ne futhatna azzal pl. az NV40? Vagy miért nem lehet majd az esetleges NV40 optimalizációt egy későbbi patchba belenyomni? Ne haragudj, de megint nevetséges dolgot írtál, ami abszolút szembemegy a gyakorlattal. Ha az lenne amit te írsz, akkor egyetlen játékot se optimalizálnának egyetlen kártyára se, hisz egy év múlva majd új kártyákkal fogják futtatni. De ugye a megjelenésekor nem a jövőben megjelenő kártyákon kell majd szépen futnia, hanem azon is ami épp aktuális. Ehhez pedig sokat segít az optimalizáció.
  • Borg
    #2249

    Bocs, ezt nem hagyhattam ki :D
  • Borg
    #2248
    Right. Mivel nem irom le lépten nyomon a GeforceFXek erényeit, hanem (nem is tudom miért) mindig csak a gondok jönnek elő velük, ezért elvakult vagyok. Jó a logikád.

    3dmark03: Én nem szaladtam át semmin. Beidéztem ami a botrány tárgya. Azt remélem még te sem feltételezed (ennyit kinézek belőled), hogy mindezt driver bug okozná. Ennyit leszögezhetünk asszem, hogy akármilyen elven is, de célzott csalásról van szó.
    A másik meg, hogy arra is oda van leirva a magyarázad, hogy miért van sky, és háttér a tesztekben, ha jól emléxem úgy magyarázzák, hogy azokat a scene előre rendereli le, utána az objektumokat.

    A licensz jogról meg annyit, hogy az nvidia nem véletlenül nem kapott debugger verziót, szimplán azért, mert nem volt hajlandó részt venni a fejlesztési munkálatokban, vajonmiért ugye, (találgatás:) nincs ütős DX9 megoldásuk, igy jobb volt nekik ezen a téren nem belefolyni a dolgokba. Cserébe inkább elhitették a néppel, hogy emiatt nincs fogalmuk a 3dmark működéséről, igy senki nem feltételezné róluk a csalást (!), nem beszélve arról, hogy még mindig ott a fekete doboz módszer, amivel forrás hiján is megcsinálhatták a csalást a 03hoz. EZ UGYANÚGY LEHETSÉGES, mint a te verziód.

    Másrészt, az etech tesztjeiben egyátalán nem olyan rózsás az eredmény az 5900 javára, mint a BÉTA, BUGOS, KI NEM ADOTT, 3.4 DRIVERREL készült anandtech tesztben, AMIRE TE MÉG MINDIG MINDENT ALAPOZOL, UGYE.

    Magyarán még mindig NULLA összehasonlitási alapod van, amire fel kijelenthetnéd, hogy a játékokban gyorsabb akár csak 1FPSel is az 5900.
    Mert e felett ugye szép csendben esliklottál, holott te magad hivtad fel a driverekre a figyelmet.
  • Cvd
    #2247
    Onnan ered a probléma nálad, hogy elvakult ATI-sként (Hhangsúly az elvakulton. A többiek "csak" ATI-sok, de elismerik a másik oldal erényeit is, ami az egészséges) egyértelműen ATI-s oldalak írásait veszed ténynek, míg a feddhetetlen és független (meg persze az nVidiás) oldalak már szerinted mind hazudnak, ha nem azt írják amit te hallani akarsz. Így adsz te az Extremetech-re is. Holott az kilóg a sorból, de még ott sem jelentik ki (ellentétben veled), hogy az NV35 gagyi, és csalással veri meg a 9800-at, miközben sokkal gyengébb.
    3Dmark03: Lehet hogy tényleg csalni akart az nVidia. De azok is hazudnak, akik felhozzák a dolgot, mert az általuk előadott dolog nem működne. Mondjuk te is átszaladtál azon a két dolgon, hogy miért éppen most jöttek elő vele, másrészt honnan is erednek a képek. Nem is lepődtem meg ezen, nincs rá válaszod. A két oldal is össze-vissza beszél. Egyszer azt állítja, hogy nem mindig törli a memóriát, meg csak azt számolja ki ami látszik. pl. a B. o. Proxiron teszt elején (amig a katonák vannak a képen a liftben) kilépve az űrbe látni az oda nem tartozó szemetet. No ez indokolná az első állításukat, viszont cáfolja a másodikat, hisz ha ki se számolná, akkor miért látszik mégis az űr? Meg egyáltalán honnan jelentik ki ilyen biztosan a dolgot, ha egyszer a driverbe nem tudnak belenézni forráskód híjján? Több estete nem is írok. Talán még csak annyit (másodszor), hogy az nVidiának nincs a birtokában a tesztverzió, elletétben pl. az ATI-val, így nem is tudják kivizsgálni a dolgot, és kideríteni a problémát. Így az is lehetséges, hogy eleve összejátszott az ATI és a Futuremark, szándékosan előkészítve a csapdát, és az nVidia abszolúte ártatlan. Az ATI sem szent (kapták már őket is csaláson), és hatalmas pénzekről van szó. Meg illett volna időt adni az nVidiának hogy valamiféle magyarázatot adjon. Persze a nagylelkű Etech felkereste őket a magyarázatért, csak a mocsok nVidia nem szólt rá semmit - habár erre talán egy napot ha vártak. Érdekes. Mindenesetre nem a 3Dmarkkal játszunk, és játékokban elég jól teljesít az NV35.

    "PS: tetszett a visszavonuló amit fújtál, látom kimerültek az érveid:) Leromboltam a bástyáidat 3 hozzászólás alatt, bocsi..." - Ezeken mindig jót nevetek.:) Ugyan idézd már hogy hol fújtam én visszavonulót, vagy mit romboltál te le, mert én nem találom. Van itt még valaki, aki megtalálta Borg-on kívül?
  • Borg
    #2246
    Kínodban már nem tudtál mit reagálni, mi?:)
  • Borg
    #2244
    "Es? Megfelel az FX a DX9 specifikacionak? (indokold!)

    "Ráadásul a Parhelia "csak" DX8 kártya, nem is kéne tudnia ..."
    Akkor vegyel Parhelia-t! Es elvezd a HDM szepsegeit abban a 2 techdemoban ami hasznalja. Ugy fog jarni a Matrox ezzel a HDM-el, mint annak idejen a EMBM-el. Evekig ment a rongyrazas hogy hu de szuper meg hu de jo, de a kutya se hasznalta. Manapsag viszont szinte mindegyeik chip tudja. A Matrox tul kis ceg ahhoz, hogy egyedul el tudjon terjeszteni valamit, meg ha az nagyon innovativ is."


    Konkrétan ezt reagáltad a HDM elterjedésére. Szal pssszt.
  • Borg
    #2243
    Ez viccnek jó volt, ja:)
  • Borg
    #2239
    Egyszerű a dolog.
    Képzelj el egy autókereket. Bump mappal az kerék palástja max úgy néz ki mintha mintás lenne, de ha pl már oldalról nézed a kereket, nem látsz át a mintákon...
    Ugyanez DM-el úgy működik, hogy van egy plusz textúra a kerékhez, egy ún. HeightMap, ami egy szürkeárnyalatos kép. Ezt ráfeszitik a kerékre, és az árnyalatoknak megfelelően átvariálja a test felszinének "magasságát", domborzatát, igy valós barázdák jönnek létre a keréken.
  • RelakS
    #2238
    "amikor elkezd felgyűrődni a talaj Freeman alatt. "
    Hrönyf?!?
    Megszerzem valahonnan.

    Mindenesetre valsz a 3dsmax-ból volt ismerős.
  • RelakS
    #2236
    hirtelen nem esik le, hogy mi ez. A textúra olyan hatást kelt, mint a bump, csak itt valódi a kiemelkedés?
  • ollie
    #2234
    Ez gáz...
    http://prohardver.hu/rios2_hir.php?id=3250
  • Borg
    #2233
    gyk: Ez az amit WHQLnek akar kiadni az nVidia.. csak emiatt van fókuszban...
  • Borg
    #2232
    nvnews:
    "Anton also mentions that the 44.03 drivers do not support floating point textures, floating point cubemaps nor floating point volumetric textures."

    Ennyit az ETALON nvidia driverekről... fasza DX9 kártya, csak épp a driver nem használja ki, vajonmér...
  • Borg
    #2231
    Nem villognék má a helyedben vele, ha ennyire fogalmad sincs a témáról...
  • Laalee
    #2230
    Sok vásárló csalódhat a GeForce FX 5900 Value típusú videokártyák megvásárlása után.

    Május 12-én az E3 kiállításon, Los Angeles-ben mutatta be többek között a GeForce FX 5900 Value grafikus kártyát is az nVidia. E modell júliustól lesz kapható körülbelül 300 euróért, ám nem árt megnézni, hogy mit kapunk a pénzünkért. Érdekes dolgok derültek ki az nVidia Németország nemrégiben tartott sajtótájékoztatóján.

    A PNY Technologies cég szerint - amely az nVidia partnere - ugyanis létezik egy 256-bites és egy 128-bites memória-interfésszel ellátott GeForce FX 5900 Value változat is! Utóbbi olcsóbb kártyák előállítását teszi lehetővé, végső soron a felhasználók kárára. Mivel az nVidia nem kötötte le, hogy mennyi lehet egy FX 5900 Value grafikus magjának és DDR-RAM-jának az órajele, ezért egyedül a partner gyártóktól függ, milyen órajelen is fut az általuk piacra dobott termék.

    A PNY Technologies szerint még akár az is előfordulhat, hogy egy GeForce FX 5900 Value videokártya rosszabbul teljesít és lassabb lesz, mint egy GeForce FX 5600 Ultra! Ráadásul az FX 5600 Ultra szintén körülbelül 300 euróba kerül majd, így az a paradox helyzet áll elő, hogy az nVidia cég két termékének nem csak a konkurens ATI kártyáival, hanem egymással is versenyezniük kell.

    A PNY Technologies a GeForce FX 5900 Value videokártyákat elsősorban az OEM-piacra szánja. Kérdéses azonban, hogy hány vállalat fogja felvilágosítani az újabb "bakiról" a felhasználókat. A válasz legkésőbb júliusban, az FX 5900 Value kártyák piacra kerülésekor és az első tesztek megjelenésekor fog kiderülni.
  • Borg
    #2226
    PS: Az ARB2 azért mint egyetlen marad benne, hogy a későbbi kompatibilitás meglegyen az új kártyákkal, VPUkkal.
    Ha render pathek lennének benne, akkor az új kártyáknak nem jelenne meg a valós potenciálja, hiszen pl az NV40nek majd az NV30 render pathet kéne emulálnia.
    Ezért egységesit a SZABVÁNYOS openGL2.0 ARB2-re carmack.
  • Borg
    #2225
    tisztázzunk már 1 dolgot. Mire alapozod te azt, hogy az 5900U gyorsabb mint a 9800PRO? Az nvidiás tomshardware tesztre, vagy a 3.4-es KI NEM ADOTT, BÉTA driverrel készült anandtechesre?
    Mert jelen állapotában nem helytálló az összehasonlitás akkor.
    Éppen ezért tettem be neked az extremeteches tesztet is, mert abban a játéktesztekben is másképp néz ki a végeredmény. Magyrán: Kurvára nem egyértelmű jelen tesztek egyike alapján sem, hogy melyik kártya jobb, mert egy nvidiás, másik béta bugos driverekkel tesztelt, a harmadik nem konzekvens doom3-ban tesztelt, a negyedikre meg persze rögtön ráfogtad hogy ATI párti.
    Szal cool down szerintem.
    3dmark03: EGYÉRTELMŰ (max neked nem), hogy ezt sem optimalizáció, sem driverbug nem okozhatja. Ilyen célirányos clippinget, bufferek nem törlését, csak célzott csalás okozhat. Gondolj csak bele, meglehetősen érdekesen hatna ilyen elven működés egy FPS játékban mondjuk, ahol folyton változik a nézet...
    Ezt a kutya nem mossa le róluk, hogy célzott csalás.

    DOOM3: Az ARB2, az, ami véglegesen benne marad a doom3ban, és azzal fogja futtatni minden kártya (openGL2.0 +FP shaderek, stb). A pont annyi, hogy mig az R300 path már nincs benne, carmack elmondása szerint az NV30 path még benne van, mivel az van a gépében jelenleg, és azzal tesztel csomó dolgot. EZÉRT nem konzekvens a teszt, mert az FX-ek az NV30 render pathet használják, mig az ATIk már az ARB2t. Ezért nem ér fabatkát sem a hardOCP tesztje.

    Másrészt, nézztétek meg, micsoda mutogatás megy a hardOCP részéről pár napja, mióta megtámadták a doom3 tesztjeit, rögtön azzal vádol több oldalt is, hogy csak azér szólnak bele, mert ők nem kaptak doom3 jogot. Tisztán és egyértelműen kikövetkeztethető kitől is kapja az utóbbi időben a lét a hardOCP.

    PS: tetszett a visszavonuló amit fújtál, látom kimerültek az érveid:) Leromboltam a bástyáidat 3 hozzászólás alatt, bocsi...
  • RelakS
    #2224
    Igen, van optimalizáció, felesleg eldobása, stb... De itt arról van szó, hogy előre meg van, mit fog eldobni, nem a tényleges renerkor számítja, így ha letérsz a kijelölt útról, a klipping (deranda) nem fog módosulni, innen a hiányos képek
  • Cvd
    #2223
    "Mondván, mind2 kártyának ARB2vel kellett volna futniuk, ahhoz hogy összehasonlitható eredmény szülessen, csak éppen erre még a doom3 motor nem képes, a korai stádiuma miatt." - Az ARB2 kártyafüggetlen API. Hogy is van az, hogy csak ATI kártyákkal megy, de azokkal tökéletesen? Most akkor kész van vagy nem? Nem hinném hogy korai verziójú a motor, amikor már hónapok óta csak finomítják meg optimalizálják..

    Való igaz hogy Carmack azt mondta, nem lesz kártyaspecifikus kód a Doom3-ban. De ezzel várjuk meg a megjelenést. Mert ugye azt is mondta, hogy nem terveznek konzolverziót, aztán mégiscsak lesz XBOX-on. Ebből egyébként két dolog következik:
    - Nem szabad levonni következtetéseket a végleges Doom3 sebességéről 5900 és 9800 viszonylatában. A tesztben a 9800-as csak 128 megával volt kénytelen dolgozni tekintve hogy a Cat3.2 nem kezeli a teljes 256-ot. Így a 9800 gyorsabb lesz a végleges verzióval. Az 5900 lassabb, ha tényleg kiherélik a támogatását. A lényeg viszont látszott: Mindkét kártya bőven elég lesz hozzá egy 2-2,5Ghz-s procival meg fél giga rammal.
    - Szabad viszont következtetéseket levonni a jövő játékairól, ugyanis a Doom3-ban használatos technikák széles körben el fognak terjedni, és máshol benne lesz az FX-optimalizáció. Egyébként butaságnak tartom a Doom3-ból is kivágni, ha már egyszer megvan, ezzel lassítva a játékot. Független fejlesztőként teljesen logikátlan, értelme csak akkor van, ha az ATI pénzelné a dolgot, de ez se valószínű, mert Carmack-nak nem szokása lefeküdni senkinek.
  • Cvd
    #2222
    Nem kell ferdíteni rajta, elég értelmezni a dolgot:
    Először is vala ugye maga a 3DMark03, meg az itt megerősödött ATI-Futuremark kapcsolat, plusz felerősödött nVidia utálat e kettő részéről. Ez megnyilvánul abban is, hogy éveken át tökéletesen mentek a 3DMarkok nVidia kártyákon, a 03 megjelenése óta meg mást se hallani csak hogy csalás, bug, satöbbi nVidia oldalról. Aztán amikor az NV35 odaver az 9800-nak, akkor hirtelen előkerül egy teszt, ami állítólag lebuktat egy hatalmas csalást az nVidia részéről. Ez ugye a legújabb DetonatorFX "csalása", csak épp elszóltál magukat: már a 43.00-ás drivernél észrevették a dolgot, de csak most jöttek elő vele. Miért is? Mert most kell gyorsan kitalálni valamit amivel le lehet húzni az NV35-öt? Namost pár tény:
    - Van egy leírás a beyond3d-n és az extremetech-en. (Kis kiegészítés: az utóbbit szokták ExtremeATI-nak is becézni, ugyanis köztudott a "jó kapcsolat" az ATI és közöttük). Mindkét oldal saját képekkel bizonyítja az igazát. Csak épp ugyanazok a képek vannak fent mindkét honlapon mint "saját készítés". Itt már valaki mindenképpen hazudik. Vagy lehet hogy mindkettő, és a képeket kapták valahonnan?
    - Milyen érdekes, hogy egy-két tesztlabornak van tesztelői 3DMark-ja, míg az nVidia nem kapott ilyet, és a tesztoldalak legtöbbje sem. Így pl. az nVidia kénytelen lesz képek alapján totózni, valyon mivel lehet gond - már ha egyáltalán foglalkozik a dologgal.

    De ennyit erről, mert van itt még valami, ami feleslegessé teszi ezt az egészet:
    Az a bajuk a tesztoldalaknak jelen esetben, hogy szerintük csalás az, hogy nem dologzik meg az FX olyan részekkel, amik nem látszanak a kész képen. Ez bukik ki akkor, amikor más kameraállásból nézik meg a scene-t. Node könyörgöm, évek óta találnak ki technkikákat arra, hogy hogyan lehet a nem látszó dolgokat kiszűrni, hogy gyorsítsák a feldolgozást. Ez pont ugyanez. És tudod mit? Amíg a kész frame tökéletes, addig csinálják is, hisz ettől gyorsul a feldolgozás. Hol van az leírva, hogy köteles a kártya a nem látható dolgokat is kiszámolni? Azonfelül az 5900 nemcsak 03 alatt, hanem szinte minden egyes játék alatt odaver a 9800-nak. Akkor minden egyes játékhoz külön összedobták a saját csalást? Nem érdekes ez egy kicsit?
    Már tényleg csak az hiányzik, hogy ráfogják az NV35-re: Azért csal, mert gyorsabb memóriát használ, meg megasabb órajelen megy a core...

    Szóval még ha igaz is amit itt leírnak, akkor se nevezném csalásnak. Ennyi. Másrészt sokat nem is számít a dolog, mert ugyan az ATI szeretné nyomatni a 03-at, de ezt normális helyeken nem tudja elérni. Nem vált szokássá csak a 03-mal tesztelni, sőt sokszor egyáltalán nem is szerepel mint tesztplatform. Inkább a 2001-et használják, meg a szokásos játékokat, mert azok a gyakorlatot mutatják és nem csak szintetikus tesztek.
  • Cvd
    #2221
    Akkor nézzük, hogyan ferdíted TE az én mondanivalómat:
    #2208, én ezt mondtam: "Persze valószínűleg egy időben R300-at is használt a munka közben"
    Erre te, #2213: "sőt szerinted már r300at se használt a doomhoz. Hát gratulálok."

    Másik példa:
    #2208, én írtam: "Te viszont már akkor fikáztad, amikor az nVidián kívül még csak a nevéről lehetett tudni biztosat. "
    Erre te, #2213: "Ó, igen, arról vagyok hires, hogy bőszen állitom hogy hűdekirály az FX."

    Gratulálok, igazad van, tényleg én ferdítek meg én beszélek mellé.:) Komolyan: Te itt mindenkit síkhülyének nézel, aki nem tud elolvasni és értelmezi egy szimpla mondatot? Azt hiszed be tudsz bármit magyarázni a topicot olvasóknak?

  • Jacek
    #2220
    de ahogy hallom jo nagy anyazasok mennek:))))))
  • RelakSfromhome
    #2219
    ÉN ÁLLAT!!! ATIT AKARTAM ÍRNI!!! ÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁÁ!!!
  • RelakSfromhome
    #2218
    hmm? itthon csak a kalapácsok vannak...
  • RelakSfromhome
    #2217
    :) Akkor písz!

    Mindenesetre Borg okfejtése több, mint érdekes. Beyond3d válaszra vár (naná, majd válaszolnak neki, mi? ;) Közben megtaláltam itt az eredetit plusz a már látott sotokhoz magyarázatot.
  • Borg
    #2216
    Arról már csak zárójelben teszek megjegyzést, hogy egyes weboldalak megtámadták a HardOCPt a DOOM3 tesztj miatt, mivel abban a tesztkártya továbbra is az NV30 rendering pathet használja, mig az ATI kártyák a már kötelezőnek tekintett ARB2-t. (openGL 2.0-ról van szó).

    Mondván, mind2 kártyának ARB2vel kellett volna futniuk, ahhoz hogy összehasonlitható eredmény szülessen, csak éppen erre még a doom3 motor nem képes, a korai stádiuma miatt.

    (Carmack ki akarja venni az összes rendering pathet a doom3ból, azért, hogy minden kártya ARB2vel futtassa majd a végleges játékot. Csak éppen az NV30 codepath még benne van, igy az avval futott.)

    !
    Mielőtt jönne a szokásos kötözkdés, és ferdités, hangsúlyoznám, hogy ez sem, és az előző sem az én véleményem, mindössze tájékoztatás képpen raktam be ide, a kedves szakértők részére, akik bőszen hurrognak mióta a doom3 teszt meg az 5900 teszetek kijöttek.
    !

    Kiváncsian várom kinek mi a véleménye erről.
  • Borg
    #2215
    Na akkor hogy végre tiszta viz legyen a pohárban, és kötözködésen kivül valaki legalább hozzátegyen a topichoz valamit:

    Ime az extremetech leleplező tesztje a 3dmark03 aktuálisan felfedezett bugjáról, az nvidiával kapcsolatban:

    "In our recent GeforceFX 5900 Ultra story, we noticed the Nvidia board was well ahead of ATI's Radeon 9800 Pro in Futuremark's 3DMark2003 benchmark, but the two boards were much more evenly matched in our GameGauge application benchmark suite.

    We've just discovered certain test anomalies that indicate to us that Nvidia may be special-casing 3DMark2003, throwing away work, to attain higher scores.

    We had thought, with the GeForceFX 5900 Ultra now out of the bag, that we were in for a bit of a post-launch lull. But as it turns out, things are just starting to get interesting.

    We stated in our GeForceFX 5900 Ultra review that we found the 256MB 5900 Ultra's 3DMark03 results were faster than those delivered by the Radeon 9800 Pro 256MB card, while the 3D GameGauge scores of the two cards were more evenly matched. We found this somewhat odd, and attributed this disconnect to 3DMark03's using vertex and pixel shader code, whereas seven of the eight tests in 3D GameGauge do not.

    Our GameGauge suite tests with eight real games, while Futuremark's benchmark uses four synthetic games (Game 1 through 4) that emulate real-world products, but is specifically designed for benchmarking 3D cards. You can read more about Futuremark's benchmark in our detailed analysis from last February.

    It turns out, though, that the disparate 3DMark03 scores may have a different root cause: our test results seem to indicate that nVidia is boosting its 3DMark game test scores by cutting corners in the 44.03 DetonatorFX driver we used for testing.

    We discussed our findings with nVidia before we published this article, and the company's Direct3D driver team is currently investigating the problem. At press time, the company's engineers believe that the anomalies we're seeing are the result of a driver bug.


    nVidia believes that the GeForceFX 5900 Ultra is trying to do intelligent culling and clipping to reduce its rendering workload, but that the code may be performing some incorrect operations. Because nVidia is not currently a member of FutureMark's beta program, it does not have access to the developer version of 3DMark2003 that we used to uncover these issues.

    Over the coming days, nVidia will be exploring the issues we raised. We will post nVidia's findings as soon as it makes them available to us, along with any additional testing details if the company releases an updated driver. "

    Összefoglalva:
    Az ürgék ott kezdtek el gyanakodni, amikor a gamegauge tesztjükben szembetűnően eltérő eredményt produkált az FX5900U mint a 9800PRO256. És a 3dmark03 freecam módba állitása igazolta is a gyanújukat.
    Úgy néz ki az nvidia CSAL a 3dmark03ban (pl), méghozzá úgy, hogy előre megvágott, és elkészitett scenet mutat be a program futtatásakor a kártya. Igy csökken a valójában renderelendő képterület, azonban ezzel természetsen CSAL a 3dmark03 telejesitményét illetően, ugyanis nem dolgozik annyit a kártyája, mint más tesztalanyok.
    Természetsen a 3dmark03 lefut jól, mert a látható képtartomány elkészül, csak éppen ez nem tükrözi a játékokban elérhető eredményét, és főleg nem produkál más kártyákkal fairplayben összehasonlitható eredményeket.


    A részletes teszt is ott olvasható, amelyben a képtorzulásokra, és clippingekre a vélhető okokat is felsorolják.

    Hát kérem szépen ez van. Előre renderelt képek, levágott, nem renderelt részek.
    Számomra biztosan, de nagy valószinűséggel az egész szakmai scene előtt végérvényesen elvágta magát az nVidia ezzel a csalással, ha ez tényleg igy igaz. Mert ez semmi más, mint egyértelmű csalás.

    "We believe nVidia may be unfairly reducing the benchmark workload to increase its score on 3DMark2003. nVidia, as we've stated above, is attributing what we found to a bug in their driver. "

    PS: Jöhet a ferditése, cvd, bár ennek nehéz lesz asszem...
  • Borg
    #2214
    Akkor fuss neki még egyszer az olvasásának.
    Ugyanis a pont nem ott van, hogy tesztelői, ami mindössze a debug funkciókban különböző verzió, hanem ott, hogy CSAK a detonatorral és csak NV30/31-el volt bugos nekik, ATIn nem.
  • Borg
    #2213
    Doom3: még mindig csak mellébeszélsz, frappánsan elferditetted amit irtam, sőt szerinted már r300at se használt a doomhoz. Hát gratulálok.

    "Azonfelül az FX-ről nem állítom hogy hűdekirály, amióta kiderült hogy nem az. Ezt csak te állítod bőszen azóta, újra csak alap nélkül. Te viszont már akkor fikáztad, amikor az nVidián kívül még csak a nevéről lehetett tudni biztosat. "
    Ó, igen, arról vagyok hires, hogy bőszen állitom hogy hűdekirály az FX. Másrészt, az FXről előbb lehetett tudni a specifikációt mint a nevét.
    Egyre jobb vagy, igy tovább.

    2193: "Mióta szokás bétával tesztelgetni, hacsak nem az a cél, hogy szándékosan hibát találjunk valamiben?" Hű, ez érdekes! A 3.4-es catalyst mégis mi volt, amivel a te általad dicsőitett anandtech tesztben szerepelt a 9800as? De ez nem érdekes ugye?
  • Cvd
    #2212
    Félreértesz! :) Nem rád gondoltam a provokálással kapcsolatban, hanem azokra akik a tesztet csinálták, aztán előjöttek a hírrel. Eszembe se jutott hogy magadra veheted.:) Egyébként közben elolvastam rendesen, és itt a helyreigazítás: A driver végleges volt, csak a 3DMark verzió volt béta. Így kéretik nem figyelembe venni a driverrel kapcsolatos okfejtésemet. Viszont bőven elég a teszt béta mivolta ahhoz hogy értelmét vessze a dolog.
  • RelakS
    #2209
    Provokálok? Mutasd meg, hogy hol utalok arra, hogy pont az nvidia b@szott el valamit! Igaz, hogy említem, hogy atin rendesen megy, de nem állítottam, hogy az nv a hibás! (emlékeim szerint, visszanézni lussta vagyok :) )
  • Cvd
    #2208
    Na látod még mindig nem nézted meg azt a videót, vagy hazudsz. Abban bizony már tökéletesen működött a textúrázás, a megvilágítás, satöbbi. Abszolúte rá lehet ismerni a motorra. Te viszont még csak azt se tudtad azóta bizonyítani, hogy Carmack valóban mondott-e olyasmit amit állítasz. Persze valószínűleg egy időben R300-at is használt a munka közben, Gef4 után és FX előtt. Merthogy az FX megjelenésekor azonnal azt rakta a gépbe. De az továbbra is hülyeség, hogy R300-on írta.
    Megjegyzem, még mindig te vagy az aki mellébeszél, én többször is linkkel bizonyítottam az igazamat, te meg semmit se mutattál fel.


    Azonfelül az FX-ről nem állítom hogy hűdekirály, amióta kiderült hogy nem az. Ezt csak te állítod bőszen azóta, újra csak alap nélkül. Te viszont már akkor fikáztad, amikor az nVidián kívül még csak a nevéről lehetett tudni biztosat.

    #2193: Erre mit mondjak? Béta driver, miért meglepő ha hibázik valahol? Mióta szokás bétával tesztelgetni, hacsak nem az a cél, hogy szándékosan hibát találjunk valamiben? Sőt biztos lehet olyan esetet is találni, amikor egy végleges driver szarakodik valahol, sőt bizonyos márkáknál még ez sem meglepő.. Nem kell ebbe semmit belemagyarázni, hiába provokálsz vele.
  • ollie
    #2207
    yo választás...
  • Laalee
    #2205
    egy geforce 3 gyorsabb nala, viszont tud dx9 et aminek semmi ertelme ilyen teljesitmeny mellett.