Avagy az NV3X...
Ha netán törlödne a hozzászólásod, csak csekkold ezt: #1940
Ha netán törlödne a hozzászólásod, csak csekkold ezt: #1940
-
Borg #1479 "Egyébként meg nem ez a helyzet a régebbi driverekkel. Eleve nem szokás 32 bit helyett 16-tal számolni,.."
"By the way, NVIDIA GeForce4 Titanium series also generate certain image artifacts in the second gaming test. They are not so evident as those noticed by Xabre 600, but are still very unpleasant. Thus, if you look at the haloes left by the shots or the flame of the jet nozzles, you will see very sharp color transitions. You will not notice anything like that in the pictures rendered by other cards.
We suppose these transitions appear because GeForce4 Titanium GPUs use texture compression in 3DMark03 or transform the textures into the 16-bit format to reach higher performance."(xbitlabs)
Hja... nvidia assetudja a "16bit vajommmiiii..."
Amúgy most te csúsztatsz, mert kitárgyaltuk már, hogy az R300 komponensenkénti 24bitjét te sosem fogod megkülönböztetni a 32től, viszont az FX 16ját annál inkább. (bár utóbbinak is kicsi az esélye.) Lényeg hogy nem kellene ezen a képminöségi blablan lovagolnod, mert ugyis az FX huzza a rövidebbet. A doom3 codepath-ok kapcsán is megvolt már a téma, fx gyorsabb, bizonyos eljárásokat használva, de ekkor csak 16biten megy (bbb).