Id Software: Az első Doom 3 teszteredmények

Jelentkezz be a hozzászóláshoz.

#94
Van elérhetõsége ennek a PR anyagnak. Én csak ATI-s anyagot tudok errõl.

Egyébként egyátalán nem jelent akkora IQ romlást a PP, mint ahogy be van állítva. A fent említett anyagban is csak bizonyos esetekben látszik egyátalán, de akkor sem túlzottan.

Az elõzõ (1.1?) FarCry patch-et szokták ezzel kapcsolatban emlegetni, csakhogy ott szerintem nem PF16 van használva, hanem az INT12, mivel állítólag (tesztoldalak vizsgálatai szerint) PS1.1-es shaderek futnak FX esetén (2.0 helyett), márpedig elvileg a PS1.1 nem ismeri még az FP formátumot, csak az integert...

#93
Én nem fórumozók véleményére vagyok kiváncsi (sem a tiédre), hanem az általad említett Carmack féle idézetre.
Mert lehet, hogy mennek standard ARB2-vel az NV3X kártyák, csak messze nem a 9800XT szintjén. A jelen teszttel kapcsolatban egy szóval sem említette Carmack, hogy az NV3X renderpath (mert errõl beszélt viszont) milyen percizitást jelent. Márpedig ha NV3X renderpath van (és van), annak csak és kizárólag a PP lehet az értelme (ahogy azt a grafikon is mutatja). Valszeg nem véletlenül nem készültek egy nv pr anyagba IQ összehasonlító tesztek a 9800XT FP és az FX5950U PP között.
#92
Az ati meg kanadai .DDDD
Ugyan az 😄DD
DE nem amcsik a tervezõk az nvnél és az atinál.
Általában exportálják a tudósokat. Pl.:Afrikából 😄DD

#91
"Meg PS1.1-et meg PS1.4-et meg PS2.0a-t és elõbb utóbb PS3.0-t is. A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ."

Bocs, de ez nem egészen így van. Ezek HW fogalmak. OpenGL2.0 alatt nincsenek még natívan támogatva, csak többnyire gyártó-specifikus extensionokkal.

A többivel egyetértek (mert konkrétan tudható is mindkét dolog).

#90
Hozzateszem, mar az alphaban se vettem eszre semmi bajt a kepminoseggel.
#89
A Beyond3D forumaban tobb topic is volt errol.
Az nV3x vs R3xx alpha tesztekhez kepest, a vegleges teszten is latszik, hogy a brutalis elonybol sokat veszitett az nV.
Z
#88
ez a nagy flém lol...

ati vs nVidia...nekem ATI-n van már egy ideje, de eszembe sem jutott, hogy megemlítsem egy nVidia tulajdonosnak,hogy az xy teszt alapján ( nézd meg vazeg!!!) az ati 5 fps-sel jobb, különben is láma nVidia...szóval ilyesmit nem szoktam mondogatni, sem írogatni.

OFF: Viszont azért kíváncsi lennék, hogy az "amerikát" (USA) mennyien fikázzák (hogy csak az olajért mentek, meg g*ci lehúzós banda, a világhatalmi törekvéseik miatt, meg milyen hülyék, mert olyan dolgokat tanulnak a fõiskolán matekból, mint amit nélunk középiskolában tanítanak, stb) az nVidia fanok közül. Ugyanis az nVidia, ha jól tudom californiai székhelyû cég. Na most egy ilyen cégre kb. minden jellemzõ, ami egyébként az USA-ra.

üdv

Amit nem tudunk az erkölcsök útján megtenni, azt nem szabad a törvények útján megtennünk. A fehér ember nagyon ért a pénzcsináláshoz, csak ahhoz nem ért, hogyan kell elosztani.

#87
Ennyi erõvel az amd is lassabb, mert kisesbb órajelû????????????

#86
Dikkma
#85
Ja, 32/24 😊 sorry 😄DD
Dikkma
#84
Jaj, még ehhez:

"Ami igazán meglepõ, az azonban csak itt következik, ugyanis a FarCry 1.2 tesztben 3.0-s shadereket használó GeForce 6800 Ultra kártyát több ízben is képes volt legyorsulni az X800XT SM 2.0b-vel. Utóbbi elõnye ugyan nem mindenhol egyértelmû, de olyannyira fej-fej mellett halad a két kártya, hogy igen kétségessé válik az nVIDIA kártyákon a Shader Model 3.0 értelme. Pont azokban az esetekben képes valamivel nagyobb teljesítményre az X800XT, ahol elméletileg az SM 3.0 elõnyeinek jobban meg kellene mutatkozniuk."

tegyük hozzá:

24/32 = 1.25

azaz "pont azokban az esetekben" ahol SM 3.0-t használ a játék, 25%-al több adat van. Miért is meglepõ, hogy az alacsonyabb órajelû GF6800 (Néha! nem is mindig) lassabb, mint a magassabb órajelû X800? Inkább meglepõ, hogy még így is sokszor gyõz.
Dikkma
#83
Ez nem így van, a renderelõ mag már régen kész volt, JC saját bevallása szerint is már egy éve unatkozik (eddig Armadillo-zott, most már új technológiákon dolgozik) ergo egyáltalán nem nv-optimalizáción dolgozott.
Dikkma
#82
Butaságokat beszélsz.
Dikkma
#81
gém a játékhoz.. mi?
#80
Aha, légyszíves idézzed ezt a bejelentését, illetve támaszd alá képekkel, hogy valóban ARB2-ben ment ebben a tesztben.

Jaa, hogy csak ködösítesz? Az más...
#79
JC honapokkal ezelott bejelentette hogy az nV3x kartyak is standard ARB2-vel mennek az elozoleg tervezett speci nV3xpath helyett.

Az ilyen kitoreseiddel csak magadat egeted ... a rosszabbik lehetoseg ha meg valaki komolyan is veszi amit irsz.
#78
Birom mikor sokan úgy szólnak hozzá a témához, hogy el sem olvassák a cikket aztán írnak sok okosságot és bölcsességet és megvannak róla gyõzõdve, hogy náluk senki sem tudhatja jobban.... 😛

#77
Nem tudom miért írtál le ennyi felesleges dolgot fx szar és kész.Igaz a fx megjelenése után már javítottak rajta....de ez most nem lényeg.

Ati optimalizációt hagyjuk, mert a d3 még se jelent meg.

A doom3 semmilyen pontossággal nem készül.
-persze, de kihasználja az nv 32bites pontosságát.

Minden egyes grafikus processzoron külön renderpath fog mûködni, ami a maximumot hozza ki belõle.Ez igaz az NV40-re, és az összes ATI kártyára is...
Ezzel kapcsolatban majd még írok....


Olvass utána hogy az id miért "tette" félre az atit.

Dehát ugye (most nem csak rád értve) akinek halvány gõze sincs a dolgok mûködésérõl, az pont ennyit tud hozzátenni a témához, hogy búúú atifan

Jajj de jót röhögtem ezen...a zárojelben már csak azt felejtetted ki, hogy: és én

#76
Ha valamihez nem értesz, azt legalább ne hangoztasd már... komolyan szánalmas... részemrõl rád nem reagálok többet...
#75
Olyan végtelenül nem értesz a dolgokhoz, hogy az már fáj. A "részleges precizitás" valóban nem mond semmit sem, mert magyarul pl. tök értelmetlen más nyelvben meg nem létezik.
Ha valaha elolvastál volna egy OpenGL specifikációt akkor tudnád hogy ott nincs ilyen fogalom! De nem olvastál, ezért nem is tudod.
#74
Ez csak az NV3X-re igaz, de arra különösképpen. Az NV40 már nem lassú 32biten, a teljesítményével semmi gond nincsen.
#73
Csak az a baj, hogy míg az ATI 24 bites pontossága jó teljesítménnyel és képminõséggel párosult, addig az nVidia kártyák lassúak voltak 32 biten 16 biten viszont rondák.
Ezt a "hülyeséget" egy Carmack interjúból szedtem (ha jól emlékszem).

¤¤¤¤o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤O3>

#72
mármint az nv6800

#71
A doom3 semmilyen pontossággal nem készül. Minden egyes grafikus processzoron külön renderpath fog mûködni, ami a maximumot hozza ki belõle. Ez igaz az NV40-re, és az összes ATI kártyára is. Egyetlen egy család van amire nem igaz, és az az NV30. Az ugyanis kegyetlen szar teljes precizitás mellett, és így (minden eddig megjelent D3 tesztben!) csupán FP16-al ment. Mindössze ez az az apróság, amit az "nvidia a gyorsabb b+" nevû szakértõk itt rendre elfejejtenek. Mindamellett, hogy a jelenlegi tesztben az ATI kártyák sem mûködhettek teljes sebességen, mivel nem optimalizálhatta rá a drivert még az ATI. Pusztán emiatt a 2 szempont miatt nem érnek semmit a fenti grafikonok, akárki akármi atifanvsnvfan dolgot akarna belemagyarázni a dolgokba.

Dehát ugye (most nem csak rád értve) akinek halvány gõze sincs a dolgok mûködésérõl, az pont ennyit tud hozzátenni a témához, hogy búúú atifan. Ennyi a konzekvencia.
#70
"impozáns – teljesen 32 bites lebegõpontos – architektúrát hoztak létre"
ph!

#69
Íme egy tipikus ember a sok közül, aki csak néz, de nem lát. Vagyis végignézted a grafikonokat, mint jelen esetben is, aztán azok alapján írták egy marha nagy baromságot. Olvasni is kellene ám néha.

Ha legalább arra vetted volna a fáradtságot, hogy Carmack szövegét elolvasd, akkor tudnád miért volt gyorsabb az "NV" az ATI-nál D3-ban, és miért gyorsabb most is. Mert a sebesség nem minden ugye, csak ezt szeretik elfelejteni, fõleg az nv ajnározók. Dehát a részleges precizitás mint fogalom gondolom semmit nem mond neked, szal kár is szót fecsérelni erre.
#68
Ha már sokan osztják az észt akkor én is megosztom veletek😄D
ati +d3???na mi ez???xbox2ben milesz???
===ati+microsoft=d3
A microsoft a directxben a 24bites pontosságot erölteti. 😄DD
(hát persze hogy ez is egy májkroszoft -billibácsi- anyszülemény)
A 6800 már 32bites pontossággal dolgozik.
Újabb kérdés a Doom3 32vagy 24bites pontossággal készül???Hát persze hogy 32.
nv6800 ban mér rengeteg újítás van...

Én még mindig pártatlan vagyok, csak nem bírom amit az ati csinál.Régen az nv csodálatos 😞 sorozata -FX után az nv fikáztam.
Mindenesetre most szivesen vennék egy 9600xt ...

#67
"Az a baj hogy mindnenki osztja itt az észt anélkül, hogy ismerné az elõzményeket."
Amit ez után írtál az tökéletesen megfelel ennek.
Sok ok miatt is teljesen hülyeség amit a 16-32 bit váltogatásáról írtál, de egyébként erre majdnem 2 év állt JC rendelkezésére. Másfelõl már az 1 évvel ezelõtti tesztekben is széjjelalázta az NV az ATI-t D3-ban, úgyhogy ez megint nem stimmel.

#66
Azért tudom mert én olvasni is szoktam nem csak írni.

¤¤¤¤o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤O3>

#65
Egyáltalán nem más tészta. Az FX-ek és a 6800-as széria nem a Doom-ra lett kihegyezve, hanem nagyon erõsek a stencil buffering mûveletekben és az egyéb árnyékok számításához szükséges dolgokban (mellesleg a 6800-asok pedig minden másban is). A Doom 3 megvilágítási modellje pedig éppen ezekre épül.
Szuper, hogy mennyire tudod, hogy mi miért csúszik.

"A HL2 csak PS2-t hasznal, mig a D3 meg azt se."
Meg PS1.1-et meg PS1.4-et meg PS2.0a-t és elõbb utóbb PS3.0-t is. A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ.

"Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at."
Miért szerinted a PS3 minek a része a DX10-nek?
Vagy azért mert nem volt képes elõállítani és gyártatni egy ilyen tudású chip-et és azt hitte, hogy ez az NVIDIA-nak sem sikerülhet. Hát ezt jól bebukta.
#64
Az a baj hogy mindnenki osztja itt az észt anélkül, hogy ismerné az elõzményeket.
Ezt az eredményt már régen megjósolták.
Az ID már több mint egy éve fáradozik azon, hogy az engine-jében gyakorlatilag cheat szerûen váltogatva a 16 és 32 bites pontosságot, jó eredményt érjen el az nVidia kártyákkal, a 24 bitet használó ATi kártyákkal szemben.
Ezért csúszott ennyit a Doom3 !

¤¤¤¤o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤o,¸¸o¤o,¸¸,o¤o°`°o¤o,¸¸,o¤o°`°o¤O3>

#63
"És valszeg nem X800-at fogok venni, mert elõbb utóbb a PS 3.0-ra is szüksége lesz a játékoknak és én akkor csak amiatt nem akarok új káryát venni..."

Amugy ez egy jo vitatema lehetne. Az elkovetkezo par evben a jatekok tomege valoszinuleg a HL2 es a D3 grafikus motorjat hasznalja. A HL2 csak PS2-t hasznal, mig a D3 meg azt se. Igy inkabb az a kerdes, hogy azert a nehany jatekert erdmes-e nVidiat venni. Kiveve persze ha amugy is gyorsabb az nVidia kartya bar ez sok esetben kerdeses. Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at.
#62
"Ha az nVIDIA pénzzel szponzorálta a id Softwaret, miért ne kérhette volna hogy a Doom3 a saját kártyáira iródjon (jobban)?"

Tulajdonkeppen ez tortent.

"Ugye-ugye az ATI és a Half Life 2.... Ugyan ez az eset..."

Az teljesen mas teszta. Az ATI kartyai erosek PixelShader2-ben, es mivel a HL2 motorja erosen hasznalja azt, ezert tudott jol teljesiteni. Nem tudok olyan inforol, hogy az ATI a PS2-t a HL2-ert erositette volna meg. Es olyanrol se, hogy a HL2 az ATI-ra lenne kihegyezve.

"azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe"

Jeleneg ugy nez ki, hogy a HL2 azert csuszik, mert a nVidia kartyakra kell optimalizalni. Az NVidia nagyon eros nyomast gyakorolhatott a Valvera.
Bucser
#61
Én nem vonnék le semmilyen következtetést addig amíg nem láttad egyik játékot sem. Ez így vagdalkozás. volt már Nvidia meg ATI kártyám is. És valszeg nem X800-at fogok venni, mert elõbb utóbb a PS 3.0-ra is szüksége lesz a játékoknak és én akkor csak amiatt nem akarok új káryát venni... Jelenleg ATI-m van... Egy BBA-s 9500PRo 9700-ként hajtva...

"Whether you Kill or get Killed it is just a way to Kill time" Zaraki @ Bleach #36 SC SQ42: "Give in to the Hype, It is worth it" https://robertsspaceindustries.com/enlist?referral=STAR-NVZF-5CZF

#60
Nem is értem, hogy miért kell állandóan a két tábornak fikázni egymást. Miért van mindenki a másik kártyájával elfoglalva? Kicsit olyan ez, mintha mindenki azt lesné, hogy mennyi fizetést kap a másik, nem pedig azt, hogy saját maga mennyit keres. Vagy megfelel, vagy nem. Ha nem, akkor kell váltani. Engem egyedül az érdekel, hogy az én gépemen hogyan fog menni. Attól nálam nem lesz sem jobb, sem rosszabb, hogy másnál hogyan megy.
A közölt teszteredmény tényleg pr szagú, ráadásul az információtartalma közelít a nullához, mert elvárható lett volna különbözõ felbontásokon és beállításokkal tesztelni, de így...
Mellesleg 17-es TFT-m van, amin 1600x1200-at még ha akarnék, akkor sem tudnék megjeleníteni. 1280-at tudok, de nekem az 1024x768 is megfelel. P4 3G + 9800Pro konfigon talán nem lesz döcögõs...

Más: Megjelent az index mellékletén (prohardware), hogy a Doom3 csak XP-n és W2k-n fog menni, egyéb wineken nem. Ez szerintem megalol hír, ami egyébként a szintén megalol Chip német oldalán közöltek.
Wing Rockling
#59
...Nem is tudom mit mondjak... Azért számomra ez elszomorító, hogy itt összesen hárman vannak akik épp ésszel gondolkodnak, remélem tudjátok kikre gondolok. Nem kell ahhoz Ati fan-nak lenni, hogy az ember észrevegye a tényeket. nem tudom hogy az nV szája hogy fog majd állni, amikor megkapja az elsõ ütést az Ati optimalizált meghajtójától, majd a másodikat Gordon Freeman bácsi személyében = a HL 2 legalább ilyen grafikonokat mutat majd, annyi különbséggel, hogy ott az élen az Ati kártyái lesznek, ez az optimalizáció hatalma. Az a baj, hogy sokan ennyire elkötelezik magukat az nV mellett, ezt ahhoz tudom hasonlítani hogy az ember meggátolja a saját fejlõdését... Az Ati technológia sokkal elõnyösebb, itt megint azt mondom hogy gondoljunk a Half Life 2-re. Csak hasonlítsátok össze a gépigényét a Doom 3-éval. Majdnem annyi a különbség mint mondjuk a Mohaa és a Far Cry gépigénye között, de mégis, a HL2 sokkal változatosabb játékélményt és jobb hangulatot fog nyújtani, ha lenne 1000000+x forintom mindet rátenném arra, hogy sokkal jobban be fog válni, és ismét arra esküszök, hogy az nVidiára optimalizált D3 enginje csak egy technikai demó, ami nagy szórakozást nyújt majd az 500000 Ft-ot érõ erõmûvel rendelkezõ embereknek 20 órára, és a csodálatos grafikától eltekintve a játékélmény felejthetõ lesz.

\"I fight the world, and take all they can give. There are times, my heart hangs low. Stand and fight, live by your heart. Always one more try. I\'m not afraid to die.\"\"Manowar\"

#58
Engem ugyan úgy zavar az alacsony fps mint régebben a quake3ban.

N.E.O.!!!
#57
Azt lehagytam, hogy a játékosok nagy része nem rendelkezik 19 colos képernyõvel, de 17-el már igen, és õket inkább az 1280-as felbontás érinti.

St megkérte, hogy távolítsam el a régit, úgyhogy most csak ilyen szar van:(

N.E.O.!!!
#56
1280-as felbontáson nem is tesztelték?

St megkérte, hogy távolítsam el a régit, úgyhogy most csak ilyen szar van:(

#55
"Ami azonban sokkal inkább meglepõ, hogy az FX 5950 Ultra fej-fej mellett volt képes teljesíteni a 9800XT-vel, sõt, komolyabb szûrõk használatával még valamelyest gyorsabb is volt nála."
Egyáltalán nem meglepõ. Az NV35 megjelenése (majd másfél év óta) lehetett tudni hogy így lesz. Persze a fanatikus ATI-sok mindíg is habzó szájjal tagadták ezt, de most elérkezett az igazság pillanata és jól látszik, hogy ismét csúnyán beégtek.
janos666
#54
Tekintve a közeli megjelenést teszteltem már egy kicsit magamnak a DOOM3 beta2 nevezetû verzióját 2,6-osP4,FX5800,512MB RAM, 62.20-as driverrel (eddig csak 41-essel indult az meg nem ismerte a kártyám).
1280x104 4XAA,8XAF mellett (persze a játékban minden efekt be volt kapcsolva, maxra volt téve) igaz hogy csak átlag 20FPS mellett ment a játék mégis játszható volt. (Talán ez az a csodaoptimalizáció, hogy egyenletesen leadva az alacsony FPS is folyamatosnak látszik?)
Ugyanezen beállítások mellett 1024X768-ban már viszont adta a 30-40FPs-t ahogy kell. Meglepõ, mert a képminõségen szinte semmi változást nem tapasztaltam, biztos szar a beta de 10-percet nem sajnáltam tõle. Vagyis nekem sem a gép miatt kell beszarnom ha játszani akarom.
N.E.O.!!!
#53
Hehe, itt mindenkinek 19 colos képernyõje van 6800U vagy x800xt-vel, hogy azon veszekedtek, hogy 1600-as felbontásban melyik ír ki 5-el több FPS-t? Röhej. 68,5 és 51,8 FPS. Én például észre nem venném, a különbséget. Ismerek embereket, akiknek kilómnéterekkel jobb gépe van az enyémnél, de csak 15 és 17 colos képernyõjük van. Hát most õk nem fognak elkezdeni sírni, hogy nem tudnak 1600-as felbontásban játsszani. Én örülnék 800x600-as felbontásnak szûrõk meg élhomályosítólk nélkül 25-30 FPS-nek. A thief 3 8-10 FPS-el megy low-on, de mégis az árvaháznál járok, és alig zavar a szaggatás. Ez az 5-10 FPS különbség viszont a gyengébb kártyáknál fog jobban kijönni annál a határnál, amikor is már folyamatos képet látunk. Mondjuk a gyengébb kareszokról nincs teszt, hogy ott is jobban teljesít-e az nV.

Na hogy a végére valami értelmeset is írjak a Doomnál az nV-sek a HL2-nél az Atisok fognak jobban járni. Sajna az Ati nem tehet róla, hogy az nV dugig van pénzzel. Atifan vagyok, csak hozzátenném.

St megkérte, hogy távolítsam el a régit, úgyhogy most csak ilyen szar van:(

asysoft
#52
Nem mondod?😊 Amúgy 8500-asoknál lényegében csak órajelbeli különbségek voltak (275Mhz helyett 250, illetve "LELE" esetén 230).

/*WTF?!*/

Inferno
#51
Na végre egy normális gondolkodású ember
többi meg nem érdekel

PS3/X360 user: Infernohun

RelakS
#50
"hanem a gém a játékhoz...."

Mivan? Talán a gém a kártyához, nem? 😄

sg discord: https://discord.gg/ezkyQvNE

#49
Na ezt akartam én is mondani hogy sokan lökik a süket dumájukat a hozzászólásukkal, de valójában egyikük sem támasztja alá tényekkel a mondanivalóját.

Gigabyte P67A-UD4-B3,I5-2500K, Corsair DDR3 8GB 1866 Mhz CL9, Sapphire ATI HD 6950 2 GB GDDR5, SB X-FI Gamer, Samsung BX 2431, Logitech MX 5500

Magnetic
#48
Sziasztok!

Nem birtam ki,hogy ne irjak pár sort.
Gyerekek nem mindegy, hogy ki mire esküszik? Van akinek az Ati, van akinek az Nvidia jön be. Az Nvidia-s soha a büdös életben nem fog meggyõzni egy Ati-st, hogy jobb az Nvidia és az ATi-s sem az Nvidia-st. Már csak azért sem mert mindkettõ görcsösen ragaszkodik a maga kis elméletéhez.
A helyzet az, hogy a végtelenségig lehetne bizonygatni mindkét fél részérõl a dolgot, hogy melyik a jobb.... Próbáljatok meg kiegyezni abban, hogy mindkét kártyának megvan a maga elõnye, haszna, jó és rossz tulajdonsága.

Üdv,
Magnetic

#47
Bocs, egy kicsit félreérthetõ amit írtam a 2. kérdésemben, és részben válaszolok is rá.

Szóval: azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe.
#46
úgyhogy nem a cégek optimalizáltak hanem a játékfejlesztõk és nem a driver lett igazítva a gémhez

hanem a gém a játékhoz....

Hi! I\'m a signature virus. Copy me into your signature to help me spread.

#45
le vagy nem le nem ugyanaz

én félek attól az mx-es eredménytõl

Hi! I\'m a signature virus. Copy me into your signature to help me spread.