107
-
mujahedin #67 "do you want to know how i got these scars?" :D -
hol9672 #66 húderanda sebhely -
FlyingV #65 hogy a 3DFX felvásárlását követő, annak nevéből jól járni akaró 5xxx FX sorozatot már meg se említsük.. :) (Atiék akkor voltak emlékeim szerint először erősebbek a konkurensnél) -
FlyingV #64
köszi, én csak nagy általánosságban nézegetem:)
egy dologban viszont nem értek egyet: ez stratégiai szempontból igenis csata. mert akkor is, ha ilyen 'egyszerű' dolog leqrni az Ati-t az első helyről, akkor miért engedték át nekik?
A GPGPU koncepcióhoz: nem úgy volt, hogy GPU+CPU (lényegében) egy tokban? És aztán az intel beszállásával (addig nagyon légbőlkapott pletyik, de voltak nV+intel házasságról) jött létre lényegében ez az új koncepció? (amiből tényleg sokat nyertek addig is az Atomok révén.. Amúgy igen, ezt felejtettem ki, hogy érdemes a kékekre is odafigyelni, 32-64-etc Atom mag egy kártyán érdekes dolgokat fog majd csinálni.. és ez még csak a prototype, jönnek atom-utódok mostanában, ha jól tudom) -
Gaboca76 #63 Teljesen igaza van itemnek annak idején a 3Dfx is igy kezdte a haldoklását pontosan igy az a vicc az egészben hogy ezt a céget ki vásárolta felel lehet találgatni igen igen ... az FosVidia!A 3Dfx is elkezdet csipeket duplázni lebecsmérelte az uj fejlesztéseket és ezlet a vége! -
kvp #62 "a DX9 óta ugyanis annyiban mindenképpen változott a helyzet (amennyire én tudom), hogy sok függvényt optimalizáltak,"
Nem ez tortent. Gyakorlatilag kidobtak a teljes dx9-es rendszert es minden chip altalanos simd vektorproceszor tombkent mukodik, ami tartalmaz bizonyos 3d rendereleshez haszonos specialis utasitasokat is. Semmilyen fuggveny sincs beegetve a kartyakba, a dx9-es modot ugy oldottak meg, hogy megirtak a dx9 fuggvenyeit az uj shader kodban. Ezert is lehet kiegesziteni a dx10-es kartyakat barmikor dx10.1-es es dx11-es modra, mert csak meg kell irni az uj fuggvenyeket. Az nvidia eseten az a gond, hogy a 8 alu magra jut egy branch egyseg, tehat 8-as simd rendszeru a kartya. Ezert a dx11-es felteteles utasitasvegrehajtas alkalmazasa eseten a teljesitmeny nyolcadara (12.5%-ra) esne vissza. A dx10.1-es texture load filtering szoftveres megvalositasa miatt ez tovabb csokkenne a negyedere tehat a dx9-es teljesitmeny 3.1%-at tudna a kartya dx11-es modban. Viszont mukodne es utolag szoftveresen frissiteni lehetne a gf8800-as sorozattol az osszes kartyat dx11 kompatibilisre.
Az ati tobb branch egyseget hasznalt, amitol a nyers teljesitmeny nem akkora, de nem csokken a teljesitmeny ha a magokat nem 8-as csoportokban hanem kulon-kulon hasznaljak. Ezert vannak most elonyben.
"egy asztali PC szempontjából, úgy tűnik, a számítógépek esetében el kell telnie 1-2 generációnak, amíg felérnek egy újgenes konzol képi világához."
A problema az, hogy teljesitmenyben mar a gf8800-as sorozat is tullepett a konzolokon. A minosegrol ne is beszeljuk. A konzolok ott jartak meg, hogy pont egy eleg nagy generaciovaltas elott hoztak ki oket. A masik az, hogy ma mar nem kell pc-re optimalizalni, mert az xbox360-on windows nt 5.x-es kernel fut, dx9-el, tehat ha valaki xbox360-ra optimalizal, akkor tulajdonkeppen windows 2000/windows xp-re optimalizalt es mivel pc-n mar a legtobb uj gep sokkal nagyobb teljesitmenyu mint a konzolok, ezert csak a felbontast es a texturameretet kell megnovelni a jobb kepminoseghez.
"(pontosabban még nem oldották meg, hogy egy fél Paks-nyi erőforrás nélkül is lehessen elfogadható sebességet produkálni)."
Mar vannak real time raytracing chipek, raadasul low tech (lassu) xilinx programozhato logikai aramkorokon implementalva.
"GPGPU-hoz? Lényegében egy csomag technocol, egy proci és egy grafikus chip."
Csak par altalanos processzor, amin akar az os, a programok vagy a grafika is elfuthat. Ilyen pl. az intel larrabee vagy ennek egy/ket magos valtozata amit atom-nak hivnak. (tehat a kis netbook-ok gyakorlatilag egy szal gpu magon futtatjak a windows-t) Videokartya helyett boven eleg egy ramdac is, ami nem szamol semmit csak megjeleniti a memoriaban tarolt kepet a kimenet(ek)en. (az intel-es 'videokartyak' jo resze csak ilyen ramdac)
"Mindenesetre talán az egyik legérdekesebb/titokzatosabb csatája ez az új évezred számítástechnikai iparának"
Hatalmas csata. A kerdes az, hogy az nvidia meddig tudja megsporolni egy teljesen uj gpu mag kifejleszteset, mert semmi mast nem kell tenniuk, mint kidobni a gf8-as technologiat es kihozni egy ujat, amiben jobb az alu/branch egysegek szambeli aranya. Ha ez megvan, akkor 'megjelenik' a dx11-es teljesitmeny is. Ez mar tisztan penzugyi dontes es a marketingesek ugyessegen mulik. De technologiai kuzdelem itt igazabol nem zajlik. -
macseke #61 hmm, a fele lemaradt a közepéről.. hülye meló bezavart.. :)
szóval nekem igenis fontos a dx11, főleg hogy tényleg nem nagyítóval kell keresni a látványbeli különbséget, mint a dx9/10 között. -
macseke #60 nekem most nvidia kártyám van, mert azok a jobbak. előtte ati volt, mert azok voltak a jobbak. most megint úgy néz ki, atim lesz, mert azok lesznek a jobbak. aztán gondolom megint az nvidia jön ki valamivel, mert ez így szokott lenni - akkor meg megint azt veszek. szarom én le, mit mondanak egymásról, meg hogy az nvidia mit gondol a dx11-ről (amit szintén támogatni fognak nyílván, mert ennyire nem hülyék, csak addig próbálják az ati-eladásokat csökkenteni, hátha a vásárlók megvárják az nvidia kártyáit..), nekem
TNT2-m is volt, és tényleg azt a kártyát szerettem a legjobban eddig.. Szerintem az volt meg a legtovább, tényleg nagyon jó kártya lett.. -
Csak77 #59 "nVidia: nem fontos a DirectX 11"
Húha, bajban van a nVidia. Én egy teljesen laikus PC használó vagyok, de erre csak egyet tudok mondani; veszek inkább ATI-t, mert nekik meg fontos. -
rumkola #58 Ez jó:
" quote:
Games Will Leap Towards Photo-Realism With DirectX 1
-Microsoft, 1995
quote:
Games Will Leap Towards Photo-Realism With DirectX 2
-Microsoft, 1996
quote:
Games Will Leap Towards Photo-Realism With DirectX 3
-Microsoft, 1996 (again)
quote:
Games Will Leap Towards Photo-Realism With DirectX 4, wait oops, nevermind.
-Microsoft, never
quote:
Games Will Leap Towards Photo-Realism With DirectX 5
-Microsoft, 1997
quote:
Games Will Leap Towards Photo-Realism With DirectX 6
-Microsoft, 1998
quote:
Games Will Leap Towards Photo-Realism With DirectX 7
-Microsoft, 1999
quote:
Games Will Leap Towards Photo-Realism With DirectX 8
-Microsoft, 2000
quote:
Games Will Leap Towards Photo-Realism With DirectX 9
-Microsoft, 2002
quote:
Games Will Leap Towards Photo-Realism With DirectX 10
-Microsoft, 2006
quote:
Games Will Leap Towards Photo-Realism With DirectX 11
-Microsoft, 2009
"
:DDDDD -
FlyingV #57 SiS-t. -
FlyingV #56 nekem annyi hozzáfűznivalóm van, hogy hajrá OpenCL (lévén a Snow Leopard kapcsán jelent meg a techonlógia, így talán Apple-ék is leküzdik a 'kevés játék támogatja az oprendszert+vérpistikék=Mac szar, mert semmire sem lehet használni és így meg qrvadráganemérimegapénzét" trollokat.
viszont az nV-Ati párharcban szerintem sok olyan info van, amit nem dobtak be még abba a kalapba, amiből egy átlag netező ki tudja magának válogatni az őt érdeklő érdekességeket? hogy értem?
az nV toronymagasan piacvezető volt, az Ati csak küszködött. Ez a helyzet a GF8xxx és Radeon HD2xxx széria környékén kezdett megváltozni. Az én meglátásom szerint akkor kétfelé vált a két cég taktikája: az nV elkészített egy iszonyat bonyolult, drága (mind tervezés, mind gyártás szempontjából) chip-et, ami a jól bevált technológiára épült, és a felépítéséből adódóan borzasztó erőt képviselt, lényegében máig ebből élnek. az Ati viszont a többet ésszel, mint erővel elv alapján a technológiára gyúrt, nem annyira az erőre, mint az újabb technológiák (DX 10, 10.1, 11) kiaknázására koncentráltak, a DX9 óta ugyanis annyiban mindenképpen változott a helyzet (amennyire én tudom), hogy sok függvényt optimalizáltak, így egy DX10-es kártya bizonyos esetekben ugyanazt 'szebben', kevesebb erőforrás felhasználásával képes kiszámolni, mint DX9-es társa (jó béna fogalmazás, vágom).
nekem mindig 2 dolog jut ilyenkor eszembe: a piacot vezető nV fejesei nemtomén hány évvel ezelőtt miért döntöttek úgy, hogy hagyják a levesbe az asztali GPUkat? mi történhetett, hogy a rengeteg felhalmozott pénzt nem költötték el DX 10 (majd 10.1, most ugye 11) kompatibilis kártyák fejlesztésére? erre 2 féle válasz lehetséges: az egyik az, hogy a mostani konzolok is régebbi vasat használnak, így teljesen felesleges herdálni a vagyont, ha már rég elérték, sőt túl is lépték azt a szintet, amit egy konzol tud. merthogy az egy dolog, hogy milyen kártyának felel meg pl egy XBOX-ban lévő GPU egy asztali PC szempontjából, úgy tűnik, a számítógépek esetében el kell telnie 1-2 generációnak, amíg felérnek egy újgenes konzol képi világához. miért? mert PC-n nem akkorák az eladások, így nincs is érdekükben pénzt költeni a játékfejlesztőknek a legköltségesebb fázisra: az optimalizálásra. Így mindig nagyobb teljesítmény kellhet majd egy PCn ugyanazon grafikához. A másik lehetőség meg igenis a ray-tracing divatbakerülésére lesz, jelenleg ez a legnagyobb kutatási területe ha jól tudom a számítógépes grafikának (pontosabban még nem oldották meg, hogy egy fél Paks-nyi erőforrás nélkül is lehessen elfogadható sebességet produkálni). Emellett az is szólhat, hogy az intel-féle, mostanában a látókörből kicsit kikerült új videokari is ennek a technológiának az előszele lehet. Most eszembe jutott egy harmadik eshetőség is: lassan a megjelenítésben a következő fejlesztés bizony mi is lesz? 3D-s megjelenítők?? :)
A másik lehetőség is lényegében ugyanez, csak pepitában. Mert mi is kell egy GPGPU-hoz? Lényegében egy csomag technocol, egy proci és egy grafikus chip. Technocol-t lehet venni a sarki ABCben is. Grafikus chip van, készül is a következő gen ugye. Mi hiányzik? Van bizony az ABC-ben proci is, csak hát annak a licencelés-e körül van zűr... Véleményem szerint az elmúlt pár évben az is elképzelhető, hogy a 0-ról, még pont időben (RT még odébb van, egy processzor fejlesztése kb 5 év) elkezdtek valami központi magot tervezni.
Aztán ki tudja? Lehet csak megunták a melót és életük végéig Hawaii-on szürcsölik a lány... koktélokat, amit meg el tudnak adni, azt eladnak. Mindenesetre talán az egyik legérdekesebb/titokzatosabb csatája ez az új évezred számítástechnikai iparának, legalábbis jó szórakozás néha elgondolkodni azon, hogy a nagyközönséghez eljutott információk alapján mire lehet következtetni. Mert szvsz itt valamit valaki(k) titkol(nak) előttünk :) -
Grifidos #55 "nVidia: nem fontos a DirectX 11"
Felhasználók: nem fontos mit mond az nVidia, veszünk mást. -
turul16 #54 Na es melyik gyarto tud OpenGL 3.2 -t tamogatni ? -
#53 "Szóval ha a CUDA tényleg 3x gyorsabban konvertál, lehet számításba kéne venni"
Ha általános felhasználásra gondolsz, akkor pl videotömörítésre a CUDA és az ATI Stream is sokkal (nem 3x hanem több) gyorsabb mint egy CPU. -
waterman #52 a dx11-es compute shader ahhoz jó, ami masszívan párhuzamos programszervezést tesz lehetővé. az hogy játékokban AI-t, meg fizikát számolni is jó lesz, az egy dolog, de hány DX alapú szolgáltatása van eleve a windóznak, ami nem játékhoz kell? másra is lehet használni, lehet akár valamilyen kiszolgáló, ahol sok kis terhelésből jön össze a szumma terhelés (i/o műveletekre is jó lesz), lehet ez videó kódolás/dekódolás, videó visszajátszás rettentő nagy felbontásokra nagyítása, fotószerkesztéshez is jól jön majd, ha támogatják a programok, etc. annyi a különbség az opencl-hez képest, hogy ez win specifikus, az opencl-t meg a legtöbb os alatt használni lehet majd, ahol a támogatását megoldották. pl linux alatt mesa vagy gallium3d szintjén a jövőben.
tehát ez nem csak játékokhoz lesz jó. pl egy folding@home, vagy boinc kliens dx11/openCL támogatással elég komoly kapacitás növekedést hozhatna, ha a cpu terheléséről áttérnének a gpu használatára. -
tomcsa4 #51 ratata22: ha nem nyugodsz le, le ratatatázlak. :)
Nekem a Vista is nagyon tetszett és a Win7 is nagyon tetszik. Igaz Win7 valóban sokkal jobb (netbookra is tehető, ráadásul a többszálúságban jobb, mint a Vista).
De tudom kurva sok helyet foglal, ellenben a legtöbb Linux disztribbel. Bár egy-egy lite verzió (nem buherált, gyári lite) nem foglal annyit (lást a Win7 verziók alsó 2-3 szereplőjét).
Ja meg írtál a DX-ről is. MS állítása szerint nem lesz több, mivel nincs hova fejlődni. Betekint a voxel, utána meg nem tudom.
Ja, ehhez: real-time Ray-Trace - még nincs megfelelő hardver. -
tomcsa4 #50 Minden pontod minden mondatának minden szavával egyet értek!
Valóban ez volt, ahogy leírtad. Emiatt tartunk itt. De látod vannak még hülyék ,akik NV seggét nyalják. Ezekből a vérpistikékből simán meg lehet élni. -
#49 Ezek mellet ha elvileg könyebb a fejlesztőknek dx10-11-re témázgatni alapból váltani kell, 15ért lehet venni életképes ati kártyát, szóval nem értem miért kell ilyen csőlátásunak lenni. -
#48 Istenem ments meg!! Felejtsétek már el azt a kurva xp-t!! A vista egy rakás szar, de az xp-hez képest még azis egy istencsászár oprendszer volt! Érdekes módon win7el hónapok alatt 1darab kékhalálom sem volt, 1xsem fagyott a rendszer, ez xp-vel rendszeresen előfordult. Persze tudom, nem értek hozzá. -
sanner011 #47 Most jön a Win7. Jó lett, nagyon jó. Népszerű már most, és az is lesz. Megéri majd fejleszteni alá. DX11 alá. Az nV meg vagy támogatja a DX11-et, vagy megy a levesbe az asztali VGA-piacon, és ez TÉNY. Nagyon jó dolog a GPGPU. Kár hogy van rá nyílt szabvány, az nV kitörölheti a popsiját a CUDA-val. Itt már nem fog menni az, hogy megkenegetünk minden fejlesztőt, hogy a kis ződ logónkkal induljon a játék, ATI-soknak meg lehetőleg szaggasson a fejlettebb architektúrán. Ja meg GPGPU.
Nem nagyon vagyok tisztában a dolog teljes technikai hátterével, de a lényeget értem. Ha most elkezdenek nyomulni GPGPU-fronton, játékokkal.. akkor a konzolok is CUDA-kompatibilisek lesznek? Ne röhögtessük már ki magunkat...
Pontosan az van, amivel már példálóztak lejjebb. Mint a 3dfx mikor bizonygatta hogy jaj de jó a 16bit rendering, meg az nV, meg az intel az x64-gyel szemben anno... Fejleszteni kellett volna a bevételből, nem kiadóknál házalni, és hátráltatni az egész PC-ipart. Személy szerint az utolsó nV kártyám egy TNT2 volt, bitang jó kis kártya volt... Azóta sem jöttek ki semmivel ami a nyomába érhetne annak, amit az akkor végbevitt.
Elcsépelt, de akkor hajrá ATI. Sokkal szimpatikusabban viselkedő cég, remélem az 5xxx-es széria jól sikerül, és a meghajtók is kiforrják magukat, mire megjelenik a W7. -
#46 Hotllod meg a tököm tudja hány alreged van még:
1. semmi köze a ciknek a windowshoz
2. semmi köze a cikknek a win 7-hez
3. haználtam pistát és win 7-et(most már msdnas win 7 profom van) marhára nem ugyan azt a teljesítményt adja a 2 ua.-on a hardveren.
4. Trojai, szóval még hiszel az esti mesékben azok után, hogy pl Francia országban, ha a hadopi szervezet csentit egyet te mész börtönbe vagy leszel évekig netnélkül... Tudom TOR!!!! ahham tudod olyan kapcsolat nincs amit, ha nagyon akarnak nem tudnak visza nyomozni, bocs van, offlinenak hívják...
5. A win 7 bukás lenne ? Nos erre majd 1 év után visszatérünk! -
#45 "Egy esetleges Windows7 bukás esetén a fejlesztők egy része inkább elmegy Linux és OpenGL alá fejleszteni, mint DX12 és Windows NG (Next Generation) alá."
A Winfos 7 az már most megbukott, hiszen a Microsoft elmondasa szerint is a csúfondárosan megbukott Visztára épül, és ahelyett, hogy a fejükhöz kaptak volna, hogy a máig toronymagasan vezetö WinXP-re downgrade-eltek volna, ahelyett tüzzel-vassal ragaszkodtak a szaros visztájukhoz, amibe már kiirthatatlanul bele van integrálval a trójai megfigyelörendszerük. így jár az aki makacsul és csökönyösen ragaszkodik a hülyeségeihez. -
billxxx #44
mujahedin kolegának igaza van.A vistában sok a jó újítás.Főleg biztonsági szinten....... -
billxxx #43 Az Nvidia-nak teljesen igaza van.Még teljesen felesleges,amikor az emberek zöme még a dx7-9 es kártyáknál tart.Még ha vistája vagy win 7-ese is van akkor is dx9 es kártyák vannak bent.Na persze a fő célpontok a gyerekek.....És ezáltal is a szülők.De ez korrekt az Nvidiától........És jó marketing az Ati ellen,meg jó indok arra hogy mért nem kell dx 11-es kártya.De mindettől függetlenül végre "fékez"valaki a hardver piacon... -
readswift #42 cool story bro. -
mujahedin #41 Azért van kevés dx10 játék, mert:
- a sok minekvistalassúszar xp-ajó userektől (akik a szomszéd pistike tapasztalatai alapján ítélték meg a vistát, és halvány lila gőzük nincs az újításokról, viszont a 7-et nagy újításnak tartják, mikor annyi benne az újítás hogy nyugodtan egy 3. vista service packnak is lehet venni, és kiszedtek belőle pár fölösleges dolgot, amit egy vistából is ki tud bárki egy vlite-al, vagy winpe-vel), és így alkalmazkodni kell az elmaradott os-hez
- és az eleinte beharangozott, dx10-ként hirdetett, és kamu dx10 módos TISZTÁN dx9-es játékok miatti csalódottságból(krárszisz, vicc szimulátor x, stb) adódó "szar a dx10 minek az" mentalitás miatt, és amiatt hogy a szarozóknak halvány lila gőzük nincs az újításairól
- és mellesleg az nvidia ellenpropagandájának, ami a dx10.1-nél egyértelmű miért volt, dx10-nél meg azért volt (csöndben, játékfejlesztők zsebébe csúsztatott pénz formájában), mert bár verték magukat a dx10-re hogy igen nekik megy, nem ment az olyan jól. Pl a 9-es és 8-as széria rendkívül gyenge volt a dx10-hez tartozó geometry shader teljesítményben, így ugye nem lett volna nekik jó ha azt használják, mert lemaradtak volna az ati-val szemben.
Lehet hogy pár hülye szerint nincs értemle a dx10-nek 10.1-nek és 11-nek, de én köszönöm nem kérek az olyan extrém nagy gépigényű, gépigényükhöz képest csúnyácska játékokból mint mondjuk az nfs shit, vagy a gta4, csak mert egyesek nem képesek túllépni a pazarló rendermódszereken, mint a dx10 előttiek. -
readswift #40 100%-osan igaza van az Nvidianak , én megértem hogy az ATInak kell a pénz ahhoz meg a microsofton keresztül vezet az út ... ugye arra sem emlékszik senki sem hogy épp milyen gfx van az xboxban ? -
readswift #39 szerinted nem arra gondol hogy grafika helyett azért vegyél SLI-t hogy legyen rendes hang pl? Szerinted nem igényel többletteljesitményt a hang ??? : DDD
(egy egész kártyát meg fog enni , reggelire)
-
Ahoy #38 Szerintetek videókonvertálásra érdemes még Nvidiát venni? Egy progi 3x gyorsabban konvertál CsUDA-val, ha lehet hinni a reklámnak... Vagy inkább DX11-es kártyát vegyek compute shaderrel vagy majdani OpenCL? Vagy ATI Stream ami már az eddigi kártyákban is volt. Igazából nemvágom nagyon, ilyenkor 100%-on kihajtja a GPU-t, vagy csak bizonyos részeit? Még mindig az a bajom, hogy kevés ilyen programot találni, ami egyáltalán használná.
Szóval ha a CUDA tényleg 3x gyorsabban konvertál, lehet számításba kéne venni -
ozric #37 "pont a dx11-es compute shader megvalósítása az ami gpgpu-vá tehetné a kártyáikat. ha erre mindenki rájönne, akkor nem kellene a francnak sem a cuda, meg a phisix, mert esetleg gyártófüggetlen kódokat lehetne írni?"
A DX11-es compute shader csak játékokhoz jó, általános GPGPU-hoz nem. Viszont van normáis gyártófüggetlen megoldás, az OpenCL. Az ATI és az nVidia egyaránt támogtja.
OpenCL -
ozric #36 Valójában sem az nVidia sem az ATI nem vétkes a DX10 játékok viszonylag alacsony száma miatt. Mivel a Vista részesedése történelmi mélyponton van (nincs még egy Windows amelyiknek ilyen alacsony részesedése lenne az utód megjelenésének pillanatában) nem lehet tisztán DX10-es játékokat fejleszteni a Windows XP felhasználói tábor miatt. A kettős DX9/DX10 fejlesztés meg több időbe és pénzbe kerül. Garantáltan sikeres lenne a DX11 ha XP és Vista alá is kiadnák, vagy a Windows 7 az egekbe törne. Egy esetleges Windows7 bukás esetén a fejlesztők egy része inkább elmegy Linux és OpenGL alá fejleszteni, mint DX12 és Windows NG (Next Generation) alá. -
whitehawk #35 Annak idején a 3dfx is megindokolta, hogy miért elég a 16 bites színmélység... (voodoo3 bevezetésekor, amikor a riválisok már 32 biten is tudtak renderelni) :D -
ozric #34 "A cég vezetőnek meggyőződése, hogy a különleges, minden eddiginél látványosabb grafikai elemek és effektek megjelenése, valamint a lóerő puszta növelése helyett a hibrid felhasználás kapja a főszerepet. (...) a cég az olyan saját megoldásokra helyezné a hangsúlyt, mint amilyen a CUDA, a Stereo 3D Vision, illetve a PhysX."
A döglött egér csak alszik - áll az nVidia vezető nyilatkozatában. Ugyanis a grafika mellett a GPGPU (CUDA: MI, video, 3D hang, stb gyorsítás) a sztereo 3D (egy helyett kettő, térben eltolt képet számít ki a kártya), és a PhysX (3D geometria effektek: pl. víz, robbanás, ruha mozgása) többlet szolgáltatások
1. nem igényelnek többlet teljesítmény igényt és
2. nem nyújtanak különleges, látványosabb audiovizuális élményt.
Legalábbis az nVidia mai álláspontja szerint. Szegény egér még mindig alszik... -
readswift #33 pont az nv demózta a compute shadert oceánfelszinnel szal aki el van tévedve az pont te vagy.
http://faculty.uoit.ca/kapralos/publications/cowanKapralos_wespac2009_gpu.pdf
amúgymeg ilyet kell csinálni nem directxet, szal megintcsak le vagytok szarva. -
#32 Bizony, ez már ki lett tárgyalva. Az, hogy hogy az a kevés is milyen stílust fed le az meg végképp a nonszensz kategóira. Két év alatt kb. 30 játék és az sem mind fullos DX10. Ez a vicckategória. Ha majd minden fő stílusirányból havonta egy DX10 jön ki - kivéve repszim - akkor majd DX10 korszakot lehet hirdetni. Még DX9 van mindig és még arra sem tudnak rendesen optimalizálni. -
cateran #31 Meg az apad faszat...tudod ki hazudik kiskocsog...
a roppant sok dx10-es jatek -
cateran #30 Ja,biztos ez lehet az oka..... -
Mcsiv #29 "Bár talán a 2 kezem már nem lenne elég összeszámolni a DX10-es játékokat,de azért még mindig rohadt kevés van belőlük...."
Talán azért mert az nv még nem volt képes felzárkózni az ati mögé, így nincs potenciál a fejlesztők részéről az új technológia használatát illetően. -
Zoliz #28 Ez nem igaz, sőt hazudsz. Rengeteg DX10-es játék van, az Assasin Creedtől kezdve a Tom Clancy: Hawk, Cryostasis-on keresztül az új Call Of Juarezig.. Mindegyik sokkal szebben fest DX10-en és még gyorsabban is fut, pláne DX 10.1 módban.
Az NVIDIA egy fostalicska cég, sose szerettem.