25
-
#25 A cikkhez kapcsolódóan pedig sztem az Nvidia ötlete jobbnak tűnik, miszerint legyen külön vertex és pixel shader feldolgozó de azok gyorsak legyenek, ám ha a DirectX10 az univerzális shadereket támogatja akkor inkább legyen az. Ne legyen 2 szabvány... -
#24 Az N48-at már azóta ismét tervbe hozta, bár sztem fölösleges. -
#23 Én már több helyen is olvastam hogy az NV47 nem létezik, de bár ne lenne igazam :D -
Inquisitor #22 "Szintén a következő év második negyedévében mutatkozhat be az NV48, míg az NV50 kódnevű processzort egyelőre sűrű homály fedi."
Hmmm. Ez meglehetősen ÉRDEKES infó, pláne annak fényében, hogy vagy 5-6 hetes hírek szerint mindkettőt törölte az NVidia! -
muerte2 #21 Hogy őszinte legyek nekem mindegy, hogy hogy csinálják, csak mi userek profitáljunk belőle. A nyilatkozatokkal csak annyi a bajom, hogy semmit nem mondanak csak elejtenek egy kis technikai szöveget, aztán ködösítenek. -
#20 persze hogy egyből leugatta , de attól még jó ötlet lehet, csak nehogy az ATI hamarabb jöjjön ki ezzel a fasza ötlettel , és ha esetleg mégis hamarabb jön ki, ami elképzelhető, akkor kisebb legyen a hasznon .. negatív kapmány . persze az , hogy az ötlet beválik-e .. majd kiderül .. szerintem lesz monjuk 30% vertex 30 % pixel meg 40% univerzális shader 1 kártyán .. és akkor kecske is meg káposzta is .. szerintem ;] -
#19 OpenGL-t a linux miatt támogatják akik támogatják ... és a directX 10 pedig már túlmutat rajta .. csak hát m$ only a dolog :/ -
#18 hát inkább legyen EGY szabvány, nemtom ti emlékeztek e a GLIDE/3DFX időre, nekem éppen voodoom volt akkoriban, de akinek nem, pár játékbol kimaradt :)
NE legyen 2 irány, legyen egy directx10, támogassa mindenki azt ... vagy OGL, csak sajna ott a szervezetben már nincs erő ... :( -
GABOR16 #17 Azért elég nagy kockázatot válalt az AMD, mert ha nem jött volnabe az új procija, csődbement volna (jelenleg ez nem valószínű ). -
dez #16 (Na nem mintha a MS tudná a tutit, csak épp az FX nem igazán illeszkedett a DX9-hez.) -
dez #15 Viszont az nVidia is megjárta már legalább 1x, hogy nem hallgatott a MS-ra (FX). -
the Godfather #14 Sajna ugy látszik, ahogy mondod, de már láttam frankó játékokat amely Linuxon kiváloan futnak, mert éppen OpenGL játékok....szoval ATI körültekintöbb kellene legyen, és ne szolga modra kövessen. Épp az AMD esete a bizonyiték erre...kilépett az Intel árnyékábol, mert volt bátorsága körülnézni a piaci igényre..... -
#13 Szvsz az ATi úgy véli, hogy nincs szükség csúcs Linux támogatásra, mivel a drágább (ie.: gyorsabb) videókártyákat úgyis a gamerek veszik, márpedig a játékok windóz alá jönnek ki főleg, és a játékosok 99%-a (pesszimista becslés) windóz alatt is játszik.
Nem vagyok nagy M$ fan, de azt még én is belátom, hogy egyelőre az M$ diktál, és az ATi már 1x ráfázott erre (az első Radeon-ok shader esete...). -
#12 a microszoft elég hülyén gondolkodik hardver téren, és aki ezt nem így gondolja az nézze meg a longhorn minimum config-ját! és ha arra az a válasz hogy" Ó addigra ezek a mai gépek csak elavúlt szarok lesznek" akkor arra azt mondom hogy 1 oprendszer ne zabáljon meg reggelire 1 giga ramot és 3GHz procit és főleg ne akarjon 40gigában letelepedni, a minimumdx9-ről ne is beszéljünk! az ati lóvét akar és úhgy látja hogy a lóvé a microszoftverben van... vagy valami ilyesmi lehet... -
dez #11 A Microsoftnál megint úgy gondolják, hogy elég gyorsak már a cuccok ahhoz, hogy kicsit kisebb hatékonysággal használva őket (az univerzálisabb kevésbé specializált egy dologra) lehet egyet lépni a kényelmesség felé. Legalábbia jó marketing-alap a dolog. -
the Godfather #10 Én csak azt látom, hogy az ATI kimondottan Microsoft párti....tehát amit mondanak ott, azt követik. Szerintem kellene máshová is figyelniük, mert nagyon egyoldaluvá teszik ezt a windows támogatást....Linuxra nagyon gyenge támogatás van, és mivel nagy teret nyer a Linux annál többen játszanak ez op rencer alatt. Köztudott hogy nVidia jobban támogatja a linuxot driverekkel, szoval, jelenlegi helyzeti elöny könnyen veszthetö, ha ilyen modon folytat fejlesztést. -
muerte2 #9 Nem tudom ki hogy van vele, de nekem az eddig is 1értelmű célon (a pénzen) kívűl nem igazán derült ki semmi új. Az ati előjött egy ötlettel, hogy mi az amit változtatni kellene az nvidia reagált hogy szar ötlet, de a következőgenerációs kártyákról nem sok mindent mondtak. -
Geza ba #8 Saját értelmezésem:
Az "unified shaderek" azért jók, mert nem marad kihasználatlan shader. Ha sok geometriát kell számolni, akkor akár az összes shader vertex shaderként viselkedik, máskor meg mindegyik pixel shaderként viselkedik.
David Kirk meg arról beszélt, hogy ha az unified shader vertex shader programot hajt végre, akkor pipeline nagy része nem dolgozik. (Túl sok kihasználatlan szakasz a pipelineban rontja a teljesítményt, ld. Northwood vs Prescott) -
L3oN #7 Valakinek meg más -
L3oN #6 Nekem az Nvidia tetszik jobban. ennyi -
Vers #5 igen , csak bizonyos helyzetekben az egyik megoldás a jobb , másik esetben meg a másik -
Garfield #4 Hát figyelj, az egyik a korlátozott erőforrások optimális kiaknázásáról beszél, a másik meg erőforrás-pocsékolásról (kihasználatlan hardver). -
Diocles #3 Szerintem meg Garfieldnak van igaza. A két álláspont valóban ellentomdásosnak tűnik laikus szemmel. Nyilván csak így tűnik... Bizonyára a nagyfejesek is tudják mit beszélnek, de ködösíteni azt mindenki szeret. -
Vers #2 senki, mindegyik igazat mond, csak az egyik a sebességet helyezi elötérbe a másik meg a inkább felhasználobarátibb technologia -
Garfield #1 egyrészt a grafikus kártya korlátozott erőforrásait dinamikusan, az alkalmazás igényeinek megfelelően lehetne megosztani a pixel és shader egységek között
Tehát ha ugyanazon pixel shader egységgel végeztetnénk a vertex számításokat, a hardver legnagyobb része kihasználatlan maradna.
Most akkor ki hazudik?