Eltérő célokat fogalmazott meg az Nvidia és az ATI

Jelentkezz be a hozzászóláshoz.

hornbali
#25
A cikkhez kapcsolódóan pedig sztem az Nvidia ötlete jobbnak tûnik, miszerint legyen külön vertex és pixel shader feldolgozó de azok gyorsak legyenek, ám ha a DirectX10 az univerzális shadereket támogatja akkor inkább legyen az. Ne legyen 2 szabvány...

hornbali
#24
Az N48-at már azóta ismét tervbe hozta, bár sztem fölösleges.

hornbali
#23
Én már több helyen is olvastam hogy az NV47 nem létezik, de bár ne lenne igazam 😄

#22
"Szintén a következõ év második negyedévében mutatkozhat be az NV48, míg az NV50 kódnevû processzort egyelõre sûrû homály fedi."
Hmmm. Ez meglehetõsen ÉRDEKES infó, pláne annak fényében, hogy vagy 5-6 hetes hírek szerint mindkettõt törölte az NVidia!

#21
Hogy õszinte legyek nekem mindegy, hogy hogy csinálják, csak mi userek profitáljunk belõle. A nyilatkozatokkal csak annyi a bajom, hogy semmit nem mondanak csak elejtenek egy kis technikai szöveget, aztán ködösítenek.
[HUN]PAStheLoD
#20
persze hogy egybõl leugatta , de attól még jó ötlet lehet, csak nehogy az ATI hamarabb jöjjön ki ezzel a fasza ötlettel , és ha esetleg mégis hamarabb jön ki, ami elképzelhetõ, akkor kisebb legyen a hasznon .. negatív kapmány . persze az , hogy az ötlet beválik-e .. majd kiderül .. szerintem lesz monjuk 30% vertex 30 % pixel meg 40% univerzális shader 1 kártyán .. és akkor kecske is meg káposzta is .. szerintem ;]

hátö .. az előző aláírásom sokkal jobb volt :]

[HUN]PAStheLoD
#19
OpenGL-t a linux miatt támogatják akik támogatják ... és a directX 10 pedig már túlmutat rajta .. csak hát m$ only a dolog :/

hátö .. az előző aláírásom sokkal jobb volt :]

arty
#18
hát inkább legyen EGY szabvány, nemtom ti emlékeztek e a GLIDE/3DFX idõre, nekem éppen voodoom volt akkoriban, de akinek nem, pár játékbol kimaradt 😊

NE legyen 2 irány, legyen egy directx10, támogassa mindenki azt ... vagy OGL, csak sajna ott a szervezetben már nincs erõ ... 😞

Forza.

#17
Azért elég nagy kockázatot válalt az AMD, mert ha nem jött volnabe az új procija, csõdbement volna (jelenleg ez nem valószínû <#vigyor1>).

ilyen feltételek mellett nem éri meg... ez az egész nem tetszik.. ..-ohh.. már látom a fényt az alagút végén!.. -te h*lye.. az csak a vonat!...

#16
(Na nem mintha a MS tudná a tutit, csak épp az FX nem igazán illeszkedett a DX9-hez.)

#15
Viszont az nVidia is megjárta már legalább 1x, hogy nem hallgatott a MS-ra (FX).

#14
Sajna ugy látszik, ahogy mondod, de már láttam frankó játékokat amely Linuxon kiváloan futnak, mert éppen OpenGL játékok....szoval ATI körültekintöbb kellene legyen, és ne szolga modra kövessen. Épp az AMD esete a bizonyiték erre...kilépett az Intel árnyékábol, mert volt bátorsága körülnézni a piaci igényre.....

Tuborgs are better than one... two beers or not two beers?..thats the question :)

[NST]Cifu
#13
Szvsz az ATi úgy véli, hogy nincs szükség csúcs Linux támogatásra, mivel a drágább (ie.: gyorsabb) videókártyákat úgyis a gamerek veszik, márpedig a játékok windóz alá jönnek ki fõleg, és a játékosok 99%-a (pesszimista becslés) windóz alatt is játszik.
Nem vagyok nagy M$ fan, de azt még én is belátom, hogy egyelõre az M$ diktál, és az ATi már 1x ráfázott erre (az elsõ Radeon-ok shader esete...).

A csapatmunka roppant fontos: rajtad kívül másra is l?hetnek!

Benedekco
#12
a microszoft elég hülyén gondolkodik hardver téren, és aki ezt nem így gondolja az nézze meg a longhorn minimum config-ját! és ha arra az a válasz hogy" Ó addigra ezek a mai gépek csak elavúlt szarok lesznek" akkor arra azt mondom hogy 1 oprendszer ne zabáljon meg reggelire 1 giga ramot és 3GHz procit és fõleg ne akarjon 40gigában letelepedni, a minimumdx9-rõl ne is beszéljünk! az ati lóvét akar és úhgy látja hogy a lóvé a microszoftverben van... vagy valami ilyesmi lehet...

Mé há nem?

#11
A Microsoftnál megint úgy gondolják, hogy elég gyorsak már a cuccok ahhoz, hogy kicsit kisebb hatékonysággal használva õket (az univerzálisabb kevésbé specializált egy dologra) lehet egyet lépni a kényelmesség felé. Legalábbia jó marketing-alap a dolog.

#10
Én csak azt látom, hogy az ATI kimondottan Microsoft párti....tehát amit mondanak ott, azt követik. Szerintem kellene máshová is figyelniük, mert nagyon egyoldaluvá teszik ezt a windows támogatást....Linuxra nagyon gyenge támogatás van, és mivel nagy teret nyer a Linux annál többen játszanak ez op rencer alatt. Köztudott hogy nVidia jobban támogatja a linuxot driverekkel, szoval, jelenlegi helyzeti elöny könnyen veszthetö, ha ilyen modon folytat fejlesztést.

Tuborgs are better than one... two beers or not two beers?..thats the question :)

#9
Nem tudom ki hogy van vele, de nekem az eddig is 1értelmû célon (a pénzen) kívûl nem igazán derült ki semmi új. Az ati elõjött egy ötlettel, hogy mi az amit változtatni kellene az nvidia reagált hogy szar ötlet, de a következõgenerációs kártyákról nem sok mindent mondtak.
#8
Saját értelmezésem:

Az "unified shaderek" azért jók, mert nem marad kihasználatlan shader. Ha sok geometriát kell számolni, akkor akár az összes shader vertex shaderként viselkedik, máskor meg mindegyik pixel shaderként viselkedik.

David Kirk meg arról beszélt, hogy ha az unified shader vertex shader programot hajt végre, akkor pipeline nagy része nem dolgozik. (Túl sok kihasználatlan szakasz a pipelineban rontja a teljesítményt, ld. Northwood vs Prescott)
#7
Valakinek meg más
#6
Nekem az Nvidia tetszik jobban. ennyi
#5
igen , csak bizonyos helyzetekben az egyik megoldás a jobb , másik esetben meg a másik

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?&#8221; (McSzéchenyi)

#4
Hát figyelj, az egyik a korlátozott erõforrások optimális kiaknázásáról beszél, a másik meg erõforrás-pocsékolásról (kihasználatlan hardver).

Depending on the chatter, the definition of "lol" may vary. For example: "I have nothing worthwhile to contribute to this conversation."

#3
Szerintem meg Garfieldnak van igaza. A két álláspont valóban ellentomdásosnak tûnik laikus szemmel. Nyilván csak így tûnik... Bizonyára a nagyfejesek is tudják mit beszélnek, de ködösíteni azt mindenki szeret. <#gonosz3>
#2
senki, mindegyik igazat mond, csak az egyik a sebességet helyezi elötérbe a másik meg a inkább felhasználobarátibb technologia

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?&#8221; (McSzéchenyi)

#1
egyrészt a grafikus kártya korlátozott erõforrásait dinamikusan, az alkalmazás igényeinek megfelelõen lehetne megosztani a pixel és shader egységek között

Tehát ha ugyanazon pixel shader egységgel végeztetnénk a vertex számításokat, a hardver legnagyobb része kihasználatlan maradna.

Most akkor ki hazudik?

Depending on the chatter, the definition of "lol" may vary. For example: "I have nothing worthwhile to contribute to this conversation."