Bízik grafikus chipjeiben az nVidia

Jelentkezz be a hozzászóláshoz.

#17
" Lehet, de az asztalodon nem egy 333mhz-es gép van most, hanem ennek sokszorosa. A jövõben amikor egy chipben lesz egy mai csúcsgép, és ez tolja a pda-kat, akkor az asztalodon annak sokszorosa lesz megint. "

egyetlen apróságot kihagytál a logikádból. a teremnyi méretû elektroncsöves monstrumokat lenyomta egy 0.8 mhz-s 8008-as. nemcsak a mérete lesz kisebb, hanem közben a teljesítmény is nõ. viszont, ahogy feszegetjük a technológiai határokat, úgy lassul a fejlõdés is. ez az egyik. a másik, hogy általános munkavégzésre bõven elég egy mai energiahatékony chip, az elfér egy apró dobozban az íróasztal sarkán a dossziékupac alatt. tehát a jövõben én azt mondom el fognak tûnni a nagy doboz számítógépek. elõbb utóbb kihalnak az optikai meghajtók, (én speciel már csak telepítéshez használom manapság is, semmi másra). aztán jönnek majd a 2,5" ssd-k, meg bedobják a gpu mellé a chipkészlet maradékát is a cpu-ba. és így lesz pda-alaplap méretû a mostani gép, elfér majd az egész a monitor hátulján. aztán meg még késõbb elfér majd az egész egy 5 centesen és akkor már az emberi agyakba fogják rakni az egészet co-processzorként... 😊

\"The voices are back... Excellent.\"

Carbuncle
#16
Már megin' csak a konkurenciát köpködik, de most csak hátulról lehet, mivel lemaradtak picit: "Nem hisznek ugyanakkor a kétchipes grafikus kártyákban".

-Ha lenne annyi pénzem, most megvenném a 4870X2 -t abban az árban is, ahogy adják. -Ugyanis ami elbánik a Crysis magas felbontású textúráival is, annál már nem kell jobb kártya (akár évekig se -> csak azért nem írtam, hogy 6-8 évig, mer' ugyebár nyakunkon a DX XI).

#15
Inkább DX10.1 ... sebesség és minõség szempontjából nem árt ha párhuzamosan leeht számolni a Cube map tömböket.<#vigyor2>

#14
Az RT-nek különféle szintjei vannak a valósághûséget illetõen. Egyszerûbb megvalósításban nem olyan valósághû, mint egy mai GPU-s megoldás. Igaz, a tükrözõdések könnyebben lesznek vele valósághûbbek.

#13
A mai GPU-k nem túl optimálisak RT-re.
(Pl. egy Cell legyorsul egy GT280-at <1 TFLOPS?> RT-ben.)

Akkor mégsem érted az RT lényegét. Nem a fényforrásból követik a sugarakat (mert ahhoz iszonyú sok sugár kellene, hogy a képernyõ minden pixelére jusson, ráadásul több is), hanem a (virtuális) képernyõ pixelei felõl. (Így a korrekt neve ray-backtracing kellene legyen. 😊 ) Ha pixelenként 1 sugarat követnek vissza, akkor ugyanúgy aliasos lesz.

#12
ALU != mag. Egy magban sokminden más is van, nem csak ALU-k.

#11
"Egyébként ha jól értem az rt mûködését, ezzel az aa is szükségtelenné válna, mert nem aliasolódna a kép."

Elvileg gyakorlatlag az egy pixelre esõ fénysugarak számától függ.

Sanyix
#10
és mi lenne ha gpu ra is megírnák, és akkor nem kéne 664 db processzor csak egy quad cf hd4870 x2 kéne 😄

Egyébként ha jól értem az rt mûködését, ezzel az aa is szükségtelenné válna, mert nem aliasolódna a kép.

Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)

#9
Úgy tudtam azt bizonyps Quake3 demót 20 db AMD Opetron 64-el számoltatták. Mellesleg DX10-el már globális illuminációt is csinálhatsz, ami még a ray-tracen is messzemenõen túl tesz realitást tekintve.

#8
A Ray trace problémája a felbontás. A teljesítmény igény lineárisan nõ a felbontással.
A Quake III programot megírták real time ray trace technológiával, de csak 640x480 felbontásban tudták futtani, ha jól emlékszem 2x4 magon.

Egy elfogadható felbontás az 1080p. Ez 6-szor több képpont, mint a 640x480, tehát 6-szor több teljesítmény kell neki.

De ha elkészítenek egy ray trace gyorsító magot, akkor szvsz. ez csökkenthetõ.
#7
Most is marha nagy a számításigénye. Azért egy mai játékban erõsen dinamikus jelenetet kell leképezni, erre még normális térrendezés mellett sincs megfelelõ erõforrás. Majd ha jön 6 év múlva egy 96 magos Larrabee akkor reálisan el lehet gondolkodni a dolgon.

grebber
#6
VGA-k eltünése még nagyon a jõvõ zenéje kár is szót fecsérelni rá most!

Next PC upgrade: 2022

#5
A GPU-k kora a DirectX-el és a shaderekkel együtt lassan elmúlik, már megjelent a trónkövetelõ, a real time ray trace.

Ez a technológia jobb minõségû képet ad egyszerûbb programozhatósággal, de a legutóbbi idõkig túl nagy volt a számításigénye.

Mára azonban már 4 db 3GHz-en ketyegõ mag van egy CPU-ban és ha ezt megtámogatják egy ray trace speciális beépített gyorsítóval, akkor a GPU elavult lesz.

Nem 15 év múlva, hanem néhány év múlva.

Ezért építi be az intel és az AMD is a (hagyományos) GPU-t már most a prociba.

A multi core processzorokról pedig csak annyit, hogy az nvidia már a 8800-as prociba is 80 magot (ALU) rakott, a 280-asba pedig már 240 mag (ALU) van.
#4
Nem Te szoktál SMS-eket írni a Kibeszélõ c. mûsorba? 😊 Ott is van egy Hoho nevû ember, legalábbis az SMS-ei.

www.gamedroid.hu

#3
"ma egy pda többet tud mint a 333mhz-es gépem annó"

Lehet, de az asztalodon nem egy 333mhz-es gép van most, hanem ennek sokszorosa. A jövõben amikor egy chipben lesz egy mai csúcsgép, és ez tolja a pda-kat, akkor az asztalodon annak sokszorosa lesz megint.
#2
ez tökmindegy. ezeknek a cégeknek mindíg azt kell kommunikálniuk (értsd bizonygatniuk), hogy az az irány a frankó, amit õk csinálnak.
milyen lenne a cikk címe így: "Többé nem bíziki grafikus chipjeiben az Nvidia" ?

most ugye jön az osztás mindíg az nvidiától, hogy a dx10.1 valójában semmi újítást nem hoz és hülyeség az egész. amint lesz nekik 10.1es kátyájuk az a duma fog menni a marketing gépezetbõl, hogy dobd ki a 8800gt-det, mert az csak dx10 de itt az új szipi-szupi nv kari, ami már a dx10.1-et is tudja és az mennyire jó dolog!

ez van. 😊
a háttérben szinte biztosra veszem, hogy õk is a megfelelõ irányba fejlesztgetnek... de az csak év(ek) múlva fog piaci termékben realizálódni, addig is el kell adni a mostani cuccaikat. ezt meg csak úgy lehet, ha nyomják hozzá a sódert és fikázzák a riválisokat.

lásd még: amit az intel lemûvelt a p4 vs athlon csatában. az athlon egyértelmûen jobb volt, de az emberek nagyrészének a fejében a "pentiumnégyes" volt a megtestesült minõség. miután kijött a core(2)duo (ami már tényleg jó), elismerte az intel hogy a p4-es mhz hajhászós iránya tévedés volt és zsákutca... elötte meg mennyire nyomták, hogy a sok ghz a lényeg és az az egyetlen üdvözítõ út...

Elösször lőjünk rájuk atomot, aztán valami DURVÁT!

#1
de az õ szakembereik nem a piacot figyelik? a system on a chip a jövõ. minek kéne 70 integrált lapka meg fél négyzetméter alaplap, ha egyszer egyben is elférhet minden az architektúrák meg gyártástechnológia fejlõdésével? ma egy pda többet tud mint a 333mhz-es gépem annó. már ebbõl is látni az irányt, hogy 20 év múlva a mai asztali erõgépek elférnek majd egy chipben. minek integrálnánk gpu-t a cpu-ba? hülyeség.

\"The voices are back... Excellent.\"