Bízik grafikus chipjeiben az nVidia
Jelentkezz be a hozzászóláshoz.
#17
" Lehet, de az asztalodon nem egy 333mhz-es gép van most, hanem ennek sokszorosa. A jövõben amikor egy chipben lesz egy mai csúcsgép, és ez tolja a pda-kat, akkor az asztalodon annak sokszorosa lesz megint. "
egyetlen apróságot kihagytál a logikádból. a teremnyi méretû elektroncsöves monstrumokat lenyomta egy 0.8 mhz-s 8008-as. nemcsak a mérete lesz kisebb, hanem közben a teljesítmény is nõ. viszont, ahogy feszegetjük a technológiai határokat, úgy lassul a fejlõdés is. ez az egyik. a másik, hogy általános munkavégzésre bõven elég egy mai energiahatékony chip, az elfér egy apró dobozban az íróasztal sarkán a dossziékupac alatt. tehát a jövõben én azt mondom el fognak tûnni a nagy doboz számítógépek. elõbb utóbb kihalnak az optikai meghajtók, (én speciel már csak telepítéshez használom manapság is, semmi másra). aztán jönnek majd a 2,5" ssd-k, meg bedobják a gpu mellé a chipkészlet maradékát is a cpu-ba. és így lesz pda-alaplap méretû a mostani gép, elfér majd az egész a monitor hátulján. aztán meg még késõbb elfér majd az egész egy 5 centesen és akkor már az emberi agyakba fogják rakni az egészet co-processzorként... 😊
egyetlen apróságot kihagytál a logikádból. a teremnyi méretû elektroncsöves monstrumokat lenyomta egy 0.8 mhz-s 8008-as. nemcsak a mérete lesz kisebb, hanem közben a teljesítmény is nõ. viszont, ahogy feszegetjük a technológiai határokat, úgy lassul a fejlõdés is. ez az egyik. a másik, hogy általános munkavégzésre bõven elég egy mai energiahatékony chip, az elfér egy apró dobozban az íróasztal sarkán a dossziékupac alatt. tehát a jövõben én azt mondom el fognak tûnni a nagy doboz számítógépek. elõbb utóbb kihalnak az optikai meghajtók, (én speciel már csak telepítéshez használom manapság is, semmi másra). aztán jönnek majd a 2,5" ssd-k, meg bedobják a gpu mellé a chipkészlet maradékát is a cpu-ba. és így lesz pda-alaplap méretû a mostani gép, elfér majd az egész a monitor hátulján. aztán meg még késõbb elfér majd az egész egy 5 centesen és akkor már az emberi agyakba fogják rakni az egészet co-processzorként... 😊
\"The voices are back... Excellent.\"
Már megin' csak a konkurenciát köpködik, de most csak hátulról lehet, mivel lemaradtak picit: "Nem hisznek ugyanakkor a kétchipes grafikus kártyákban".
-Ha lenne annyi pénzem, most megvenném a 4870X2 -t abban az árban is, ahogy adják. -Ugyanis ami elbánik a Crysis magas felbontású textúráival is, annál már nem kell jobb kártya (akár évekig se -> csak azért nem írtam, hogy 6-8 évig, mer' ugyebár nyakunkon a DX XI).
-Ha lenne annyi pénzem, most megvenném a 4870X2 -t abban az árban is, ahogy adják. -Ugyanis ami elbánik a Crysis magas felbontású textúráival is, annál már nem kell jobb kártya (akár évekig se -> csak azért nem írtam, hogy 6-8 évig, mer' ugyebár nyakunkon a DX XI).
#15
Inkább DX10.1 ... sebesség és minõség szempontjából nem árt ha párhuzamosan leeht számolni a Cube map tömböket.<#vigyor2>#vigyor2>
#14
Az RT-nek különféle szintjei vannak a valósághûséget illetõen. Egyszerûbb megvalósításban nem olyan valósághû, mint egy mai GPU-s megoldás. Igaz, a tükrözõdések könnyebben lesznek vele valósághûbbek.
#13
A mai GPU-k nem túl optimálisak RT-re.
(Pl. egy Cell legyorsul egy GT280-at <1 TFLOPS?>1 TFLOPS?> RT-ben.)
Akkor mégsem érted az RT lényegét. Nem a fényforrásból követik a sugarakat (mert ahhoz iszonyú sok sugár kellene, hogy a képernyõ minden pixelére jusson, ráadásul több is), hanem a (virtuális) képernyõ pixelei felõl. (Így a korrekt neve ray-backtracing kellene legyen. 😊 ) Ha pixelenként 1 sugarat követnek vissza, akkor ugyanúgy aliasos lesz.
(Pl. egy Cell legyorsul egy GT280-at <1 TFLOPS?>1 TFLOPS?> RT-ben.)
Akkor mégsem érted az RT lényegét. Nem a fényforrásból követik a sugarakat (mert ahhoz iszonyú sok sugár kellene, hogy a képernyõ minden pixelére jusson, ráadásul több is), hanem a (virtuális) képernyõ pixelei felõl. (Így a korrekt neve ray-backtracing kellene legyen. 😊 ) Ha pixelenként 1 sugarat követnek vissza, akkor ugyanúgy aliasos lesz.
#12
ALU != mag. Egy magban sokminden más is van, nem csak ALU-k.
#11
"Egyébként ha jól értem az rt mûködését, ezzel az aa is szükségtelenné válna, mert nem aliasolódna a kép."
Elvileg gyakorlatlag az egy pixelre esõ fénysugarak számától függ.
Elvileg gyakorlatlag az egy pixelre esõ fénysugarak számától függ.
és mi lenne ha gpu ra is megírnák, és akkor nem kéne 664 db processzor csak egy quad cf hd4870 x2 kéne 😄
Egyébként ha jól értem az rt mûködését, ezzel az aa is szükségtelenné válna, mert nem aliasolódna a kép.
Egyébként ha jól értem az rt mûködését, ezzel az aa is szükségtelenné válna, mert nem aliasolódna a kép.
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
#9
Úgy tudtam azt bizonyps Quake3 demót 20 db AMD Opetron 64-el számoltatták. Mellesleg DX10-el már globális illuminációt is csinálhatsz, ami még a ray-tracen is messzemenõen túl tesz realitást tekintve.
#8
A Ray trace problémája a felbontás. A teljesítmény igény lineárisan nõ a felbontással.
A Quake III programot megírták real time ray trace technológiával, de csak 640x480 felbontásban tudták futtani, ha jól emlékszem 2x4 magon.
Egy elfogadható felbontás az 1080p. Ez 6-szor több képpont, mint a 640x480, tehát 6-szor több teljesítmény kell neki.
De ha elkészítenek egy ray trace gyorsító magot, akkor szvsz. ez csökkenthetõ.
A Quake III programot megírták real time ray trace technológiával, de csak 640x480 felbontásban tudták futtani, ha jól emlékszem 2x4 magon.
Egy elfogadható felbontás az 1080p. Ez 6-szor több képpont, mint a 640x480, tehát 6-szor több teljesítmény kell neki.
De ha elkészítenek egy ray trace gyorsító magot, akkor szvsz. ez csökkenthetõ.
#7
Most is marha nagy a számításigénye. Azért egy mai játékban erõsen dinamikus jelenetet kell leképezni, erre még normális térrendezés mellett sincs megfelelõ erõforrás. Majd ha jön 6 év múlva egy 96 magos Larrabee akkor reálisan el lehet gondolkodni a dolgon.
#5
A GPU-k kora a DirectX-el és a shaderekkel együtt lassan elmúlik, már megjelent a trónkövetelõ, a real time ray trace.
Ez a technológia jobb minõségû képet ad egyszerûbb programozhatósággal, de a legutóbbi idõkig túl nagy volt a számításigénye.
Mára azonban már 4 db 3GHz-en ketyegõ mag van egy CPU-ban és ha ezt megtámogatják egy ray trace speciális beépített gyorsítóval, akkor a GPU elavult lesz.
Nem 15 év múlva, hanem néhány év múlva.
Ezért építi be az intel és az AMD is a (hagyományos) GPU-t már most a prociba.
A multi core processzorokról pedig csak annyit, hogy az nvidia már a 8800-as prociba is 80 magot (ALU) rakott, a 280-asba pedig már 240 mag (ALU) van.
Ez a technológia jobb minõségû képet ad egyszerûbb programozhatósággal, de a legutóbbi idõkig túl nagy volt a számításigénye.
Mára azonban már 4 db 3GHz-en ketyegõ mag van egy CPU-ban és ha ezt megtámogatják egy ray trace speciális beépített gyorsítóval, akkor a GPU elavult lesz.
Nem 15 év múlva, hanem néhány év múlva.
Ezért építi be az intel és az AMD is a (hagyományos) GPU-t már most a prociba.
A multi core processzorokról pedig csak annyit, hogy az nvidia már a 8800-as prociba is 80 magot (ALU) rakott, a 280-asba pedig már 240 mag (ALU) van.
Nem Te szoktál SMS-eket írni a Kibeszélõ c. mûsorba? 😊 Ott is van egy Hoho nevû ember, legalábbis az SMS-ei.
www.gamedroid.hu
#3
"ma egy pda többet tud mint a 333mhz-es gépem annó"
Lehet, de az asztalodon nem egy 333mhz-es gép van most, hanem ennek sokszorosa. A jövõben amikor egy chipben lesz egy mai csúcsgép, és ez tolja a pda-kat, akkor az asztalodon annak sokszorosa lesz megint.
Lehet, de az asztalodon nem egy 333mhz-es gép van most, hanem ennek sokszorosa. A jövõben amikor egy chipben lesz egy mai csúcsgép, és ez tolja a pda-kat, akkor az asztalodon annak sokszorosa lesz megint.
#2
ez tökmindegy. ezeknek a cégeknek mindíg azt kell kommunikálniuk (értsd bizonygatniuk), hogy az az irány a frankó, amit õk csinálnak.
milyen lenne a cikk címe így: "Többé nem bíziki grafikus chipjeiben az Nvidia" ?
most ugye jön az osztás mindíg az nvidiától, hogy a dx10.1 valójában semmi újítást nem hoz és hülyeség az egész. amint lesz nekik 10.1es kátyájuk az a duma fog menni a marketing gépezetbõl, hogy dobd ki a 8800gt-det, mert az csak dx10 de itt az új szipi-szupi nv kari, ami már a dx10.1-et is tudja és az mennyire jó dolog!
ez van. 😊
a háttérben szinte biztosra veszem, hogy õk is a megfelelõ irányba fejlesztgetnek... de az csak év(ek) múlva fog piaci termékben realizálódni, addig is el kell adni a mostani cuccaikat. ezt meg csak úgy lehet, ha nyomják hozzá a sódert és fikázzák a riválisokat.
lásd még: amit az intel lemûvelt a p4 vs athlon csatában. az athlon egyértelmûen jobb volt, de az emberek nagyrészének a fejében a "pentiumnégyes" volt a megtestesült minõség. miután kijött a core(2)duo (ami már tényleg jó), elismerte az intel hogy a p4-es mhz hajhászós iránya tévedés volt és zsákutca... elötte meg mennyire nyomták, hogy a sok ghz a lényeg és az az egyetlen üdvözítõ út...
milyen lenne a cikk címe így: "Többé nem bíziki grafikus chipjeiben az Nvidia" ?
most ugye jön az osztás mindíg az nvidiától, hogy a dx10.1 valójában semmi újítást nem hoz és hülyeség az egész. amint lesz nekik 10.1es kátyájuk az a duma fog menni a marketing gépezetbõl, hogy dobd ki a 8800gt-det, mert az csak dx10 de itt az új szipi-szupi nv kari, ami már a dx10.1-et is tudja és az mennyire jó dolog!
ez van. 😊
a háttérben szinte biztosra veszem, hogy õk is a megfelelõ irányba fejlesztgetnek... de az csak év(ek) múlva fog piaci termékben realizálódni, addig is el kell adni a mostani cuccaikat. ezt meg csak úgy lehet, ha nyomják hozzá a sódert és fikázzák a riválisokat.
lásd még: amit az intel lemûvelt a p4 vs athlon csatában. az athlon egyértelmûen jobb volt, de az emberek nagyrészének a fejében a "pentiumnégyes" volt a megtestesült minõség. miután kijött a core(2)duo (ami már tényleg jó), elismerte az intel hogy a p4-es mhz hajhászós iránya tévedés volt és zsákutca... elötte meg mennyire nyomták, hogy a sok ghz a lényeg és az az egyetlen üdvözítõ út...
Elösször lőjünk rájuk atomot, aztán valami DURVÁT!
#1
de az õ szakembereik nem a piacot figyelik? a system on a chip a jövõ. minek kéne 70 integrált lapka meg fél négyzetméter alaplap, ha egyszer egyben is elférhet minden az architektúrák meg gyártástechnológia fejlõdésével? ma egy pda többet tud mint a 333mhz-es gépem annó. már ebbõl is látni az irányt, hogy 20 év múlva a mai asztali erõgépek elférnek majd egy chipben. minek integrálnánk gpu-t a cpu-ba? hülyeség.
\"The voices are back... Excellent.\"