Az Nvidia a G70-re, míg az ATI a több VPU-ra koncentrál

Jelentkezz be a hozzászóláshoz.

#20
Ez most hogy is van? FOLYAMATOSAN 150W-ot fogyaszt, vagy csak akkor, ha a 3dmark2006 ketyeg rajta?

#19
Pl. azzal a bizonyos Unified Shader Architecture-ral. (Nem tudom, jól írom-e.) Tehát, hogy már nincs különválasztva pixel és vertex shader. (Bár már a PS3.0-ban is hozzáférhetett a pixel shader a vertexekhez is, bár asszem csak olvashatta õket.)

Viszont azt nem tudom, a DirectX 9 tud-e ezzel kezdeni valamit, vagy már csak a köv. verzió, ami valószínû csak a Longhornnal jön.

#18
Na, akkor az ötletért én is kérem a százalékomat! Õõõ, nem is! Inkább én fogok nyerni a lottón! 😄

FtranX
#17
egye fene, nekem úgy is jó lenne! 😊

#16
Nnnna kíváncsi leszek mindkét cuccra ha kijön majd. Egyenlõre a G70 "csak" egy túrbozott GF6-nak tûnik, az ATI R520-ról meg többen állítják, hogy max. sebességben tudhat újat mutatni, hiszen mi mással tudna többet az R4xx magnál, mint a PS 3.0?
Bár ki tudja, eddig mindíg volt valami újdonság a kártyáikban, amire nem számítottam 😊

concrete
#15
nem igaz hogy ezt a plussz hõt nem lehet valahogy újrafelhasználni

ez is "hulladékhõ" ...

ICS 4.0.4 --------------> JB 4.1.0

#14
Valamit valamiért...

A bölcsek nem tudósok - a tudósok nem bölcsek Lao-Ce

#13
Vagy építesz egyett te is....<#zavart1>
Police88
#12
nah majd megcsapolom a paksi atomerõmûvet.... 😛

First born unicorn Hard core soft porn Dream of Californication

#11
Na, a hardverbe' is az megy mint a szoftverbe'.
Nem optimalizálunk, hanem bikából nyomjuk... 😊
Csak itt nem annyira, mint ott.
Majd rákötsz egy minigõzgépet a kártyára, és megdolgoztatsz vele egy generátort, ami mondjuk elhajta a monitorodat. 😊

\"We choose to go to the moon in this decade and do the other things, not because they are easy, but because they are hard\" - John F. Kennedy

item
#10
Mármint az RSX GPU- nál...

3.14159265358979323846264338327950288419716939937510582097494459230781640628620899862803482534211706798214808651328230664709384460955....

item
#9
Egész biztos hogy izmosabb lesz a mostaniaknál, igazából ha minden igaz ez a mag hasonló mint ami még ugye el sem készült RSX GPU?! Hát ha minden igaz és az nvidia nagyon is közösködik a fejlesztésben a sony-val akkor az a beigért 1.8 Terraflop teljesítmény be is válik! <#nevetes1>

3.14159265358979323846264338327950288419716939937510582097494459230781640628620899862803482534211706798214808651328230664709384460955....

#8
Villanyszámlára is félre lehet tenni egy keveset <#bee1>

Hedgehunter
#7
De mar annyival tobbet is fog tudni........(remelhetoleg)<#fejvakaras>
item
#6
Féreértés ne essék én nvidia párti vagyok, de ha jók az infók a kicsike önmagában 150w ot fog eltapsolni... <#csodalk>

3.14159265358979323846264338327950288419716939937510582097494459230781640628620899862803482534211706798214808651328230664709384460955....

item
#5
Ja és 1 600W os tápot is beszerzünk hozzá, fõleg ha SLI-ben duruzsolnak majd! <#zavart1><#mf1><#idiota><#taps>

3.14159265358979323846264338327950288419716939937510582097494459230781640628620899862803482534211706798214808651328230664709384460955....

#4
Akkor már egyszerûbb, ha te is nyersz a lottón. 😉

FtranX
#3
majd küldhetnél nekem is egyet 😊

#2
Én is,ha nyerek a lottón 😊

A Földet nem nagyapáinktól örököltük, hanem unokáinktól kaptuk kölcsön.

#1
kiváncsi leszek rá. ha jól teljesít a teszteken akkor egy GTX-es 512 memósra áldozni fogok...