SG.hu·

Az Nvidia a G70-re, míg az ATI a több VPU-ra koncentrál

Dacára annak, hogy mind az ATI, mind az Nvidia csak a harmadik negyedévben szeretné felfuttatni új zászlóshajójának sorozatgyártását, az első példányok már az elmúlt héten elkészültek, és az Nvidia megoldása - zárt ajtók mögött - már bemutatkozott a Computex kiállításon.

Az ATI R520 gyártásának beindulásáról a tajvani DigiTimes, míg az Nvidia G70 jelzésű grafikus processzorának bemutatkozásáról az AnandTech számolt be, amely a chipről, illetve a referenciakártyáról készült képekkel támasztotta alá a hír valódiságát. Az oldal értesülései szerint kizárólag az Nvidiához legközelebb álló partnercégeknek adatik meg a lehetőség, hogy bemutathassák saját megoldásukat a Computex kiállításon, míg a többi gyártó egyelőre kénytelen várni, amíg a vállalat megadja a zöld jelzést.


A kártyáról sajnos semmilyen technikai részlet nem derült ki, így továbbra is a híroldalak, illetve a rajongók találgatásaira vagyunk kénytelenek hagyatkozni. A HKEPC információi szerint a G70 24 pixel és 8 vertex futószalagot foglal magában, és 430 MHz-es órajelen fut. Azt jelenleg nem tudjuk, hogy a chip GeForce 7, vagy egyéb márkanéven kerül-e forgalomba, mint ahogy a vállalat azt sem árulta el, hogy a G70 11 nanométeres, vagy 13 nanométeres gyártástechnológiával készül.

A kiállításon egy új ATI kártya bemutatkozására is számítanak, amely azonban nem a várva-várt következő generációs chipre épül, hanem az X-sorozat legkisebb tagjára, és Radeon X550 néven kerül majd forgalomba. A belépő szintű kártyát leváltani hivatott chip az X300-hoz hasonlóan 4 futószalagot foglal magában, de némileg magasabb órajelen, egészen pontosan 400 MHz-en végzi dolgát, és 128 bites, 200 MHz-es memóriabuszra támaszkodik.


A kanadai gyártó nagy reménységéről még ennyi adat sem szivárgott ki, és néhány forrás máris azt valószínűsíti, hogy beigazolódik a processzor késlekedéséről szóló hír. Amennyiben ez valóban így van, az ATI valószínűleg a több grafikus kártya egyidejű használatát lehetővé tévő Crossfire technológiára koncentrál majd, ami szintén a Computex 2005 alatt mutatkozik be. Igaz, ez nem igazán mérhető egy vadonatúj grafikus processzor bemutatásához, de mindképpen érdekes csemegét kínál az érdeklődőknek, nem beszélve arról, hogy a vállalat újabb területen hozná be riválisát, és kínálna alternatív megoldást a vásárlóknak.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

© LowEnd2005. 06. 08.. 18:42||#20
Ez most hogy is van? FOLYAMATOSAN 150W-ot fogyaszt, vagy csak akkor, ha a 3dmark2006 ketyeg rajta?
© dez2005. 06. 01.. 18:41||#19
Pl. azzal a bizonyos Unified Shader Architecture-ral. (Nem tudom, jól írom-e.) Tehát, hogy már nincs különválasztva pixel és vertex shader. (Bár már a PS3.0-ban is hozzáférhetett a pixel shader a vertexekhez is, bár asszem csak olvashatta õket.)

Viszont azt nem tudom, a DirectX 9 tud-e ezzel kezdeni valamit, vagy már csak a köv. verzió, ami valószínû csak a Longhornnal jön.
© dez2005. 06. 01.. 18:37||#18
Na, akkor az ötletért én is kérem a százalékomat! Õõõ, nem is! Inkább én fogok nyerni a lottón! 😄
© FtranX2005. 06. 01.. 14:37||#17
egye fene, nekem úgy is jó lenne! 😊
© Inquisitor2005. 06. 01.. 10:13||#16
Nnnna kíváncsi leszek mindkét cuccra ha kijön majd. Egyenlõre a G70 "csak" egy túrbozott GF6-nak tûnik, az ATI R520-ról meg többen állítják, hogy max. sebességben tudhat újat mutatni, hiszen mi mással tudna többet az R4xx magnál, mint a PS 3.0?
Bár ki tudja, eddig mindíg volt valami újdonság a kártyáikban, amire nem számítottam 😊
© concrete2005. 06. 01.. 02:28||#15
nem igaz hogy ezt a plussz hõt nem lehet valahogy újrafelhasználni

ez is "hulladékhõ" ...
© HUmanEmber41st2005. 05. 31.. 17:59||#14
Valamit valamiért...
© eke2005. 05. 31.. 17:38||#13
Vagy építesz egyett te is....<#zavart1>
© Police882005. 05. 31.. 16:24||#12
nah majd megcsapolom a paksi atomerõmûvet.... 😛
© Caro2005. 05. 31.. 14:23||#11
Na, a hardverbe' is az megy mint a szoftverbe'.
Nem optimalizálunk, hanem bikából nyomjuk... 😊
Csak itt nem annyira, mint ott.
Majd rákötsz egy minigõzgépet a kártyára, és megdolgoztatsz vele egy generátort, ami mondjuk elhajta a monitorodat. 😊