Gyurkity Péter

Az Nvidia a G70-re, míg az ATI a több VPU-ra koncentrál

Dacára annak, hogy mind az ATI, mind az Nvidia csak a harmadik negyedévben szeretné felfuttatni új zászlóshajójának sorozatgyártását, az első példányok már az elmúlt héten elkészültek, és az Nvidia megoldása - zárt ajtók mögött - már bemutatkozott a Computex kiállításon.

Az ATI R520 gyártásának beindulásáról a tajvani DigiTimes, míg az Nvidia G70 jelzésű grafikus processzorának bemutatkozásáról az AnandTech számolt be, amely a chipről, illetve a referenciakártyáról készült képekkel támasztotta alá a hír valódiságát. Az oldal értesülései szerint kizárólag az Nvidiához legközelebb álló partnercégeknek adatik meg a lehetőség, hogy bemutathassák saját megoldásukat a Computex kiállításon, míg a többi gyártó egyelőre kénytelen várni, amíg a vállalat megadja a zöld jelzést.


A kártyáról sajnos semmilyen technikai részlet nem derült ki, így továbbra is a híroldalak, illetve a rajongók találgatásaira vagyunk kénytelenek hagyatkozni. A HKEPC információi szerint a G70 24 pixel és 8 vertex futószalagot foglal magában, és 430 MHz-es órajelen fut. Azt jelenleg nem tudjuk, hogy a chip GeForce 7, vagy egyéb márkanéven kerül-e forgalomba, mint ahogy a vállalat azt sem árulta el, hogy a G70 11 nanométeres, vagy 13 nanométeres gyártástechnológiával készül.

A kiállításon egy új ATI kártya bemutatkozására is számítanak, amely azonban nem a várva-várt következő generációs chipre épül, hanem az X-sorozat legkisebb tagjára, és Radeon X550 néven kerül majd forgalomba. A belépő szintű kártyát leváltani hivatott chip az X300-hoz hasonlóan 4 futószalagot foglal magában, de némileg magasabb órajelen, egészen pontosan 400 MHz-en végzi dolgát, és 128 bites, 200 MHz-es memóriabuszra támaszkodik.


A kanadai gyártó nagy reménységéről még ennyi adat sem szivárgott ki, és néhány forrás máris azt valószínűsíti, hogy beigazolódik a processzor késlekedéséről szóló hír. Amennyiben ez valóban így van, az ATI valószínűleg a több grafikus kártya egyidejű használatát lehetővé tévő Crossfire technológiára koncentrál majd, ami szintén a Computex 2005 alatt mutatkozik be. Igaz, ez nem igazán mérhető egy vadonatúj grafikus processzor bemutatásához, de mindképpen érdekes csemegét kínál az érdeklődőknek, nem beszélve arról, hogy a vállalat újabb területen hozná be riválisát, és kínálna alternatív megoldást a vásárlóknak.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • LowEnd #20
    Ez most hogy is van? FOLYAMATOSAN 150W-ot fogyaszt, vagy csak akkor, ha a 3dmark2006 ketyeg rajta?
  • dez #19
    Pl. azzal a bizonyos Unified Shader Architecture-ral. (Nem tudom, jól írom-e.) Tehát, hogy már nincs különválasztva pixel és vertex shader. (Bár már a PS3.0-ban is hozzáférhetett a pixel shader a vertexekhez is, bár asszem csak olvashatta őket.)

    Viszont azt nem tudom, a DirectX 9 tud-e ezzel kezdeni valamit, vagy már csak a köv. verzió, ami valószínű csak a Longhornnal jön.
  • dez #18
    Na, akkor az ötletért én is kérem a százalékomat! Őőő, nem is! Inkább én fogok nyerni a lottón! :D
  • FtranX #17
    egye fene, nekem úgy is jó lenne! :)
  • Inquisitor #16
    Nnnna kíváncsi leszek mindkét cuccra ha kijön majd. Egyenlőre a G70 "csak" egy túrbozott GF6-nak tűnik, az ATI R520-ról meg többen állítják, hogy max. sebességben tudhat újat mutatni, hiszen mi mással tudna többet az R4xx magnál, mint a PS 3.0?
    Bár ki tudja, eddig mindíg volt valami újdonság a kártyáikban, amire nem számítottam :)
  • concrete #15
    nem igaz hogy ezt a plussz hőt nem lehet valahogy újrafelhasználni

    ez is "hulladékhő" ...
  • HUmanEmber41st #14
    Valamit valamiért...
  • eke #13
    Vagy építesz egyett te is....
  • Police88 #12
    nah majd megcsapolom a paksi atomerőművet.... :P
  • Caro #11
    Na, a hardverbe' is az megy mint a szoftverbe'.
    Nem optimalizálunk, hanem bikából nyomjuk... :)
    Csak itt nem annyira, mint ott.
    Majd rákötsz egy minigőzgépet a kártyára, és megdolgoztatsz vele egy generátort, ami mondjuk elhajta a monitorodat. :)