Franczy

Nvidia GeForce3

Több, egymástól független hírforrás is úgy tudja, hogy az Nvidia cég február 26-án valahol egy nagy bejelentési party keretein belül fogja bemutatni legújabb termékét, a GeForce3 GPU-t. A következő napon, vagyis február 27-én pedig már minden részletre kiterjedő információzuhatagot fognak rázúdítani a sajtó képviselőire.

Az már egy ideje tudható, hogy több neves website is kapott az Nvidia-tól úgynevezett engineering sample GeForce3 videokártyákat, azonban ezekkel a site-okkal az Nvidia még időben megfelelő titoktartási nyilatkozatokat íratott alá, ennek ellenére néhány valós, vagy nem valós GeForce3 fotó már felbukkant a neten.

Az is közismert már egy ideje, hogy az új Nvidia chip nem tartja meg a nem túl jól hangzó NV20-as kódnevet. Egy időben egyesek tudni vélték, hogy az Nvidia szakít a GeForce névvel, hiszen az NV20-as chip már nem a GeForce2 GTS egyenes ági leszármazottja, de akik ezt állították, azok tévedtek, hiszen ma már bizton állítható, hogy az új Nvidia chip a GeForce3 nevet kapta a keresztségben.

Az Nvidia a GeForce3 esetében is rendkívül fontosnak tartja egy Product Tagline-nak a GeForce3 név utáni biggyesztését. A Product Tagline az ami a GeForce2 esetében a GTS, vagyis a "GigaTexel Shader" volt. A GeForce3 esetében ez az utónév minden valószínűség szerint az "Infinite Effects GPU" lesz. Ezt a hangzatos végtelenszámú effektekkel rendelkező GPU elnevezést minden bizonnyal az új grafikus chipben helyet kapott nFiniteFX Engine és Lightspeed Memory Architecture miatt adták a GeForce3-nak.

Az nFiniteFX Engine lesz felelős a speciális effektusok megjelenítéséért, mely engine-t egyébként sokan forradalmian új megoldásnak tartják, hiszen teljesen szabadon programozható lesz. Az azonban eddig még nem derült ki, hogy a Lightspeed Memory Architecture pontosan mit is jelent, persze annyi biztos, hogy valamilyen memória sávszélesség "tuninggal" lehet kapcsolatos.

A legutóbbi információk szerint az első GeForce3-as videokártyák GPU-ja 200 MHz-es lesz, míg a 64 MB memória 460 MHz-en (DDR) fog működni, így a memória sávszélesség 7.4 GB/sec lesz. Az 57 millió tranzisztort tartalmazó új GPU-ra épülő kártyák az Nvidia szerint maximum 76, azaz hetvenhat GIGAFLOPS-os teljesítményre, és másodpercenként 800, azaz nyolcszáz milliárd utasítás végrehajtására lesznek képesek, persze ezeket az adatokat azért némi(?) fenntartással illetik kezelni.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Efreet #37
    Csak úgy eszembe jutott: anno az Áldott Amiga gépekben volt 1 cpu, volt egy grafikus chip, és volt egy hangfelelős chip. mind azért, hogy a cpuról levegye a terhet. 15 év elteltével a PC-kben feltalálták a spanyolviaszt :)))
  • Efreet #31
    persze... a GF2nél is ezt mondta mindenki, előtte a GF1nél is...meg előtte a... mindig a még meg nem jelent az ami 'gyökeresen új, és forradalmasítja az egész világot' ... ebből az utolsó a moduláris felépítésű számítógép volt, az pusztította el az Amiga-t (él az még, csak a torka véres évek óta...)
  • Efreet #30
    Bocsi, akkor lemaradtam. Az az igazság nem igazán érdekel az XBox, mert az architektúráját kicsit átgondolatlannak tartom (vinyó,proci.. nem megyek bele). Én az utolsó ma is kapható szerintem jól átgondolt és elkészített konzol pártján vagyok (DC), annak se használták még ki a lehetőségeit, a PS2-ét se, de már ittvannak a hírek a jövőre debütálő PS3ról. Anno a szomszéd MegaDrive-jával legalább 5 éven át kavartunk. Még a PS1 is hosszú időt húzott/húz ki, nem hiszem hogy megéri az a hatalmas pénz amit a fejlesztésbe ölnek... A PS2nél biztos behozta, mert soksok év telt el. Miért nem lehet hagyni kifutni valamit? Az embereknek elmegy a kedvük bárminek a megvételétől, mert egy fél év múlva kidobhatja. Nem hiszem hogy nem érezhető ez a piacokon.
    Na kicsit elkaladoztam. Majd este jövök még.
  • Efreet #27
    Ha jól tudom egyenlőre a GF2 és a Radeon sincs kihasználva, elméleti teljesítményüket csak valami ultrabrutál gépen képesek leadni, és csak a technologiai demokban. Mi lenne ha mondjuk a vicc kedvéért valami normálisabb és stabilabb drivert és jobb kihasználtságot csinálnának. Ki kellene aknázni a már meglévő képességeket. Tudom, a mai világ nem erről szól, hanem arról hogy gyorsanadjunkelminéltöbbet aztán adjuk ki a számunkra 2 generációval ezelőttinek számító változatot, és amíg mindenki azt is megveszi, addig mi újra előrébb lépünk. Kész van az NV25 is, ottvan benne az XBoxban. miafrancért is adják ki a 20-ast? hogy mindenki kidobhassa ha karácsony környékén előrukkolnak 'legújabb fejlesztésükkel' az NV25-tel? A legkevésbé az tetszik hogy az ATI elkezdte ugyanezt. eddig kiadtak 1 új chipet, kiadták hozzá a teljes palettát termékekből, majd jött az újabb. most is ez megy, csak az eddigi 1-1,5 évből lett fél év... Karécsonykor megvettem ezt a Radeon64-et, és karácsonyra elavultnag fog számítani? A Voodoo1-emmel legalább 3 évet kibírtam. Sőt van haver aki még mindig azt nyúzza, és jól elvan vele.
    Na itt is jól kimorogtam magam... ;)
  • kowajano #21
    akkor 27 én megyek bankot durrantani :)
    meg aszem egy p4 2ghz vagy egy TB 2ghz bejátszik mellé mert ezt ki is kell hajtani valamivel
  • ixyon #19
    hi
    most meg szeretném kérdezni a magyintelligenciájú közönséget, hogy mégis mit vártak? ebben a GPUban több a tranzisztor, mint 1 tbirdben, vagy 1 PIIIIben. Gyrsabb a ram benne(nomeg szerintem már nem fognak csinálni 32Mb-set).
    programozható(!) Hol tud ilyet bármillyn más chip is?
    ez tele van vaci új dolgokkal, és nagyon spéci kártya.
    drága, de hát mi nem az, ami új?

    a GF-ekkel pedig semmi baj sincs, errefelé duronnal is fönget.

    Bár 1 kicsit hasonlít: Voodoo1 piacsiker-Geforce256 ez is
    Voodoo2 piacsiker-GF2 ez is
    Voodoo3 piacsiker, bár nem olyan nagy- GF3 túl drága, hogy elterjedjen
    voodoo4-5 hanyatlás, csőd.- GF4-5 ???
  • CSOCSO #18
    Már látom előre: Elado egy geforce 3 IEG 220 ezer forintért! de vigyázz hogy kihasználd vegyél egy 24 es monitort + egy pentium 4 et ami 15 giga mhz-s + 512 megaranmot meg ilyenek szoval összesen 2 millioért és alérted azt hogy kétszer akkora legyen a frame per second mint egy másik kártyán ami teljesen megfelel!! a hülye pc-kre hol csinálnak olyan játékokat ami kihasználja a gépet? nézzetek meg egy ps2-t pl a tekken tag Tu-t vagy akármelyiket! A gt3 at!! magasan verikk a pc-ket....erről ennyit!
  • Bith #14
    Ja, és elfelejtettem említeni a megbízhatóságot. ami ugye azért az nVidia kártyáktól még eléggé messze áll.
  • Bith #13
    "Amik 20x annyiba kerülnek és szinte semmivel se nyújtanak többet ..."

    Ez félig igaz, mert hardwerileg, és tudásban már utol vannak érve valóban, de ezeket direkt ilyen célokra készítik (pl. már nagyon régóta van az ilyen kértyákon hardveres T&L). Az előnyük, és támogatottságuk a kiváló, és direkt 3d alkalmazásokra optimalizált (nem ritkán a szoftver gyártó által is támogatott) driverekben keresendő. Pl. egyedülálló OpenGL támogatás.
    Egyébként valóban nagyon drágák, de mostmár a gamereknek szánt kártyák is (sajnos) utolérik ezeket árban, és nem csak tudásban.
    GodBatka profik alatt az igazán profi filmes trükkstúdiókat értette szerintem, akik valóban nem Geforce-olnak. Pl. ilyen az ILM.
  • Dikkma #10
    A tudást meg kell fizetni, ennek a kártyának márpedig van-sok. Ha mint gpu-t, a világ leggyorsabb videó-hardware-ét tekintem, akkor - ha lenne - nem is sajnálnék rá 600 $-t. De ha mint egy műanyag lapra rászórt szilíciumdarab, és fém, műanyag daabok keverékét nézem, akkor... Tehát: nekem soha nem lesz 600$-om videókártyára, mert azon az ember annyi mindent vehet, ami az életéhez kell, hogy el sem lehet mondani. Elvből nem fogok 600$-os videókártyát venni. Nem GF3-at, hanem videókártyát - amint olcóbb lesz, visszatérünk rá.
    Tudom, a magyar hülyegyerek, akinek nincs lóvéja. Azért ami külföldi oldalt olvasok ( több 10 is lehet, de nagyon rendszertelenül, ritkán, és csak azt ami érdekel ) még egyet sem láttam, ahol ne hozták volna szóba a 600 dolláros árat - lehet, hogy magyar az összes külföldi site írója is?