1459
  • mainruler
    #206
    És mióta hardware-bug/feature-bug az, hogy rosszak a driverek?
  • [Walaki]D`Lair
    #205
    Hö? Sose volt GF2-m....

    Amúgy meg a GF3 sokkal erősebb mint a GF4MX-ek...
  • a_n_d_r_e_w
    #204
    Meg fognak lincse4lni ezért a kijelentésért, de hál' istennek késik a HL2. Nem kell szomorúan várni a Deltát a HL2-vel a kezemben. Majd egyszerre megjelennek és én meg heppi leszek :DDDDDDDDDD
  • a_n_d_r_e_w
    #203
    Örülj neki. Nem tudom milyen gépet használsz, lehet, hogy csak szerencsés vagy, én csak azt tudom mondani, amit a két szememmel láttam. És itt nálunk bizony elég sok geforce fanatikust ismerek, akiknél mindazok a problémák megjelentek, amit mondtam. Nem a levegőbe beszélek, távol álljon tőlem, hogy csak azért szidjak valamit alaptalanul, mert nekem nem tetszik. Én is ugyanolyan gépen teszteltem mind a geforce2GTS-t, Az MX-et, a Radeont és a Savage-t. Persze még 3DMark '99-el és 2000-rel. Nem ma volt, de a tesztek még megvannak. Tudom, hogy öreg, és már elavult kártya, szerintem még mainruler is elismeri (bár lehet, hogy az ő fanatizmusa erősebb, mint az enyém :D), de az érdemeit nem szeretem, ha kétségbe vonják. Grrrrr!!!
  • ollie
    #202
    Hát nekem még a Morrowind sem szaggatott GF4mx alatt 1300-as tualatin celeronnal.
  • ollie
    #201
    A P3 1G-n talán gyorsabb is mint a P4 1.5G-n. Az első P4-ek (400FSB) nagyon gyengék votlak a P3-hoz képest. Ezért ez nem mérvadó. De nem mindegy hogy melyik volt gyorsabb?? Részemről ennyi. ;DDD
  • ollie
    #200
    Eh, ugyanzon a gépen teszteltem le (tualatin celeron 1300, 384M 133 sdram) mindkét kareszt (savage2000 32M és gf2mx400 64M) és a gf sokkal gyorsabb volt. Ja és jól emléxem, mert ez pont egy éve történt, nem 99-ben. :D

    Ja és Planescape rulez!!! ;DDD
  • a_n_d_r_e_w
    #199
    "Pontosan erre való az A0-ás revízió. Az Ati meg az NVidia is először így kezdi, aztán áttér az A1-es, ha pedig még mindig hibás, az A2-es változatra"
    Teljesen egyet értek veled, de az S3 nem mindig vette sikeresen az ilyen akadályokat. Félek, majd ezt is elkapkodják, kijön mindenféle hardveres buggal, szegény feltuningolt programozógárda meg majd csak néz maga elé és tűri, hogy rajta csattanjon az ostor. Ez a sztori eddig nekem szörnyen ismerős...
    A másik az, hogy ez a roadmap már 2001-ben kijött, nagyjából ezekkel a speckókkal, ahhoz képest is csúsztak már lassan két évet, és még mindig A0-nál tartanak, és kapkodna, hogy kész legeyenek. Elhiszem, hogy gondban voltak, de jó pár évük volt már arra, hogy egy kicsit előrébb járjanak
  • a_n_d_r_e_w
    #198
    Bocs, de savage2k kenterbe verte a geforce2mx-eket, ha a TnL-t kikapcsoltuk, akkor még egy GTS-t is hazavágott. (a Radeon7200-ról nem is beszélve) Tudtommal a sav2k és a gef2 nem egyidősek. Nem tudom, ha te már '99-ben Geforce2-t használtál, akkor gratulálok... A GTA3 meg lehet, hogy nálad spec nem szaggatott, de havernál Gef4MX440 alatt mint az őrült, na ez meg már aztán tényleg nem egy korosztály
    Ráadásul még a Vice City-t szebben vitte mint a símát, ha ezt egy más kártya elmondhatja, úgy hogy lassan 4 éve elavult...
  • Laalee
    #197
    ugye ott volt az a nagybetüs TnL támogatás ami gondolom azóta is nemtudunkdrivert irni hozzá álapotban van.

    gyanitom ez lesz ps2,0 val is, benne van csak nemtudjuk programozni
  • mainruler
    #196
    Ja...tényleg! Ki a fenét érdekel a korrekt összehasonlítás...
    Kösz, hogy íly remekül rávilágítottál a lényegre.

    "We can't stop here! This is Bat Country!"
  • mainruler
    #195
    Hol volt a Viperen csipapicsa hűtő? Meg nyolc lapka tizenöt tápcsatlakozóval? És ugyan kérlek áruld el nekem, hogy milyen funkció nem működött biztosan harderhiba miatt, hm?
    Másrészt azóta is tökéletesen megy, a legújabb driverekkel WinXP alatt is elfogadható -bár villámgyorsnak azért nem nevezném- sebességgel. De azért szolgálhatnál néhány légbőlkapott adattal is, ahogy szoktál... :)
  • Laalee
    #194
    ez most a savage 2000 re irtad? :D
  • Laalee
    #193
    2003 van kit érdekel a 3dmark 2000 a maga dx6 os tesztjeivel...
  • mainruler
    #192
    Jah, atomerőművel nem próbáltam az enyéimet, csak az alant olvasható két gépen... :)
    Kéne találni valami jobb összehasonlítási konfigot. Tud valami áthidaló megoldást uram?

    A driverek meg már 2000 óta csítesek mindenkinél (na jó, az S3-nál nem, mert gondolom nem tudták megoldani az újabb verzióknál, de vannak viszonylag régi driverek, amiknél van valami bütykölés: "Nevezd át az exe fájlt 3dmark2000.exe-re...;-) ), csak valahogy most eszmélt rá a nagy többség. Vagy csak egyszerűen most érte el azt a pontot a dolog, hogy kurvára szemet szúró lett a pofátlanság ahogyan és amennyire művelték. :))
  • mainruler
    #191
    Soha még csak fel se raktam a gépre. De kérlek kímélj meg a további "Akkor Heroes II? Vagy StarCraft?" típusú kérdésektől. :)
    (Nem kötözködni akartam ezzel)
  • mainruler
    #190
    Abban minden elfogadható. Nem is erről volt szó. :)
    Na még egyszer:

    Since acquiring 3dfx's assets and conclusively closing the early chapter of competition in the consumer graphics industry, Nvidia has publicly maintained that the first product with 3dfx technology would be the NV30.

    NV30. Nem NV20.
    De ha belegondolsz józan ésszel, a dolog akkor sem lenne lehetséges. A 3dfx a 2000-es őszi Comdex-en még mutogatta a legújabb Voodoo5 6000-ét, a cég bekebelezése pedig november-december környékén kezdődött, de ekkorra már készen voltak az NV20-ok (2001 februári tényleges megjelenés a 2000 Q3 helyett), csak a GF2 GO és GF2 Ultra miatt (meg az elhalasztott DX8 miatt) nem adták ki időben, hanem visszatartották a megjelenést.
    Ezt asszem elnézted kicsit.
  • [Walaki]D`Lair
    #189
    Mi nem elfogadható a GF3-ban?
  • [Walaki]D`Lair
    #188
    attól függ miben...CS? LOL!! az 72 fps-re gyárilag van lilitálva, szal ne azt vedd alapul...:P
  • [Walaki]D`Lair
    #187
    3DMark 2000: 13544 pont volt nekem a GF3-al....

    és ez még anno a nem csítes driverekkel ment...(29.mittoménhanyas)
  • [Walaki]D`Lair
    #186
    nem én mondtam hogy felveszi a versenyt a GF3-al....én csak bebizonyítottam, hogy bizony egy nagy lófaszt veszi fel...:D
  • Axel
    #185
    Hogy jön ide az nforce?
    Na mind1...az nvidia télleg nem fog becsődölni 1 hamar...
    De az XGI-s karesz valóban érdekes lesz ha megjelenik végre...
  • mainruler
    #183
    Pont ezt akartam mondani.

    Walaki:
    Teszteld csak le egyszer a GF3-at 3DMark2K alatt, asszem meg fogsz lepődni... ;-)
    Másrészt nem igazán érdekelnek az NVidia szintetikus teszteket használó 3DMark-ra optimalizált, csítelt driverei (mert szép, hogy ez most került be a köztudatba, de a TnT2 után már az NVidia és a 3dfx is optimalizált meghajtókat használt, Ati-t nem tudom az S3 meg próbálkozott, de aztán hagyták a fenébe), csak a játékokban látott sebesség. Mivel az általam mostanában legtöbbet használt game (Duneon Siege) tök ugyanúgy megy ViperII-őn, GF2-őn meg GF3-on is (mivel nem használ GF3 DX-es funkciókat), azt hiszem a vita tisztán elméleti jellegű. Nyilván UT2K3 alatt a ViperII valamivel lassabb (mivel nem DX7-es, de DX6 és az alatt tök egyformák teljesítményre) egy low-end GF3-nál (GF2-nél viszont nem!), de mivel nem játszom vele, így nekem egyformán gyors -vagy inkább lassú- mindhárom.
  • mainruler
    #182
    OFF ON

    Planescape rulez!! :))

    OFF OFF
  • mainruler
    #181
    Kissé megkophattak az emlékeid '99 óta (vagy más volt a géped)...
    Két gépem megjelenítése között az égvilágon semmi különbség sincs, a PIII 866@975 gép ViperII-vel teljességgel azt a framerate-et hozza, mint a másfeles P4-esem GF2MX400-al, tehát az állítás nem fedi a valóságot.
  • mainruler
    #180
    ...meg nem működnek DX9 alatt, tehát javallott a DX8 visszatétele...
    Hát, így is nézhetjük. Van benne technológia, csak épp nem működik... :))

    - Képzölje Sógor, vettem egy új traktórt, amit újfajta motorral adtak a züzletbe'
    - Oszt hun van az a traktór? Mé' nem avva jütt szántani?
    - Hát me' nem működik a beste, de azé' jó néz ki, mindenféle szép csijjogó boríttás mög úlyfajta hűttés van rajt.
    - Akkó mög mír vette meg kend?
    - Há' me aszonták, hogy milyön jó lösz a sok úllyíttás...


    Valójában a 3dfx-re gondoltam az előzőekben, már ami a 'no technology' részt illeti. Mivel addig az NVidia elfogadható kártyákat csinált, míg bele nem turkált a 3dfx is, azt hiszem jogos a feltételezés, hogy az NV30 nem funkcionáló fícsörjei a 3dfx lelkén száradnak (az NVidia állítja, hogy csak lassúak, meg driver optimalizáció, de erősen kétséges, hogyan fognak tudni 110%-os optimalizációt végrehajtani a FX esetében. Egyre többen állítják, hogy a DX feature-ök nagy többsége egyáltalán nem működik)
    Végül akkor kiegyezhetünk abban, hogy az FX-ben rettenetes mennyiségű nem funkcionáló feature van... :)
  • Lammer
    #179
    JAH!

    FLÉM ON:

    HAJRÁ s3!!!!! powahh meg rulez ésatöbbi!!! :)

    FLÉM OFF:
  • Lammer
    #178
    MÁr korábban is leírtam, hogy nekem is vót ilyen kártyám, és azt is írtam meg voltam elégedve teljesen!
    Érdekes nekem gyengébb gépen volt, mint havernak és ő is elismerte hogy UTben Metallal sokkal szebb volt a szevidzs nameg gyorsabb is! Gef2mxnél (legutolsó driverek, csakhogy ne kötözködjél)

    Érdekes módon Openglben is szép volt és gyors...
    Csak az a fránya D3D!!!
  • Lammer
    #177
    A Savage védelmébe kell lépnem. :)
    Savage2k max mit támogat DXben???
    És a gef3ti????
    Nalátod...
    ez nem ér így!!!!
    :)
  • ollie
    #176
    Na mindegy. Azt azért még hozzá tenném, hogy a Savage2000 után egy GF2mx400 jött, ami igen csak lealázta a Savage-ot. Bár biztos számított az is, hogy a Savage 32M, a GF2mx meg 64M-es volt.
  • ollie
    #175
    Jézusom! Nekem Savage2000 volt a legelső AGP-s kártyám, és meg kell hogy mondjam, hoyg egy nagy rakás kaki!!!
  • [Walaki]D`Lair
    #174
    no technology????? Ekkora faszságot is rég hallottam...Rettenetes mennyiségű feature van az FX-ekben, csak épp lassúak és hangosak...
  • mainruler
    #173
    Végülis ja. :)
  • TheZsenyka
    #172
    Ó, hát én úgy értettem - csak nem mondtam - hogy az extrém felbontásokban lenne jelentősége. Pl. 1600x1200-ban illetve feljebb. Akinek megéri, az meg tudja venni. Szerintem egyre inkább arrafelé megyünk el még mi is, hogy megengedhetjük magunknak. Persze csak olyan emberek, akiknek nagyon fontos a gamma. Aki amolyan "kocajátékos" annak talán nem annyira, vagy egyáltalán nem fontos.
  • mainruler
    #171
    Teljesen igazad van, csak nekem ezzel az a gondom, hogy nem igazán fogok tudni 2x50.000-ret kiköhögni egy kártya két darabjáért (mert felteszem csak két kártyával lehet majd normális működést elérni).
  • TheZsenyka
    #170
    Tudom, hogy a hozzászólásod végén a "mondasz valamit ezzel a dual VPU-s cuccal" megjegyzés inkább viccből áll ott, viszont azon filóztam, hogy az AGP halálával és a PCI Express megjelenésével, ismét bevezethetnék az SLI stílusú támogatást hiszen nem jelent gondot a továbbiakban hogy csak egy grafikus port van (legyen más neve és ne pont úgy működjön, bánom is én ha nem Scan Line Interleaving lesz) mert az szerintem nagyon nagy ötlet volt. Jobbnak tűnik, mint a duál chip-es megoldások: a gyártónak nem kell többfelé koncentrálnia meg idegeskednie, hogy mennyit hozzon ki a piacra, hol pangást hol meg dömpinget okozva, hanem mindenki saját tárcája szerint eldönti, mit akar és legfőkébb hányat. Én pl. simán beneveznék két vagy több kártyára.
  • mainruler
    #169
    Épp ellenkezőleg, derülátó vagyok. Ugyanis mindig rühelltem az NVidiát, a Voodoo-któl meg egyenesen hányok. :))
    Gondolom kiderülhetett, hogy semmit se utálok jobban, mint a begyöpösödött "no technology, fill rate is king, power-power-power" gondolatmenetet (kocsiban, videókártyában egyaránt) és az ennek szellemében született termékeket. Nem értem, hogy lelkesedhetnek emberek olyan kártyákért a nanotechnika korában -amik kifinomultságban kábé egy exkavátor bájával vetekedhetnek-, csak mert rájuk pakolnak egy csilli-villi zöld-metál színű páncéldarabot, meg egy akkora turbinát, hogy az ember elgondolkozik azon, ne adj Isten az NVidiának harci helikopter gyártási licensze is van-e...
    Visszatérve a borúlátásra, azt hiszem az Nvidia nem fog már aratni semmivel mostanság (pont te szúrtad be, de olyan szép így leírva, hogy nem tudom megállni :P):

    "Now here is a company that can turn a press conference into their own trade show. While NVIDIA had a lot more than VIA to say about their chipsets they seemed to be avoiding the products that we all came to hear about. Those products would be the NVIDIA GPU’s. There was little mention about any new FX cards or the current ones. The NVIDIA CEO Jen-Hsun made it quite clear that the graphics industry would no longer be the primary focus point of the company. They then continued to demonstrate a wide range of new multimedia products.

    Annyira szeretném látni, hogy az történik az NVidiával, mint amire az S3 is kényszerült! Csak hál' Istennek az NVidia nem rendelkezik olyan jó mobil szekcióval, mint az S3, az integrált lapkákra meg nem igazán van kereslet, tehát ha tényleg kiszáll a desktop piacról, akkor remélhetőleg végleg eltűnik a süllyesztőben.

    Gondolj bele, ez az utóbbi évek legnagyobb pofáraesése. Az még nem lett volna végzetes, ha csak egyszerűen egy szar kártyáról volna szó, de az NVidia köcsög viselkedése a partnereivel szemben (állandó basáskodás és követelőzés) most százszorosan visszacsapott és sorra hagyják el a leghűségesebb gyártók is, ami tekintve, hogy maga az NVidia nem gyártott magának lapkákat csak tervezte őket, elég súlyosan hangzik. Nem is csoda, hogy ezek után már nem az asztali piac a fő célpont... :)
    Egyébként még azt is el tudom képzelni, hogy a 3dfx mérnökei végső bosszúként cégük tönkretétele (mert bár szarok voltak a 3dfx-ek, de ha nem lett volna ilyen agresszív ellenfél az NVidia, akkor talán még ma is itt lennének) és bekebelezése feletti bánatukban -na meg persze a cégnél elszenvedett megaláztatások miatt (ebédszünetről visszatérve és útban az aktarendezgetés felé a folyosón; "Nézzétek, ott mennek a Voodoosok...hahaha..." )- direkt ütöttek léket az NVidia hajóján... ;-)

    Modjuk egyébként mondasz valamit ezzel a dual VPU-s cuccal.
    Szerintem VoodooForce 6, vagy valami ilyesmi lesz a neve és extra fícsörként akár több tápot is rá lehet majd kötni és így megemelni a teljesítményt, mert ugye egy táp csak egy GPU-t tud működtetni, természetesen...
  • TheZsenyka
    #168
    "Nos azt hiszem, az NVidia azért nem járt ilyen jól a 3dfx-el...:)))"

    Borúlátó vagy. Figyeld meg, hogy az NVIDIA aratni fog majd egy duál VPU-s cumóval...
  • mainruler
    #167
    Nem történt semmi. :)
    Egyébként szerintem mostanában repülhetnek az NVidiától, én legalábbis ezt tenném... :D
    Ezért mondtam korábban, hogy ahol a 3dfx megjelenik, ott kő kövön nem marad.

    Egyébként az, hogy az NVidia mostanáig (és ki tudja lehet, hogy ezután is) megtartotta a mérnökgárdát és, hogy egyáltalán felvásárolta a 3dfx-et, valószínűleg -persze a 3dfx technológiákon kívül- a keresztlicenszekből és különféle jogokból adódik, amit a 3dfx a tönkremenetelkor birtokolt. Ugyanezért született meg pl. az S3-VIA Joint Venture is, mivel a VIA-nak szüksége volt az S3 intellel kötött keresztlicenszeire és alaplapi integrációs jogaira. Mivel az intel és a VIA jelenleg lezárta a pereskedéseket és puszipajtások (intel alaplapok gyártása, miegymás), úgy tűnik, hogy a VIA jó bulit csinált, mikor megvette az S3-at és az S3-nak a PowerVR-t (bár még kérdéses, hogy bejön-e a DeltaChrome a desktop népeknek, a mobil piac meg úgysem kérdéses a mai lebutított 4 pipeos Ati/Nvidia kártyák mellett).
    Nos azt hiszem, az NVidia azért nem járt ilyen jól a 3dfx-el...:)))
  • TheZsenyka
    #166
    Eddig sem volt titok a 3DFX Axel, szerinted minek vették meg a 3DFX-et anno? A technológiák miatt. Nyílvánvaló volt, hogy felhasználják őket. Különben mi a tökömnek fizettek volna érte?