37
  • Pheel
    #37
    Szerintem, ha lenne nekik, már kiadták volna. Főleg karácsonyra.
  • Pheel
    #35
    Igen, játékokra gondoltam. És szar is rendesen. Igaz, hogy nem minden Matrox való játékra, de sokan vettek csak arra Matroxot. A cég pedig évekig ígérgette, hogy jön a tuti driver. Aztán most sincs.
  • Pheel
    #33
    OFF

    Elég jól néz ki az a betűtípus a te logódban is, de én nem sírom vissza. Ezt is szeretem :)

    ON
  • jojo
    #32
    Na azt látod csoda lenne!
    De a tesztek egyenlőre azt mutatják, hogy az xgi nem egy nagy durranás még duplán sem.
    Az Nvidiának Pedig vége!
    Az Ati most jó,de hogy mit hoz a jövő,majd márciusban megtudjuk.
  • mainruler
    #31
    :)

    off
    a régi volt a legjobb logó, nem? :)
    off off
  • Pheel
    #30
    Hát mostmár sokkal okosabb lettem. Köszönöm. Esetleg azt is leírod nekem, hogy mi a Dual-DVI meg a videokártya?
  • mainruler
    #29
    DX9 chipekről volt szó...
    Ha globálisan néznénk, akkor lehet, hogy a félmegás Trident vinné el a pálmát. ;-)
  • jojo
    #27
    Ehhez azért van pár szavam!
    Van egy Abit Gf4 4200 128mb vgacard-om.
    Beégett a ventilátor tengelye, amit lehetetlen észrevenni. Nekem abból tünt fel, hogy komolyabb játéknál az egész gép kikapcsolt kb 1-2.óra játék után.
    NEM égett el a csipp, most is ezt használom.
    Az igaz viszont, hogy passziv hütése az volt.
    Szóval ebbe ne legyél biztos!!!!!!!!
  • mainruler
    #26
    A lényeg annyi, hogy leszedte a srác a hűtőt a chipről és míg ez a többiek esetében majdnem azonnali halált okozott volna, itt még 15mp-ig bírta fogni, mielőtt kellemetlenül forró lett. Ezek után visszarakta az egészet de kikapcsolta a ventit, tehát csak passzív hűtéssel ment a kártya és egészen brutális 40 fokig fel bírt menni a hőmérséklete néhány órás használat után. :)
    Érdekes lenne egy leolvadás-versenyt rendezni... az 5mp talán már jó időnek számítana.
  • jojo
    #25
    Na ezért nem tanulok meg angolul.
    S3 DeltaChrome S8: nem Nvidia termék.
    Kíváncsi vagyok, vajon egy XGI meddig bírná hűtő nélkül...
  • mainruler
    #24
    Ja, az az 5W, meg molex sincs...:)

    "Originally designed for a notebook application, the chip supposedly runs cool. Well, I can confirm that to be the case, as I wanted to check out the ability of the card. While the card was looping 3dmark 03, I popped the fan off the core. With other graphics chips that would have spelled nearly instant disaster (trust me, I've killed one before) but with my finger on the chip it warmed up to uncomfortable levels in about 15 seconds. While I didn't see if I could melt the chip off the board, it was reassuring to see it warm up gradually. I reinstalled the cooling solution and did something else I wouldn't recommend to anyone: I disconnected the fan lead. WARNING: Do NOT disconnect fan leads while the computer is running as it could cause damage. Fortunately, the fan stopped without incident and I waited for the computer to explode. I had my hand on the now passive heatsink and the power button waiting for the smell of burning resin. Nothing. After about 5 minutes, and a moderately warm heatsink, I took care of some emails. About an hour later, the heatsink had warmed to an estimated 40 degrees celsius. Not too shabby. In fact, rather impressive. The heatsink was NOT designed as a passive cooling solution and was not covered in fins. I imagine that a moderate finned solution would keep this S8 nicely cool."

    Kíváncsi vagyok, vajon egy NVidia meddig bírná hűtő nélkül...
  • jojo
    #23
    S3 DeltaChrome S8
  • jojo
    #22
    Azért megnézném hány wattot igényel a nyák , ha két dugót is felraktak.
  • jojo
    #21
    veszel hozzá 5-s elosztót
  • Mr_Rob
    #20
    És mégis? Hova dugom a vinyókat, meg CD/DVD meghajtókat, ha ez a böszme 2 foglalatot is kér?
  • jojo
    #19
    Én Tudom, Újabb pénznyelő gammereknek!
  • Pheel
    #18
    Ki mondta, hogy mire van fejlesztve?
  • jojo
    #17
    Eladom megunt 1850W tápomat, mert új VGA-Card láttam a neten.
    jelszó: sosincs vége!
  • Pheel
    #13
    Ellenpélda: Matrox. Szar volt a driver, szar ma is :)
  • jojo
    #12
    ha 2.db. ATI, vagy 2.db Nvidia chippet raknák 1 panelra, akkor az lenne a teljesítmény csúcsa.
    AKKOR SE KÉNE PLUSZ 2 BETÁP.
    1000 WATTOS TÁPOT A GÉPNEK! ÉLJEN A PAKSI ERŐMŰ!!!!
  • Csóka
    #9
    Nemis... Sztem lesz egy olyan kártya, mint akármelyik, csak először még driver kell hozzá.

    Amúgy csá, 911, Neked sincs jobb dolgod, mint netezni szilveszter este? :))))
  • Csatti
    #6
    Hát meglátjuk. Egy kellemes kis konkurenciaharc csak nekünk jó. :)
  • ZMAN
    #5
    Szép!!!Nagyon szép!!
  • Darth Sith
    #4
    hogy többet fogyasszon. :D
  • grebber
    #2
    Ja és azt nem értem mi a rákért kell két darab tápcsatlakozot rázuzni!
  • grebber
    #1
    Prohardveren néztem tesztet erről de még elég buta driver van hozá NFSU-ban képes volt 11fps-t produkálni!!!
    Pedig maga a kártya jó csak még nem tudnak drivert gyártani mert bénák!
    Remélem csinálnak hozzá egy jót mert akkor minden más VGA-nak lejjebb megy az ára valamelyest!