276
  • JCSR SASboy
    #276
    Aki tud egy jó AMD konfigot kb. 100 ezer forint értékben írjátok meg . plspls Nagyon fontos lenne. thx
  • PyRex
    #275
    Ez először is nem igaz, másodszor pedig a HDR nem egyenlő a PS/VS 3.0-val...
  • PyRex
    #273
    Majd kiderül, melyik kártyán milyen sebességgel fog futni és hogy fog kinézni :)
  • PyRex
    #270
    Na kicsit utánanéztem a HDR sebességének ATi X800-on:

    KLIKK!

    Pfff.... LOL! :)))))))))))))))))
    Ennyit a 6800U-ról :)

    De még mindig azt mondom, hogy a túl sok csillogás miatt nem realisztikus, inkább egy porcelánbolthoz hasonlít a game. Szerintem ha FarCry, akkor csakis COLD RENDER MODE...
  • PyRex
    #269
    Azzal ugye azért tisztában vagy, hogy az új radeonok is tudják a HDR-t...? (mármint, pl. már a 9800 is...)
  • Mice
    #268
    tojok rá, nekem tetszik
  • PyRex
    #267
    ...csak kurvára nem élethű. :(
  • PyRex
    #266
    Hmm, ez KURVA JÓL NÉZ KI! :)
  • PyRex
    #263
    Szerintem mindenki be tud linkelni 100-100 olyan oldalt ahol az ATi illetve az nVIDIA kártyák képe a rosszabb.

    De pl. a 9800PRO-mon k*rvára nem áll fent az a jelenség, amit írsz.
  • Pheel
    #261
    Ha gyorsabb és nem gyengébb, akkor miért van implementálva a lassabb megoldás is ugyanazokban a termékekben? Nem logikus. Algoritmust nem lehet levédeni, ahogy tudom.

    És akkor az nVidia AA-jának az a baja, hogy speckó? :)
  • PyRex
    #260
    nem gyengébb: gyorsabb. nem ugyanaz! és azért nem alkalmazza mindenki, mert egyedi, esetleg védett. nvidiának az aa-ja is speckó volt egy ideig...
  • Pheel
    #259
    Valószínűleg nem véletlenül van egy gyengébb és egy jobb algoritmus. Ha nem járna minőségromlással a gyengébb alkalmazása, akkor minden gyártó azt alkalmazná.

    Mi baj az nVidia AA-jával?
  • PyRex
    #258
    A gyengébb algoritmus képminőség romlással is jár? Szerintem nem... Ez kb. olyan, mintha belekötnénk az AA-ba mondjuk az nVidiánál...
  • _Vegeta_
    #256
    Ez tenyleg jelentos fps novekedes.
  • _Vegeta_
    #244
    Nemnagyon van igazad. Teny h most atit erdemes venni, ugyanugy ahogy amd-t. De még nemtudjuk mit hoz a jovo.
  • Pheel
    #235
    Nem unjátok még? Lassan bezárom az egész hülye topicot...
  • PyRex
    #233
    Ez mindig is így volt: ha a 3D Mark-ban az ATi jobb volt, akkor az nVIDIások azt mondták: a tesztek semmit sem érnek. Amikor az nVIDIA lett jobb, mert csalt, akkor sorban kirőhőgték az ATi-t, hogy: 3D Mark-ban is gyorsabb az nV. Amikor kiderült, hogy csalt az nV, akkor persze nagy kuss volt, de azért halkan megjegyezték, hogy: a tesztek semmit sem érnek...
  • PyRex
    #227
    Pff.. Neked sok sikert a GeForce 6800-hoz DirectX9 a-val...
    És itt kb. be is fejeztem...
  • PyRex
    #224
    Nem is tudom miért idegesítem magam ilyeneken komolyan... Nektek tényleg a GeForce 6800-as való...
  • _Vegeta_
    #222
    :D Respect
  • PyRex
    #220
    Még csak annyit, hogy aki nagyon kételkedik az nVidia optimalizációjában, az nézze meg EZT A FÓRUMOT!

    Jó olvasgatást!
  • PyRex
    #219
    Na látod ez pontosan így van, ahogy leírtad, nem tudom, hogy akkor min is vitatkozunk. TUDOM, hogy ha SM3.0-t használ majd egy játék, akkor 6800-ason bőven gyorsabb lehet, mint X800-ason.

    Csakhogy és de:

    Gondoljunk csak vissza az első GeForce kártyákra és a T&L esetére... Mikorra kijöttek a játékok, amik ki is használták, már másfél generációval frissebb videokártyákat lehetett kapni.

    Tehát én csak annyit mondok, hogy szerintem nem lesz SOK játék, amiben az elkövetkező fél évben lesz sm3.0 támogatás (mondjuk a FarCry-ban pont lesz :). Utána meg úgyis jön újabb generáció mind2 cégtől, akkor meg már tökmindegy.

    Ráadásul az sm2.0 és sm3.0 jóformán csak SEBESSÉGBEN tér el. Tehát látványban nincs olyan, amit a 3-assal meg lehet valósítani, a 2-essel meg nem. Csupán a 3-as gyorsabban teszi majd.

    De mondom: ahol lesz 3.0 támogatás, ott a 6800 valószínű, hogy elhúz majd az atitól.

    És asszem legyen ez a végszó, nem akarok vitatkozni hülyeségeken, az idő majd mindenre választ ad.

    PEACE! :)
  • PyRex
    #218
    De annyival, nézd meg a képeket, vagy ha ezen nem látszik, akkor keress rá. Sok 6800-as "hátán" eleve dupla fémlemez van (2 slot-nyi).
  • PyRex
    #215
    miért is nem?
  • PyRex
    #214
    LOL, te mekkora láma vagy kisfiam. Én DX9 verzókról beszéltem barátom, nem a shader modellekről, olvasd el még egyszer, hátha leesik...

    A másik meg: FX-ek meg a DX9 támogatás? Hát ez kurvára jó, hogy flehoztad! Eddig az FX kártyák DX9 alatt olyan szinten fostalicskák voltak, hogy azt elmondani nem lehet, ez TÉNY ba*meg, mindenki tudja. El lehet olvasni mondjuk a FarCry fórumokat, az ÖSSZESBEN csak a sok nVidiás lúzer nyafogásait lehet hallani, hogy miért ocsmány a játék, meg miért lassú. Na kb. ennyit az FX-ről, meg a DX9-ről. ESETLEG a 6800-as majd változtat ezen, AMENNYIBEN ki lesz használva a shader model 3.0 ...

  • PyRex
    #206
    "Az ATI alá sem tanácsos rögtön az első PCI slotba kártyát tenni, mert "leárnyékolná" a ventillátorát."

    Akkor az nVidia rögtön 2 PCI slotot foglal le ilyen erővel...
  • PyRex
    #202
    Kezdesz fárasztó lenni...

    "Ha nem tudnád a hűtő a kártya szerves része, semmi értelme arról beszélni, hogy mi lenne ha levenném és egy másikat raknék rá vagy ilyesmi."

    Ez eddig a legnagyobb baromság. Főleg a kioktató "Ha nem tudnád..." szavak.

    Nekem pl. IGENIS számít, hogy elfolgal-e a hűtő még egy slotot. Ha viszont elfoglal, akkor maximum ZALMAN hűtő lehet. Ami passzívan képes hűteni egy 9800XT-t is, tehát egy X800PRO-val simán, de szerintem még egy X800XT-vel is képes majd megbírkózni. VENTI nélkül, 0db zajjal! Szerintem EZ pl. fontos! Ezért CSERÉLTEM LE pl. a 9800PRO-m eredeti hűtését egy ZALMAN bordára.

    !KLIKK IDE!

    Ezt egyébként nagyon sokan megteszik, ezért nem értem a fent idézett mondatodat.
  • PyRex
    #201
    Ezt mondom én is. A ház belsejét az NV40 melegíti fel jobban. A borda azért hidegebb, mert rohadt nagy. De ez nem meglepő.
  • _Vegeta_
    #199
    Igen tom mikor bejott az FX a kutya se akart olyat, mert szar volt. Melegedett, hangos volt, 2slotot fogalat el, lassu is volt viszonylat stb.
    Azota kicsit mar alakitottak rajta az nvidiasok.
  • PyRex
    #196
    Ez így ok is lenne, de ez szvsz egyáltalán nem olyan biztos...

    Mert ha a patch miatt rondább (tehát amiatt kell kevesebbet számolnia a GPU-nak megjelenítéskor), akkor ez azt fogja jelenteni, hogy a következő patch kiadásakor - amivel már normális esz a képminőség - megint igencsak vissza fognak esni a 6800-asok a FarCry alatti sebességtesztkben...

    Hacsak nem nyomják bele az SM 3.0 támogatást, mert úgy el is húzhatnak az ATi-tól. Majd meglátjuk... :)
  • PyRex
    #195
    "Ez mar nem fejlodes amit csinalnak. (Kulon tapellatas a kartyesznak, mer az AGP mar nembirja, 2kilos hutes, satobbi.)"

    Namost ez PONTOSAN az FX-ekre igaz.

    Basszus: a radeonok elmennek PASSZÍV hűtéssel... Ok, külön táp annak is kell, de NEM 2 CSATLAKOZÓ! (Mellesleg külön táp már elég régóta kell az izmosabb kártyáknak, ami várható is volt...)
  • PyRex
    #194
    Ő, namost szerinted meg köze nincs ennek a két dolognak egymáshoz, vagy mi? :)

    Ha van két nagyjából azonos felületű fémdarabka, az egyik mondjuk 80 fokos, a másik 100. Melyik termel több hőt?
  • PyRex
    #193
    Bocs, de tartok tőle, hogy 6800-ast NEM láttál, sem pedig X800-ast. Ha neked a képről nem süt le, hogy az nVIDIA kártyáján a borda kb. tripla olyan magas (így a ventillátor is, ugye) és a felülete is legalább 2,5-szer nagyobb, mint az ATi kártyáján lévő bordának, akkor talán keress fel egy szemorvost, csak ne írj baromságokat.
  • _Vegeta_
    #191
    Ember figyussz, en nem vagyok nVidia párti, ugyanugy ahogy Ati párti sem vagyok.( Az Ati Rage kartyit imadtam Anno, ugyanugy ahogy a nVidianak riva128at.)
    En csak azt mondom amit tapassztaltam. Lattam fx-et meg uj atit is mukodes kozbe.
    A lenyeg: mind a 2 tipus szar! Mind a Radeonok, mind az Fxek. Ez mar nem fejlodes amit csinalnak. (Kulon tapellatas a kartyesznak, mer az AGP mar nembirja, 2kilos hutes, satobbi.)
    A keprol: hat nemtom te hogy tod megallapitani a zajszintet keprol. :P En ugylatom a Radeon ventie a nagyobb. :P
  • PyRex
    #187
    Erről (is) beszéltem....
  • PyRex
    #186
    Jajj, ne mennjek már át gusztustalanba...

    Öregem, te tényleg ekkora seggfej vagy, vagy csak most nem tudsz mit mondani és tetteted magad?? Miért égeted magadat le még ennél is jobban?

    Kb. 10x akkora borda van a magon ba*meg!!!!!!!!! Nincs szemed??? Meg a ventillátor is dupla olyan magas. Szerinted akkor nem egyértelmű, hogy a BORDA hűvösebb? De ettől még a graf. chip sokkal jobban melegszik - pontosan emiatt van szükség ilyen hűtésre...

    Komolyan, nem tudom miért vitatkozom ilyen nagyon okos, hozzáértő gyerekekkel...
  • janos666 #180
    Nem mondom hogy ez számít egy kártyánál, de tárgyilagosan nézve is SZEBB az alsó, pedig még nincs is rajta semmi díszfestés vagy nyomtatott fólia. (a legtöbb gyártó csak kifényezi majd a nevével meg a logójával)
  • PyRex
    #179
    LOL, ja bemutatták, de csak külsőleg lehetett megtekinteni a kártyát :)))))))))
  • PyRex
    #178
    Lehet, bár én 300-ast írtam direkt, mert azt tuti olvastam, de a 250W is rémlik, csak abban nem vagyok biztos.
  • janos666 #177
    Én meg valami olyasmit hogy egy 6800Ultrát egy 200W-os mercuri táppal nyomattak.