73
  • Akuma
    #33
    Szerintem DX10-ben időtálló kártyában a jelenlegi generációkkal nem szabad tervezni. Túl sok újítás van a DX10-ben, amire még nem készültek fel a mai kártyák. Geforce 9-el viszont már remélem hasítani fognak.
  • maestro85
    #32
    Anno volt az ATI-nak már két chipes kártyája, talán rage 128-al. 50%-ot sem fogja elérni a gyorsulás ha a technológián nem fejlesztenek, és a meglévőhöz nyúltak. Egyébként én sem értem, nem húz el annyira a GF mint amenniyre itt előadják.
  • Inquisitor
    #31
    "A lépés már csak azért is meglepő az ATI részéről, mert a cég sokáig lehúzta a nagyközönség előtt a többkártyás/többchipes felállásokat."

    Ez nekem zsír új. Akkor miért van Multi GPU és Tile Rendering a Rage 128pro óta az ÖSSZES ATI GPU-ban? Viccből???
  • Inquisitor
    #30
    "szánalom volt a GeForce FX??? az 5200asnak rohadt jó ártljesítmény aránya volt,"

    Ezen fél óráig röhögtem, már ne haragudj de te miről beszélsz? Az 5200 annyira sz*r volt újkorában, hogy normális sebességgel még egy DX8 játék se futott le rajta, max. ha levettél mindent közepesre vagy jobban. Tipikusan olyan kártya volt, amit nem érte meg megvenni. Azok akik megtartották a GF3/GF4 (nem MX!) kártyát, azoknak is gyorsabban mentek a cuccok, mint azon a hulladékon.
  • sh4d0w808
    #29
    Szerintem a cikk írója nem olvasott GF8500/8600 teszteket. Aki azt állítja, hogy ezek a kártyák jól teljesítenek, annak szemüvegre van szüksége. Ezenkívül az X1950-es családnak most sokkal jobb az ár/érték aránya, mint bármi másnak, ergo momentán a legjobb vételnek számít. DX9 alatt ronggyá veri a mostani "középkategóriát", ami majd dx10 alatt sem fog nagyon teljesíteni. Az meg, hogy az ATi lehúzta a többchipes/-kártyás megoldásokat...? Hmmm... Kedves cikkíró: hallott már a CrossFire-ről?
  • dez
    #28
    "8-szorosan párhuzamosítva" -> illetve. 16-szorosan, 1-1 ilyen 2x8-way blokkban. (Az egyes blokkok más szálakat kezelhetnek.)
  • dez
    #27
    "Az ati most lemaradt, mert igaz hogy hamarabb hoztak ki a dx10-es egysegeiket"
    Miről beszélsz itt? A Xenosról? Az bár unified shaderes, de nem DX10/SM4.0-ás.

    "de a microsoft kibovitette a vegleges szabvanyt es ezt csak az nvidia tudja jelenleg teljesiteni."
    Újfent, mi a csudáról beszélsz? Éppenhogy az R6xx tud többet: tud hardveres tesszelációt, ami elvileg a DX10.1-nek mondott specben már szerepelni fog.

    "(mivel teljesen szabadon c-ben programozhato"
    1. Nem programozható teljesen szabadon, nagyon is kötött - attól még, hogy c-s a CUDA, nagyon is nem egyszerű.
    2. Ennek semmi köze a DX10-hez.

    "smt-s skalar cpu-kat hasznaltak"
    Tévedés, mert 8db 2x8-way SIMD MADD + 2x8-way spec. funct. felépítésű - bár programozási szemszögből skalár kódot fut 8-szorosan párhuzamosítva, egyenként más-más pixelt címezve.

    "mig az ati-nal meg csak a pixel processzorok tudnak teljesen szabadon dolgozni"
    Mi van???
  • kvp
    #26
    Alapvetoen a gf8800-as csalad egy nagyon jol eltalalt altalanos celu segedprocesszor csalad, erre utal a beepitett harom kommunikacios port is, ami lehetove teszi a szuperszamitogep node-kenti hasznalat. A gf8600-as sorozat egy erossen butitott 8800-as, ami a regi 7600-asok helye megy (fizikailag is), de szandekosan nem tud tobbet mint egy 7600-os.

    Az ati most lemaradt, mert igaz hogy hamarabb hoztak ki a dx10-es egysegeiket, de a microsoft kibovitette a vegleges szabvanyt es ezt csak az nvidia tudja jelenleg teljesiteni. (mivel teljesen szabadon c-ben programozhato smt-s skalar cpu-kat hasznaltak, mig az ati-nal meg csak a pixel processzorok tudnak teljesen szabadon dolgozni)

    Az ati egyetlen eselye az, hogy kihoz egy gf8800-as szintu altalanos cpu tombot meg az intel hasonlo rendszere elott. A technologia adott, ilyet mar keszitett az ibm es az intel is, meg 1984 korul. (lasd: ibm PGC, 8 mhz-es intel altalanos celu programozhato gpu, 3 kartyas szendvicsben, 3D-s vektor es pixel pipeline-al, 640x480-ban fotominosegben egy kisebb haz araert)

    A technologia es a fejlodes iranya adott, a ket regi egyseg csak teljesitmenyben, de nem tudasban ad ki egy ujat, tehat csak ideiglenes felmegoldas.
  • who am I 7
    #25
    dez megint itt zombulsz.
    nem lesz ennek jóvége

    Egyébként közép/alsó kategóriánál még ok ez a dual gpu.Tovább már erölködés lenne.De én akkor is annak örülnék igazábal, ha egyetlen egy konstrukcióval tudnának felülkerekedni..ne kelljen rá 2...
  • dez
    #24
    ("megközelíti" -> mellesleg szűrők nélkül, stb.)
  • dez
    #23
    Mit ér, ha megközelíti az előző generáció közép-felsőjét, ha a negyede az új csúcsnak, mely maga sem egy villámjack az új kódokban? Az lenne a normális, hogy a közép legalábbis a felét hozná a csúcsnak. De igazából a 8600 nem is a közép, hanem valójában az alsó, és majd a 256 bites buszos 8700(?) lesz az. Akik meg elhitték, hogy a 8600GT(S) a közép, fizethetik a tanulópénzt.
  • dez
    #22
    ehh, logikus
  • dez
    #21
    Szal, tök ligikus, hogy ha van egy olcsón gyártható, keveset fogyasztó chipünk, ami önmagában kicsit lassabb, mint az ellenfél, és ott van a CrossFire, akkor tegyünk 2 ilyet egy kártyára, és hozzuk ezt ki bőven eladható áron.
  • dez
    #20
    Jé, te fejlődsz! :) Csak ez a 3DFX-es dolog nem kéne, mert nem ugyanaz 25 chippel sem hozni, amit a másik 1db-bal, és megint más 2 (olcsón gyártható, keveset fogyasztó) chippel megverni az ellenfelet.
  • dez
    #19
    Na akkor én is hozzáteszem a saját "kritikámat", mert nagyon ráfér erre a cikkre. :D

    "Az ATI múlt hónapban megjelent csúcs- és középkategóriás fejlesztései nem igazán tudják felvenni a versenyt a rivális GeForce erőgépekkel."
    Attól függ, miben. Teljesítményben igen (bár az újabb ATI driverekkel javult a helyzet), árban és fogyasztásban már kicsit más a helyzet, és mint tudjuk, ezek hányadosa határozza meg a dolgokat.

    "ám a cégnek nem lehetett túl sok öröme a megjelenésben, hiszen gyorsan egyértelművé vált, hogy a friss fejlesztésekkel sem tudják kikezdeni az nVidia előnyét."
    Itt megint csakis a teljesítményről van szó.

    "ahol ebben remélik megtalálni a kiutat a kedvezőtlen helyzetből."
    Hol kedvezőtlen helyzet az, hogy az alacsony ár és fogyasztás (80nm vs. 65nm) miatt az OEM-ek nagyrészt az HD2400/2600 kártyákat keresik (és nem a GF8500/8600-asokat)? És sok egyéni vásárlónál is sokat nyom a latban az ár, főleg a közép és alsókategóriában.

    "A gyártó azt reméli, hogy a viszonylag kedvező ár (190-250 dollár) révén kellő érdeklődést keltenek majd az extrém fejlesztések."
    Két olcsó, középkategóriás chipet egy panelra tenni talán nem annyira extrém.

    "A lépés már csak azért is meglepő az ATI részéről, mert a cég sokáig lehúzta a nagyközönség előtt a többkártyás/többchipes felállásokat. Természetesen ebben szerepet játszott az is, hogy nem állt rendelkezésére megfelelő alternatíva, így csak szóban vághatott vissza riválisának a fanatikusoknak készülő SLI-felállásokért."
    LOL, hol van az már... Esetleg annak meglepő, aki 5 évig kómában volt. :)

    "Nagy kérdés, hogy mennyire sikerül majd meggyőzni a vásárlókat arról, hogy igenis érdemes a két vezérlőt tartalmazó kártyákba fektetni."
    Majd a számok elvégzik a munkát.
  • Akuma
    #18
    Geforce FX tényleg eléggé siralmas volt... volt benne nagyobb sebességű kártya és jól húzható kártya is, csak éppen nem voltak képes teljes DX9 támogatására... Így sok játék eléggé selejtesen nézett ki vele, illetve volt ami el sem indult vele...
  • Akuma
    #17
    Nem sokkal régebbi, hanem egy generációval azelötti csúcskártyáról beszélsz! Az lett volna a csoda, ha nem veri meg az X1950pro!
    Az igaz, hogy a 8600GT harmad annyi teljesítményt nyújt mint a 8800GTS, de ez nem a 8600GT-t alacsonyítja le, hanem a 8800GTS-t hozza előtérbe... csábítják az embereket a minnél drágább videókártyák iránt.
  • Sanyix
    #16
    "A problémát az jelenti, hogy a GeForce 8800 és 8600 túlságosan jól sikerült"
    hahahahahahahahahaaaaa a 8600 olyan szarul sikerült, hogy még egy sokkal régebbi 1950pro is péppé veri szinte minden tesztben :DD
  • feamatar
    #15
    szánalom volt a GeForce FX??? az 5200asnak rohadt jó ártljesítmény aránya volt, ugyanígy ATIból az X16xx kategóriának, a HD2600asnak is reményeim szerint szép ára lesz mert a Gef8600 az khm...
  • lazsi
    #14
    Nem szar az, csak mostanában rájuk jár a rúd. Volt innovatív kártyájuk Radeon 9700nak hívták. Emlékszem még hogy annakidején haverok átjöttek hozzám megnézni a radeon 9700 kártyámat és mind lesett h milyen gyors meg fasza, ők meg szenvedtek a gef5el ami hangos volt, sokat fogyasztott és dx9 alatt annyira belassult hogy használhatatlan volt. Nagyon jó kis kártya volt ez a bizonyos radeon 9700, annyira hogy azóta se cseréltem le, már több mint 4 éve duruzsol a gépemben napi 24órában és habár már az új progikhoz nincs benne kellő erő ha nem akarsz lowon játszani, de a régebbi progikat szépen viszi és teszi a mindennapi dolgát probléma nélkül.
  • MisterZ
    #13
    Egyszer fennt, egyszer lennt. Anno szánalom volt a GeForce FX is... :P (GeForce 5xxx)...
  • m4G1c
    #12
    a 3dfx ma az nvidiát erősíti, ami azért nem lebecsülendő, tekintve, hogy mit értek el a maguk idejében. az atinak csak azért érdemes maradnia, hogy versenyre sarkallja ellenfelét - semmi másért. az nvidia messze előrébb van és volt, pár elb*szott chipről az ati is mesélhetne. az utóbbinál még egyszer sem láttam olyan innovatív megoldást, ami megingatta volna a hitemet. még a firegl sem. (nv-ék ráadásul egy kiforrott gelato-val is kedveskednek a nem-játékos power usereknek)
    nem mondom, hogy az ati rossz, az ati sz*r, ezek csak tények és nézetek.
  • archkoven
    #11
    Szerintem az áron/teljesítmény arányon dől el a dolog, meg, hogy tudja-e probléma mentesen futtatni a játékok zömét. Ha igen, akkor nem hiszem, hogy a felhasználók többségét érdekelné, hogy hány gpu van a kártyán.
    A dolog egyébként engem erősen kezd emlékeztetni a 3dfx utolsó időszakára, és az mint tudjuk, nem végződött túl jól. Sajnos az AMD dolgai nem állnak túl fényesen az utóbbi időben, de reménykedjünk, hogy átvészeli ezt a nehéz időszakot.
  • Evogordon
    #10
    Én is ATI párti vagyok mert még ATI-val nekem ment mindig minden szépen.
  • Inquisitor
    #9
    Két GPU-val nem eszik annyit, mint egy X19xx kártya egy darabbal. RV6x0 GPU-k iszonyat keveset fogyasztanak, azért veszik tonna számra a Brand PC gyártók. Bukni nem azért fog mert sz*r, hanem azért amiért bukta volt akár GF6600-ból, akár X1650XT-ből az ugyan ilyen próbálkozás. Túl drága annak a vásárlórétegnek akit célozna, a pénzes HC gamer meg csúcskártyát vagy két GPU, SLI, CF csúcskártyát vesz, nem ilyet. Az egyetlen előnye, hogy 4 kimenetet kezel HDCP-vel és a két GPU miatt akár 4db full HD videót is le tud nyomni zokszó nélkül (már ha ezt a driverben megoldják), viszont őrofi stúdióba akkor is Matrox vagy jobb cucc lesz ezután is a gépekben.
  • GABOR16
    #8
    Azért az ATI új jövevényei a DX10 et jobban bírják :)
  • BlueGold
    #7
    A két IC az szép dolog csak az a baj vele, hogy a játékok "nincsenek rá felkészitve" itt van a cikk a témáról bővebben.
  • Inquisitor
    #6
    "A problémát az jelenti, hogy a GeForce 8800 és 8600 túlságosan jól sikerült ..."

    A 8600? Ezen jót röhögtem. Atomgyorsan hasítanak rajta majd a DX10 gámák. ;)
    (Igaz ez kb. összes többi jelenlegi DX10 vasra igaz.)
  • sathinel
    #5
    ?? néztél mostanában teszteket? mert annyival nem jobb az intel. És olcsóbb az AMD proci. Ha mindezt összeveted nem olyan rossz)

    Pl: teszt

    szerintem annyira nem tűnik ki hogy mindenképp meg kéne venni az intelt. Árban meg megint nem érzem ezt. És ha azt nézem hogy miket csinált hogy erőfölényben maradjon, akkor mindenféleképp AMD-t veszek.
  • haxy27
    #4
    én megy csak ATIt veszek mert igen csak besfürödtem a GeForce kártyákal már többel is. volt ameiken a szin nem stimel volt hogy egyes játékok percenként egy kockát mentek ez utobi egy hete. lehet hogy a kártyák jók de a hozzá irt szoftverel elég sokszor baj van. A redeonal még sohasem volt ijen bajom.
  • M0RN1NGST4R
    #3
    ezaz, zabáljon még több áramot!
  • Tombi
    #2
    kezd hasonlitani a 3DFX harcára amikor a végén a vudu 6-ba már chhip volt ha jol emléxem. ATI bukni fog, én semmi penzert nem vennék most atit
  • grebber
    #1
    Mindent bevetnek ,de levannak maradva nagyon nvidia mögött mint az amd az intel mögött.Ez még jódarabig igy is marad!