65
  • kisgabo
    #65
    jöhetne, mert vicc ami a 8800GT körül megy, pár tesztpéldány, meg 20 db az országba.. röhej. karácsony előtt.
  • And01
    #64
    Mondjuk radeont veszek én is,de per pillanat sem a dx10-nek
    sem a 10.1-nek nem sok értelmét látom ameddig a Vista nincs
    elterjedve 5-10%.
    Ráadásul a játékfejlesztőknek nem lenne jó bolt csak
    kis piaci részesedésbe ágyazni egy játékot {a mai programozási költségeket
    figyelembe véve}
    Ameddig meg dx9-en is kijön minden nem éri meg váltani!
  • dez
    #63
    A DX10 is a Vistához kötött, mégis van DX10 támogatás pár új játékban. Persze a Vistán játszók a piac egy kis része, és amíg csak az ATI támogatja, a 10.1 még ennek kb. fele. Amíg így marad, nem nagyon fogják támogatni, de valószínű, hogy az Nvidia köv. GPU-ja (ami nem csak a G80 shrinkje, mint pl. a G92) is támogatni fogja.
  • And01
    #62
    A dx10.1 akkor érne sokat ha kiadnák xp-re is.
    A Vista jelenlegi elterjedését figyelembe véve a játékfejlesztőknek
    gondot okozhat hogy dx10.1-el készítenek játékot,de az
    oprendszer nem elég elterjedt hogy megfelelő mennyiséget el
    tudjanak adni.Az sp1 növelheti az elterjedést,kérdés hogy ez
    elég-e?
    Csak játékra 30000ft-os opendszer drágának tűnik,minden másra meg elég az xp.
    /ez az én véleményem/

  • dez
    #61
    Why DX10.1 matters to you
  • duke
    #60
    tok bena,ki akarna ma hajszaritot epiteni a gepebe ?
  • dez
    #59
    Na, kicsit olvasgattam DX10 vs. DX10.1 témában, és hát az a fejlesztők véleménye (Nvidiás cenzorálás nélkül), hogy a DX10.1 az, aminek a DX10-nek kellett volna lennie eleve. Hatalmas különbség nincs, de sokmindent egyszerűbben, és valamivel gyorsabban lehet megoldani vele. Valószínű lesz a későbbiekben megjelenő játékokban DX10.1 mód, ami néhány százalékkal gyorsabb lesz, és talán itt-ott picivel szebb.

    Idézek egy véleményt:
    "For my point of view DX10.1 has lots of really useful features. Our new renderer is a fully deferred one, and DX10.1 seems to have focused on improving the shortcomings on that side.

    Subsample reading allows me to finally do proper antialiasing. Currently we need to either do a edge-detect blur filter in post process pass, or render everything in 2x1 (or 2x2) resolution and downsample the result in combine pass (or both for best quality). Subsample reading both improves the AA quality and speeds up the rendering, and it helps the shadow map rendering as well. This is the hands down biggest feature in DX10.1.

    Separate blend modes for MRT is also useful when rendering complex volumetric effects to deferred buffers (you need separate blending modes for particle normals, volume density accumulation and other parameters). But it's not that important for basic rendering. I can easily life without it (and most likely we spend resources on something else instead of it).

    It's also good that they finally properly support Gather4, instead of the current Fetch4 hack implementation. We are using Fetch4 in lots of our post process filters, so it's a good thing to have it in DX10.1 feature list. Soon all the Fetch4 optimizations will be usable on Geforces as well (or I am hoping so at least).

    For me cube maps in texture arrays is just a small and natural incremental feature addition to the texture array operation. It can be used improve ambient lighting quality, but storing huge amount of cubemaps is going to consume a lot of memory, and is not going to feasible in most real games (compared to a small one room ATI techdemo). It's a fun feature to play around with in the future, but certainly not something that resolves the whole realtime global illumination problem, like PR and marketing departments like to say :)"
  • dez
    #58
    VLIW
  • dez
    #57
    Nem a WLIV itt a lényeg, hiszen az R6xx is WLIV-s (illetve az főleg az), hanem a SIMD végrehajtás (de nem egy szálon belül, hanem mindegyik elem más-más pixelre/vertexre/stb. dolgozik), miközben az R6xx superscalar egységekből épül fel. Bár itt "SIMD Arrays"-nak nevezett tömbök épülnek fel belőlök, de ez csak annyit jelent, hogy egy ilyen tömb ugyanazt a programot hajtja végre, más-más pixelekre/vertexekre/stb., de minden superscalar egységnek van saját branch egysége.

    A 24 bites FP már az ATI/AMD-nél is a múlt, az R6xx óta. De nem tudom, hogy akár itt, akár Nvidiánál ez a filteringre is vonatkozik-e (amit leginkább a textúra-egységek csinálnak).

    "de akkor 1 orajel helyett kb. 50-100 orajelet igenyelve"
    Ez a gyakorlatban olyan, mintha nem tudná.

    "Mashol mar leirtam, de az igazan jo megoldas az altalanos processzorok bevezetese lenne."
    Mintha nem tudnád, hogy az Intel Larrabee-je pont ilyen lesz.

    "Ha a gpu magok altalanos skalar vliw processzorokkent mukodnenek (tehat 1 control unit, 1 aktiv szal alapon), akkor ki lehetne hagyni a jelenlegi texturakezelo es raster operation aramkoroket is"
    Nem egészen értem a kettő közötti összefüggést.

    "csak az alu-k szamat kellene kb. a duplajara novelni es minden szalnak sajat vezerloegyseget adni."
    Utóbbi annyival növelné meg a méretét, hogy nem hogy több, de még ennyi sem lehetne. A Larrabee-ben is csak kb. 24 mag lesz, egyenként egy SSE szerű egységgel.

    "(intel sse eseten ez csal 4)"
    Nem, az SSE egy szálon dolgozik, csak egyszerre 4 32 bites adattal (vagy 2 64 bites, vagy 8 16 bites).
  • kvp
    #56
    "Ennek akadálya most az, hogy a GF8xxx-es széria valamiért nagyon gyengén muzsikál ebben. Közben az ATI alaposan rágyúrt erre, de így egyelőre feleslegesen."

    Nem olyan rossz a gf8xxx-as szeria, csak a akkor lassu, ha adat vagy feltetel vezerelt a ciklusszam. Ilyenkor a 16 alus (szalas) mag csak 1 szalon folytatja a vegrehajtast, tehat 16-odara lassul. Igy mar 128 helyett csak 8 szalon tud futni. Ez minden vliw architekturanak az atka, pl. ettol nem olyan jo az itanium uzleti logikaban. Tehat dinamikus elagazasoknal, ha azok nem linearizalhatoak ki, akkor 16-odara, ha linearizalhatoak akkor egymasbaagyazott if-enkent kb. felere csokken a teljesitmeny (1/8-adig ahol feladja a fordito a linearizalast). Az ati eseteben ezek a butetesek nem ervenyesulnek annyira, mert tobb darab de kevesebb alu-t iranyito mag van. Igy viszont az ati-k a nyers erovel vegezeheto vektorfeladatokban gyengek. (tehat shader model 1-2 hasznalata eseten)

    Egyebkent a 32 bites lebegopontos teljesitmeny eddig is megvolt nvidia eseten is, csak az ati hasznalt 24 bitet, meg a dx9c idejeben. A szabvanyositasban mar rosszabbul allnak, ugyanis az nvidia fele negyzetgyok hiresen pontatlan, kb. 14 bites, a tobbi bit csak linearisan interpolalt. Ha tenyleg teljes lebegopontos precizitas kell, akkor az alu-kat ujra kell tervezniuk, de a fuggvenykezelo aramkoroket mindenkeppen.

    A cube map array-k pedig kezelhetoek geometry partitioning-el, mar a voodoo2-re is voltak ilyen demok. Az egyetlen kulonbseg, hogy akkor meg a processzor vegezte el ezt a vertex valogatasi muveletet, mig most a shader kepes ra. Egyebkent a gf8800-as sorozat is tudja kezelni oket, csak lassabban es array elemenkent egy texture slot-ot fogyasztva, vagy shader-bol, de akkor 1 orajel helyett kb. 50-100 orajelet igenyelve. (ilyenkor shader-bol emulalja a texturazo egyseg szuroit) Ugyanez vonatkozik az uj szurokre, amiket kepes kezelni egy gf8800-as is, csak eppen sokkal lassabban. Viszont a bloom-ot eddig is ezzel a szoftveres trukkel rendereltek es cuda alatt lehetoseg van a teljesen szoftveres textura kezelesre is, linearis adattombokkent kezelve a memoriat. (mint a voodoo vagy wildcat kartyakon)

    Mashol mar leirtam, de az igazan jo megoldas az altalanos processzorok bevezetese lenne. Ha a gpu magok altalanos skalar vliw processzorokkent mukodnenek (tehat 1 control unit, 1 aktiv szal alapon), akkor ki lehetne hagyni a jelenlegi texturakezelo es raster operation aramkoroket is, csak az alu-k szamat kellene kb. a duplajara novelni es minden szalnak sajat vezerloegyseget adni. Most egy gf8800-asban 8 vezerloegyseg van (8 magos), de 16 szalu a parhuzamositas (intel sse eseten ez csal 4). Mindez a jelenleg is meglevo altalanos linearis memoriainterface-el, eleg szep eredmenyeket adna es akar c++ kod is futhatna a gpu-kon kulonosebb optimalizacio nelkul. Az egyetlen problema a memoria elerese lenne, de ezt egy osztott L2 cache-el kezelni lehetne, mivel most kb. 1KB a lokalis memoria szalankent es 16KB magonkent. Ez kb. a regiszterternek felel meg. A cache hianya pedig a beepitett smt rendszerrel lett kikerulve, tehat amig a fo memoriat olvassa vagy irja egy szalcsoport addig egy masik fut. (dinamikus elagazasnal pl. a memoriamuveletek sem parhuzamosithatoak, tehat ilyenkor csak 1 szal kepes egyszerre memoria i/o-t vegezni, ami lassu) Az nvidia ezt a full crossbar memoriavezerlovel korrigalja, ami sokkal gyorsabb mint a ringbusz, viszont a jovoben nem igazan skalazhato.
  • dez
    #55
    Az eddig látható DX9 vs. DX10 összehasonlítások nem igazán mérvadóak, inkább csak utólag beleügyeskedett effektecskék. A legfontosabb változás szerintem a Geometry Shader (a grafikai elemek és formák korábbinál sokkal szabadabb manipulálása a GPU-n futó programocskák által - sokszoros párhuzamosítással, amihez a CPU nagyon kevés lenne), amit ha elkezdenek jobban használni, alapjaiban változik meg a játékok kinézete, pontosabban az animációké. (Ennek akadálya most az, hogy a GF8xxx-es széria valamiért nagyon gyengén muzsikál ebben. Közben az ATI alaposan rágyúrt erre, de így egyelőre feleslegesen.)

    A DX10 vs. 10.1 persze kisebb változás. Divatos kifejezéssel nem revolúció, csak evolúció, egy kis lépés előre. Monjduk nem tudom, a "Min 4x MSAA Required" mit is jelent? Alap lesz az AA, vagy csak az AA-n belül a 4x-es? Ha az előbbi, akkor az magával hozza, hogy a legkisebb kártya is elég gyors kell legyen. Mármint az újak az üzletben. A filtering lehet még érdekes mai játékoknál is, kérdés, mennyire látható a különbség FP16 és 32 között.
  • dez
    #54
    (Cube Map Array?)
    Akkor már inkább linkeljük be az egész cikket: link

    Magyarul egy hasonló cikk: link
    (A lap alján olvasható szösszenetet nem nagyon kell komolyan venni, a Crytek NVIDIA "It's Meant To Be Played" partner - majd ha az Nvidia is kijön a DX10.1-es kártyájával, nyilván hirtelen rájönnek majd, hogy 1-2 dolog azért nem is olyan rossz benne. )
  • Wittgen
    #53
    Próbálj meg vmilyen helyen rákeresni az agp-re (pl depo.hu) a kapott találatok alapján meg keress rá tesztekre.
  • Anotino
    #52
    cube map arrayt pl szivesen latnek jatekokban:
    http://images.tomshardware.com/2007/10/29/amd_hd_3800_to_support_dx_10/gi-demo4-3.jpg
  • zakalwe
    #51
    dez, lezso, tényleg elmondhatnátok, hogy miről van szó, nagyon szép az a táblázat csak az emberek nagyrésze semmit sem ért belőle, pl. melyőtök tudja, hogy mi az a pixel coverage mask vagy cube map arrays? megfeszült google, wikipedia használat után talán, de anélkül? plusz, ezek közül szerintetek mennyi kerül bele a játékokba (még a directx 9-ben is vannak olyan effektek, amiket nem építettek bele a játékokba a teljesítmény hiány miatt)? sőt továbbmegyek, melyik okoz látható változást? (lehet hogy most pont belefutok és valamelyik látványos :) de a directx 9 directx 10-es képek között vadászni kell a különbségekre) ráadásul sokan már magától a directx 10-től is hülyét kapnak, ez a vista exkluzivitás elég érdekes, amit a Halo 2-vel meg Shadowrun-nal próbáltak művelni az meg egyenesen pofátlan
  • Inquisitor
    #50
    Na árkeresőn azért a 180+-os 512-es 3850 az ugye a legdrágább és volt olcsóbb is. Másrsézt USA/Kanadában ugye dollárban kerülnek ennyibe, ott bőszen meg van 37.000-éer szerintem egy 512-es.
    És ezek induló árak, se perc alatt eshetnek.
  • lezso
    #49
    Mit akarsz, hiszen az SG-n vagy!
    De szerintem ebből sem fogják megérteni az emberek h miről is van szó, ha már így leszólták a dx10.1-et.
  • dez
    #48
    Páran leszólták itt a DirectX10 és 10.1 közötti különbséget. Nyilván Nvidia fanok voltak, és/vagy nem hozzáértől. Nem mondanám, hogy olyan apró a különbség:

    több kép
  • And01
    #47
    Sapphire Radeon 3850 512gddr3 182 euro átszámítva 45500huf
    Sapphire Radeon 3870 512gddr4 225 euro átszámítva 56250huf
    /Németországban/
  • Inquisitor
    #46
    OFF: Szerintem a legerősebb AGP kártya az X1950XT(X9 és a GF7950GT, de DX10-ben valóban.

    Arty - Kinti árak alapján a legkisebb 3850 az ilyen árban van.
  • And01
    #45
    Sapphire Radeon 2600xt 26000huf körül láttam!
    3870 3850-agp készül,előreláthatóan 5-10%-al drágább lesz majd mint a pci-e változatok.
  • Torda5
    #44
    Az én karim is pont igy néz ki csak egy robot csávonak a feje van rajta(X1950Pro)
  • arty
    #43
    ez egy ddr2 ramos pro, játékra alkalmatlan.

    ha az ATI kártyái végre 30-40k között jönnének, letarolnák a picaot a nemlétező GT-k 50-60ezres áraival szemben. de ez persze nem fog bekövetkezni :(
  • kow83
    #42
    Vannak már meghekkelt PS3-ak, hogy lehessen valamivel játszani is, ha gonosz vagyok és warez játékokkal akarok játszani?
  • Lizard33
    #41
    A másik alaplap ajánlatomat el is fejlejtheted ha gondolod... Baromi sokba kerülne...
  • Lizard33
    #40
    Sapphire Radeon HD 2600PRO 512M DDR2 AGP 20900.- kb a saját forrásom szerint a PCIe változat az 19600.- szal nem egy hüde nagy külömbség.
  • Lizard33
    #39
    Hát én AGP-be nem igazán fektetnék pénzt, inkább cserélj alaplapot és vegyél hozzá egy olcsó videókártyát. Nemrég jelent meg az Intel P35 + ICH9 chipkészlete, ezzel már egy jó 2 évig el lehet lenni... De sajnos a számítástechnika nagyon gyorsan fejlődik.
  • Szefmester
    #38
    adok a karidért egy 10est :D szólj ha érdekel :D
  • xuldar
    #37
    A jelenlegi legerősebb AGP-s kártya a Radeon 2600XT (vagy csak Pro?). Jóval drágább, mint a PCI-E változat. Hogy megéri-e, azt nem tudom.
  • radical@work
    #36
    Lesz ez AGP-sben? Egyáltalán van AGP-s dx10-es kártya amit érdemes most megvenni? x800 helyett kellene valami.
  • lcee
    #35
    Ja amúgy meg gondolja át mindenki hogy a "megéri" szó mit jelent 1 videókártyánál, mert pl egy playstation 3 120000 ftért jelentősen több dolgot kapsz, nem avul el 3 hónap múlva optimálisan futnak rajt a játékok, nem szaggat meg a felbontással beállításokkal foglalkozol 2 órát mire elkezdesz játszani és a végén nem tetszik az erdemény, hanem csak játszol.
    Aztán nézhetsz rjat blu-ray filmeket is ha akarsz, ezen az áron benn van az egész gép, meg minden ...
    Úgyhogy nincs olyan vidókártya ami megéri az árát csak azért hogy játszak!
  • lcee
    #34
    Szerintem ha egy kicsit elmarad a 8800gt-től 30000 ft körüli áron
    az abszolút jó ár. Úgy fikáznak itt néhányan mintha most jelenleg lenne bárkinek is jobb vagy akár ilyen is.
    Nekem van egy 7800gt-m amikor lement az ára 65re akkor vettem meg(tavaly nyáron) és a zeljesítménye meg sem közelíti ezekét.
    Vagy pl a 8600gt vagy gts nél nem sokkal drágábbak és azokra igencsak ráver
    Nem a 8800gthez kell hasonlítani csak azért mert új....
  • xuldar
    #33
    Ez igaz. Egyébként 50-60 között lehet(ne) kapni itthon, de amíg ott van a "(ne)", addig jó lesz nekem a mostani kártyám is.
    Igazad van, hogy a 38xx előállítása sokkal olcsóbb, viszont az AMD/ATI jelenlegi helyzete nehezen engedi meg, hogy olcsón is adják a kártyát. Azt szintén el tudom képzelni, hogy az nVidia azért nem szállít elég GT-t, hogy magasan tartsa a keresletet, így az árat is. Mindenesetre kíváncsi vagyok a jövő februári árakra, addigra már biztos nem lesznek szállítási gondok egyik oldalon sem, és aszerint választok. Nálam jelenleg a GT vezet.
  • Inquisitor
    #32
    Nos az ár/teljesítményhez tudni kéne a pontos árakat. De azért a HD3850 ár/teljesítményben egyáltalán nem tűnik rossznak. (Van is róla diagramm, FPS/dollár.)
    Azt nem árt tudni, hogy ATI tudja sokkal olcsóbban is adni majd a kártyákat (GPU-t), mint a konkurencia. De majd meglátjuk.
    A GF8800GT-vel meg van az az apró hiba, hogy nem nagyon kapni. Elég fura, hogy azt állítják nincs semmi baj a kártyákkal, csak túl nagy a kereslet. Ehhez képest a beígért milliós nagyságrendű árukészlet helyett néhány tizezer darabot szállítottak le? Csak azért írom, mert a jelen árakon a 8800GTS pl. ár/teljesítményben nem versenyez a HD38xx szériával ugye.

    Ha most én olcsó kártyát szeretnék, amivel futnak a kedvenc játékaim jól, akkor megnézném 1280-ban vagy picit felett mit tud egy HD38xx kártya, és nem azt találnám, hogy játszhatatlan. Az meg nem érdekel, hogy egyik kártya 12FPS-t megy 2560-ban, a másik meg 17-et.
  • Yv@n
    #31
    GT jobb teljesítmény terén, de egy apróságot nem kéne elfelejteni. GT egész egyszerűen nem kapható, mert az nv nem tud szállítani, cserébe viszont melegedési hiba miatt visszahívtak egy igen szép mennyiséget is a már kint lévő kártyákból.
  • Caro
    #30
    De az már sok pénzbe kerül, a 3850 viszont ideális választásnak tűnik. (Mindkét verzió)
  • xuldar
    #29
    Crysis teszt:
    http://www.guru3d.com/article/Videocards/472/10/
    De mivel demóról van szó, nem érdemes nagyon a tesztre hagyatkozni. Mindenesetre a 3870 csak két dologban tudja befogni a 8800GT-t, fogyasztásban és árban. Külön-külön. Teljesítményben és ár/teljesítményben már alulmarad.
  • Chriss745
    #28
    Miért kell tesztelni 2048x1536-ban? Ki a farnc játszik ekkora felbontásban? A legtöbb embernek 17-es TFT-je van (max 19-es), és átlagosan 1280x1024-el játszanak.
  • haxy27
    #27
    Én ATI karit fogok venni a GT nekem szar szívtam vele már párszor, rohadjon meg ott ahol van. A gyerek gépén csak 15bites szin van videónézés közben, Nekem ATI kari van és az én gépemen nincs gond. és ez csak egy a sok közül.
  • Jacek
    #26
    Nem ment at az ironia:D