32
  • davidka003
    #32
    "Amúgy a helyzet kb úgy néz ki, hogy 4 évig Nv uralom van, aztán a Radeonok 1 évig tündökölnek. A magam részéről monnyuk én inkább Nv párti vagyok."

    Kurvára nem. FX 5000-res szériát az ATI megverte.
    7900GTX-t megverte az 1950XT(X).
    Kb egyik évben az Nvidia a jobb a másikban az ATI.
  • arty
    #31
    nemtudom mit hoz a jövő, mindenesetre a mostani gamesconventionon a beszámolok alapján minden fejlesztő (hacsak nem épp sony exkluzivon dolgozik) 360on demozott ...

    ... és én ennek örülök, mert nem szeretem az egyoldalu piacokat (proc, vga, konzol), valamint 360asom van és ATI kártyát fogok venni a mostani erőviszonyok alapján :)
  • Frayer
    #30
    *arjátok már le, ez csak erölködés
    Vegyetek egy olcsó 4850 X2 est, oszt jócakát.
    occó, baromi gyors, idle-ben keveset eszik
  • Chocho
    #29
    Ejha.
  • dez
    #28
    Az én esetemben műkedvelő. :) Hát igen, a "veszély" neve 48xx, nem holmi 8600.

    Azért a Windows és DX hiánya, meg a fix hw-es optimalizáció még ott van.
    Meg a Cell is besegíthet ebben-abban gfx/physics téren is. (De tudom, ezt te nem szereted hallani. :D)
  • arty
    #27
    jo olvasni pár hozzáértőt :)

    én csak annyit látok, h 35 ezerért a 4850 a király vétel, ez ellen az nvidia ugy látszik nem is dolgozik ... márpedig a gef8/9 nyilván nem ellenfél és a gtx270 sem lesz az
  • dez
    #26
    (Erm, még egy pontosítás ehhez: az viszont továbbra is áll, hogy a Radeon-ok jobbak GPGPU-s alkalmazásra, csak nem feltétlenül a DB miatt.)
  • dez
    #25
    (A félreértések elkerülése végett: a #21-es első része téves információ volt, egy időben több fórumon is elterjedt egy hülyeség. A hsz második felében abszolút gyorsulásról van szó, a későbbi hsz-ekben meg magukhoz képest, ugrás nélkül.)
  • dez
    #24
    Mondjuk, az utolsó megjegyzésemben említett dolog nem gond G8x-tól, mert bár egy shader egyszerre általában egy pixellel dolgozik, azonban az itt alkalmazott 8-way SIMD unit = 8 (identical) thread rendszer által - melyben 2 ilyen műveletenként lehet ugrás, plusz a SIMD unitokat párosával is lehet kezelni - 16/32 pixel dolgozható fel egyszerre, a (feltétles) ugrások között.

    Ugyanaz a teszt GTX 280-nal, 8800 Ultra-val és X1950-nel (R7xx tesztjük még sajnos nincs): link
    Érdekes, hogy itt a GTX 280-nal együtt a G8x is csak 50% körüli gyorsulást mutat. Ez csak 24%-kal több, mint a G7x 26.5%-a 128 pixel esetén, illetve 31%-kal a 64 pixel esetén mért 19%-hoz képest.

    Szóval ezen nem múlik "a világ sorsa"...
  • dez
    #23
    Tovább olvasgatva (újra) megtaláltam ezt: link

    Nos igen, a G8x már 16 pixeltől kezd "jól működni", de azért a G7x-nek sem kell feltétlenül 800 pixel, hogy profitáljon valamit a DB-ből (lassulás helyett), hanem ez már 64 pixeltől kezdődik.

    ps. ne feledjük, hogy ez itt csak Shadow Mapping, ahol jól lehet blokkosan dolgozni - más shader műveletekről ez általában nem mondható el.
  • dez
    #22
    ch
  • dez
    #21
    Hát, én mindenhol azt olvasom, hogy a G80-nak sem igazán erőssége a Dynamic Brancing, ezért nem erőltetik (ezt sem) a játékokban. (Ellentétben a GPGPU alkalmazásokkal, ahol sokszor elkerülhetetlen - emiatt ATI-kon jobban is futnak.) Igaz, a G7x-eseknek még kevésbé ment.

    Valahol láttam egy Dynamic Branchinges tesztet, kb. 3x volt gyorsabb benne a 8800GTX, mint egy 7800GS. Namost a 8600GT nem hogy fele olyan gyors, hanem inkább negyed..
  • cooliq
    #20
    Mi a fene. Ph!-s emberek is ide tevednek.
  • Abu85
    #19
    A PS3 az más tészta, az egy célhardver... Nincs értelme összehasonlítani a PC-vel.

    PC-n napestig is optimalizálhatnak egyszerűen a 8600GT sokkal kevesebb számítást kell elvégeznie 32 batch-es pixeltömbökkel Dynamic Branching mellett, mint a 7900 sorozatnak. Ezért az új játékokban, már számottevően is gyorsabb a 8600 széria.
  • NEXUS6
    #18
    Hát mondjuk én örülnék ha az UE3 engine kipusztulna a PS3-ról. Egy értelmes csillogó felületet nem tud produkálni, ráadásul a legtöbb játéknál marhára előtűnnek a bumpmappelt felületek mögül a lowpoly modellek.
  • NEXUS6
    #17
    Hát ebben a generációban bizony a Radeonok viszik a prímet, bár nem tudom egy középkategóriás kártyánál ez hogy jön le.

    Szerintem jövőre, amikor már 10-20 ezrekért utánam dobják valszeg beújítok egy Radba. Amúgy a helyzet kb úgy néz ki, hogy 4 évig Nv uralom van, aztán a Radeonok 1 évig tündökölnek. A magam részéről monnyuk én inkább Nv párti vagyok.

    Másrészt az igaz, hogy a PS3 tud olyanokat, amit PC-n nem látni, hála az optimalizációnak. Viszont ha olyanról van szó, akkor egy néhány giga RAM-mal, valami Gf7 sorozatú kártyával felszerelt, szinte tecsópécé kategóriájú förmedvény szebbet mutat, kb ugyanazért a pénzért, mint a PS. Igaz abban van BD meghajtó, és a hardver sem ugyan az a kategória.
    Szal nekem úgy tűnik ebben a konzol generációban is az lesz, hogy 1-2 év nyálcsorgatás a PC-sek részéről, aztán 4-5 év nyálcsorgatás a konzolosok részéről;)))
  • dez
    #16
    Optimalizálás kérdése...

    "At E3 2007, Sony announced a partnership with Epic with the objective of optimizing the Unreal Engine 3 for the PlayStation 3 hardware, which would affect the dozens of games and developers currently using it."

    Sőt, eleve: "The third generation Unreal Engine was designed for DirectX 9/10 PCs, the Xbox 360 and PlayStation 3."

    link
  • Abu85
    #15
    A régebbi programokban ez igaz, de mondjuk az újabb Unreal Engine 3-as játékokban nem igazán képes még megközelíteni sem a 8600GT-t.
    Hiába van erő a rendszerben, ha közel 800 pixelre csinálja a mostanában sokat alkalmazott Dynamic Branching-ot, ezzel szemben a G80 rendszerek 32 pixeles blokkra dolgoznak.
  • dez
    #14
    A 8600 GT valójában jóval lassabb, mint a 7900 GT.
  • dez
    #13
    "Ez a kartya kb. 10-szer erossebb mint a ps3 a gf7900-el _es_ a cellel egyutt."

    Ez egy hazugság, és ezt te is tudod.

    RSX/G71: ~308 GFLOPS (peak)
    ((24 pixel shader pipes * 20 FLOPS [2*vector4+2*scalar MADD] + 8 vertex shader pipes * 10 FLOPS [1*vector4+1*scalar MADD]) * 550 MHz)

    Fontos: ez csak a programozható shader egységek, tehát nem számolva a G7x sorozatig bőven lévő fix funkciós egységeket - ellentétben azzal, hogy a G8x-től ezek nagy részét átvették a programozható shader egységek.

    GTX 260: 708 GFLOPS (peak)
    De több feladatot kell ebből kigazdálkodni, lásd fenti megjegyzés.

    A fillrate-eket nem másolgatom ide, de ott sincs közel sem 10x gyorsulás.

    Cell: ~200 GFLOPS (peak)
    Csakhogy: a GPU-k teljesítménye jóval drasztikusabban esik vissza összetettebb feladatok esetén (mert alapvetően nem erre tervezték őket), mint a Cellé (amit viszont erre). Ezt jól mutatja a következő példa: CELL vs. G80 - hiába rendelkezik a G80 2.5x több FLOPS-sal papíron, ray-tracingben a Cell mégis 4-5x gyorsabb nála... Azaz, azonos FLOPS-ból a Cell 8-10x hasznos teljesítményt hoz ki!

    A GT200-as sorozat ~2x gyorsabb, mint a G80-as, és alig fejlettebb architektúrálisan. Így egy valós, összetettebb feladatban a Cell még mindig 2x gyorsabb nála...

    "akkor inkabb egy gf7-es kartyat kellene venned 20 ezer forint alatt. Akkor pont olyan dx9-es rendszered lenne mint amilyen a ps3-ban van."

    Ez sem igaz. Attól, hogy a hw (már a GPU, mert CPU-ban igencsak más a helyzet) ugyanaz, a szoftveres körítés közel sem (Windows vs. célorientált Linux kernel; lassú DX9 vs. célorientált OpenGL ES), és az is nagyon nem mindegy, hogy a PS3 hw-e fix, lehet és érdemes rá optimalizálni a szoftvereket.

    Arról nem beszélve, hogy a Physix és a Havok csomag (benne a Havok Physics-sel) is portolva van PS3-ra, és a Cell SPE-in fut. Tehát mintha benne lenne egy teljes jobb fajta Physix kártya. (Most az Nvidia megcsinálta a GPU-ira is, de eléggé gyerekcipőben jár a dolog, erősen terheli a GPU-t, és ráadásul a CPU-t is.)
  • 2504
    #12
    Nekem játékra bőben elég a PS3:D
  • floatr
    #11
    És vajon hány kilowatton üzemel...
  • Inquisitor
    #10
    Jogos, de ha átírjuk a reális árakra, attól még a kérdése is az marad :)
    Ráférne valami siker az NVidiára, mert a részesedése komoly, a GF8/9 sikeres VOLT, de mivel a befektetők a jövőbe tekintenek, elmúlt hónapokban a béka segge alá estek a részvényeik.
  • Xcentric
    #9
    "Ha az a teljesitmeny is eleg neked (es miert ne lenne eleg), akkor inkabb egy gf7-es kartyat kellene venned 20 ezer forint alatt. Akkor pont olyan dx9-es rendszered lenne mint amilyen a ps3-ban van. "

    Ez elméletileg majdnem igaz, csak sajnos gyakorlatilag totál nem. Nekem quad procim van és 8800GTX-em vízhűtve és épphogy nem szaggatnak a konzol átiratok (colin dirt, assasins creed és tsai). Egy 7900-al sajna kitörölheti...
  • rumkola
    #8
    Te is képben vagy a valutaárfolyamokban...
  • tungi52
    #7
    "billentené helyre a kissé megbomlott egyensúlyt,"
    mert most nem 70-80% az nvidia részesedése?????????
    Most van egyensúly a piacon
  • balee66
    #6
    Gf8600GT már rég 20k alatt van.
  • kvp
    #5
    "Hatalmas VGA miért nem lehetne ennek a felére megcsinálni a hosszát és nem lenne akkora hűtés rajta hanem ennek is a fele vagy jóval kisebb annál is."

    Mert az adott technologia mellett nagyon melegedne. Ilyen pl. az xbox360 esete a kis es gyenge hutesu gpu-val. Ezt is csinalhatnak kisebbre, de akkor leolvadna a nyakrol.

    "Ja és lehetne jóval olcsóbb mert ebből a pénzből akkor már nem VGA-át veszek hanem PS-mat"

    Ha az a teljesitmeny is eleg neked (es miert ne lenne eleg), akkor inkabb egy gf7-es kartyat kellene venned 20 ezer forint alatt. Akkor pont olyan dx9-es rendszered lenne mint amilyen a ps3-ban van. Arrol nem beszelve, hogy a cikkben levo kartyaban kb. 4-szer tobb memoria van, mint amennyi a ps3-ban a grafikara jut. Ez a kartya kb. 10-szer erossebb mint a ps3 a gf7900-el _es_ a cellel egyutt.

    ps: Egyebkent ha jatszani akarsz, akkor xbox360-ra tobb jatek van, viszont gyakrabban mennek tonkre. A ps3 gyakorlatilag egy mai 'gazdasagos' pc tudasat hozza, es a multiplatform jatekok ugyanugy mennek mindharmon. (ugyanolyan beallitasok es minoseg mellett) Az egyetlen szabaly, hogy egy pc-be tobb ramot illik tenni, hatha jatekon kivul mast is akar csinalni vele a vevo. (pl. dolgozni, amire a ps3-ban nagyon keves a ram)
  • 2504
    #4
    Az oké hogy jön:D:D:D
    Húzzuk le a népet megint kategória:D
    Hatalmas VGA miért nem lehetne ennek a felére megcsinálni a hosszát és nem lenne akkora hűtés rajta hanem ennek is a fele vagy jóval kisebb annál is.
    Akkora ez a VGA , hogy közelharcban önvédelmi fegyver:D mint a többi (8800 GTS,GTX ,9800 GTX,GX2, GTX 260, 280)
    Ja és lehetne jóval olcsóbb mert ebből a pénzből akkor már nem VGA-át veszek hanem PS-mat és már MO-ágon is annyiért lehet újonnan kapni egy gámet mint külföldön(7-10 k ért)!
  • Chocho
    #3
    Mikor jön ki a GeForce FXX2000 Ultra GTI HD Extreme X 9 000 000? Én addig nem veszek kártyát...
  • Kovász
    #2
    Azzal akarnak teret nyerni, hogy a ~70 és ~100 ezres kártyák közé betesznek egy mondjuk 85 ezrest?
  • dez
    #1
    Akkor tudnák ezt jelentősen olcsóbban adni, mint az eddigieket (ráfizetés nélkül, vagy legalább értelmes haszonnal), ha ez már 55nm-es csíkszélességgel készül, mármint a chip. De azt későbbre várják.