Készülőben a GeForce GTX 270
Jelentkezz be a hozzászóláshoz.
#32
"Amúgy a helyzet kb úgy néz ki, hogy 4 évig Nv uralom van, aztán a Radeonok 1 évig tündökölnek. A magam részérõl monnyuk én inkább Nv párti vagyok."
Kurvára nem. FX 5000-res szériát az ATI megverte.
7900GTX-t megverte az 1950XT(X).
Kb egyik évben az Nvidia a jobb a másikban az ATI.
Kurvára nem. FX 5000-res szériát az ATI megverte.
7900GTX-t megverte az 1950XT(X).
Kb egyik évben az Nvidia a jobb a másikban az ATI.
Xbox 360 SLIM 250 GB, Dell U2312, Dark Souls PtD edition NG++ 925/1000G ☑ Final Fantasy XIII ☑ Lost Odyssey ☑
#31
nemtudom mit hoz a jövõ, mindenesetre a mostani gamesconventionon a beszámolok alapján minden fejlesztõ (hacsak nem épp sony exkluzivon dolgozik) 360on demozott ...
... és én ennek örülök, mert nem szeretem az egyoldalu piacokat (proc, vga, konzol), valamint 360asom van és ATI kártyát fogok venni a mostani erõviszonyok alapján :)
... és én ennek örülök, mert nem szeretem az egyoldalu piacokat (proc, vga, konzol), valamint 360asom van és ATI kártyát fogok venni a mostani erõviszonyok alapján :)
Forza.
#30
*arjátok már le, ez csak erölködés
Vegyetek egy olcsó 4850 X2 est, oszt jócakát.
occó, baromi gyors, idle-ben keveset eszik
Vegyetek egy olcsó 4850 X2 est, oszt jócakát.
occó, baromi gyors, idle-ben keveset eszik
I love to walk in the rain, because no one knows im crying
#28
Az én esetemben mûkedvelõ. :) Hát igen, a "veszély" neve 48xx, nem holmi 8600.
Azért a Windows és DX hiánya, meg a fix hw-es optimalizáció még ott van.
Meg a Cell is besegíthet ebben-abban gfx/physics téren is. (De tudom, ezt te nem szereted hallani. :D)
Azért a Windows és DX hiánya, meg a fix hw-es optimalizáció még ott van.
Meg a Cell is besegíthet ebben-abban gfx/physics téren is. (De tudom, ezt te nem szereted hallani. :D)
#27
jo olvasni pár hozzáértõt :)
én csak annyit látok, h 35 ezerért a 4850 a király vétel, ez ellen az nvidia ugy látszik nem is dolgozik ... márpedig a gef8/9 nyilván nem ellenfél és a gtx270 sem lesz az
én csak annyit látok, h 35 ezerért a 4850 a király vétel, ez ellen az nvidia ugy látszik nem is dolgozik ... márpedig a gef8/9 nyilván nem ellenfél és a gtx270 sem lesz az
Forza.
#26
(Erm, még egy pontosítás ehhez: az viszont továbbra is áll, hogy a Radeon-ok jobbak GPGPU-s alkalmazásra, csak nem feltétlenül a DB miatt.)
#25
(A félreértések elkerülése végett: a #21-es elsõ része téves információ volt, egy idõben több fórumon is elterjedt egy hülyeség. A hsz második felében abszolút gyorsulásról van szó, a késõbbi hsz-ekben meg magukhoz képest, ugrás nélkül.)
#24
Mondjuk, az utolsó megjegyzésemben említett dolog nem gond G8x-tól, mert bár egy shader egyszerre általában egy pixellel dolgozik, azonban az itt alkalmazott 8-way SIMD unit = 8 (identical) thread rendszer által - melyben 2 ilyen mûveletenként lehet ugrás, plusz a SIMD unitokat párosával is lehet kezelni - 16/32 pixel dolgozható fel egyszerre, a (feltétles) ugrások között.
Ugyanaz a teszt GTX 280-nal, 8800 Ultra-val és X1950-nel (R7xx tesztjük még sajnos nincs): link
Érdekes, hogy itt a GTX 280-nal együtt a G8x is csak 50% körüli gyorsulást mutat. Ez csak 24%-kal több, mint a G7x 26.5%-a 128 pixel esetén, illetve 31%-kal a 64 pixel esetén mért 19%-hoz képest.
Szóval ezen nem múlik "a világ sorsa"...
Ugyanaz a teszt GTX 280-nal, 8800 Ultra-val és X1950-nel (R7xx tesztjük még sajnos nincs): link
Érdekes, hogy itt a GTX 280-nal együtt a G8x is csak 50% körüli gyorsulást mutat. Ez csak 24%-kal több, mint a G7x 26.5%-a 128 pixel esetén, illetve 31%-kal a 64 pixel esetén mért 19%-hoz képest.
Szóval ezen nem múlik "a világ sorsa"...
#23
Tovább olvasgatva (újra) megtaláltam ezt: link
Nos igen, a G8x már 16 pixeltõl kezd "jól mûködni", de azért a G7x-nek sem kell feltétlenül 800 pixel, hogy profitáljon valamit a DB-bõl (lassulás helyett), hanem ez már 64 pixeltõl kezdõdik.
ps. ne feledjük, hogy ez itt csak Shadow Mapping, ahol jól lehet blokkosan dolgozni - más shader mûveletekrõl ez általában nem mondható el.
Nos igen, a G8x már 16 pixeltõl kezd "jól mûködni", de azért a G7x-nek sem kell feltétlenül 800 pixel, hogy profitáljon valamit a DB-bõl (lassulás helyett), hanem ez már 64 pixeltõl kezdõdik.
ps. ne feledjük, hogy ez itt csak Shadow Mapping, ahol jól lehet blokkosan dolgozni - más shader mûveletekrõl ez általában nem mondható el.
#22
ch
#21
Hát, én mindenhol azt olvasom, hogy a G80-nak sem igazán erõssége a Dynamic Brancing, ezért nem erõltetik (ezt sem) a játékokban. (Ellentétben a GPGPU alkalmazásokkal, ahol sokszor elkerülhetetlen - emiatt ATI-kon jobban is futnak.) Igaz, a G7x-eseknek még kevésbé ment.
Valahol láttam egy Dynamic Branchinges tesztet, kb. 3x volt gyorsabb benne a 8800GTX, mint egy 7800GS. Namost a 8600GT nem hogy fele olyan gyors, hanem inkább negyed..
Valahol láttam egy Dynamic Branchinges tesztet, kb. 3x volt gyorsabb benne a 8800GTX, mint egy 7800GS. Namost a 8600GT nem hogy fele olyan gyors, hanem inkább negyed..
#20
Mi a fene. Ph!-s emberek is ide tevednek.
#19
A PS3 az más tészta, az egy célhardver... Nincs értelme összehasonlítani a PC-vel.
PC-n napestig is optimalizálhatnak egyszerûen a 8600GT sokkal kevesebb számítást kell elvégeznie 32 batch-es pixeltömbökkel Dynamic Branching mellett, mint a 7900 sorozatnak. Ezért az új játékokban, már számottevõen is gyorsabb a 8600 széria.
PC-n napestig is optimalizálhatnak egyszerûen a 8600GT sokkal kevesebb számítást kell elvégeznie 32 batch-es pixeltömbökkel Dynamic Branching mellett, mint a 7900 sorozatnak. Ezért az új játékokban, már számottevõen is gyorsabb a 8600 széria.
#18
Hát mondjuk én örülnék ha az UE3 engine kipusztulna a PS3-ról. Egy értelmes csillogó felületet nem tud produkálni, ráadásul a legtöbb játéknál marhára elõtûnnek a bumpmappelt felületek mögül a lowpoly modellek.
Histeria est magistra vitae. Ez nem trollkodás, ez online graffiti! ;) https://suno.com/@nexus65ongs
#17
Hát ebben a generációban bizony a Radeonok viszik a prímet, bár nem tudom egy középkategóriás kártyánál ez hogy jön le.
Szerintem jövõre, amikor már 10-20 ezrekért utánam dobják valszeg beújítok egy Radba. Amúgy a helyzet kb úgy néz ki, hogy 4 évig Nv uralom van, aztán a Radeonok 1 évig tündökölnek. A magam részérõl monnyuk én inkább Nv párti vagyok.
Másrészt az igaz, hogy a PS3 tud olyanokat, amit PC-n nem látni, hála az optimalizációnak. Viszont ha olyanról van szó, akkor egy néhány giga RAM-mal, valami Gf7 sorozatú kártyával felszerelt, szinte tecsópécé kategóriájú förmedvény szebbet mutat, kb ugyanazért a pénzért, mint a PS. Igaz abban van BD meghajtó, és a hardver sem ugyan az a kategória.
Szal nekem úgy tûnik ebben a konzol generációban is az lesz, hogy 1-2 év nyálcsorgatás a PC-sek részérõl, aztán 4-5 év nyálcsorgatás a konzolosok részérõl;)))
Szerintem jövõre, amikor már 10-20 ezrekért utánam dobják valszeg beújítok egy Radba. Amúgy a helyzet kb úgy néz ki, hogy 4 évig Nv uralom van, aztán a Radeonok 1 évig tündökölnek. A magam részérõl monnyuk én inkább Nv párti vagyok.
Másrészt az igaz, hogy a PS3 tud olyanokat, amit PC-n nem látni, hála az optimalizációnak. Viszont ha olyanról van szó, akkor egy néhány giga RAM-mal, valami Gf7 sorozatú kártyával felszerelt, szinte tecsópécé kategóriájú förmedvény szebbet mutat, kb ugyanazért a pénzért, mint a PS. Igaz abban van BD meghajtó, és a hardver sem ugyan az a kategória.
Szal nekem úgy tûnik ebben a konzol generációban is az lesz, hogy 1-2 év nyálcsorgatás a PC-sek részérõl, aztán 4-5 év nyálcsorgatás a konzolosok részérõl;)))
Histeria est magistra vitae. Ez nem trollkodás, ez online graffiti! ;) https://suno.com/@nexus65ongs
#16
Optimalizálás kérdése...
"At E3 2007, Sony announced a partnership with Epic with the objective of optimizing the Unreal Engine 3 for the PlayStation 3 hardware, which would affect the dozens of games and developers currently using it."
Sõt, eleve: "The third generation Unreal Engine was designed for DirectX 9/10 PCs, the Xbox 360 and PlayStation 3."
link
"At E3 2007, Sony announced a partnership with Epic with the objective of optimizing the Unreal Engine 3 for the PlayStation 3 hardware, which would affect the dozens of games and developers currently using it."
Sõt, eleve: "The third generation Unreal Engine was designed for DirectX 9/10 PCs, the Xbox 360 and PlayStation 3."
link
#15
A régebbi programokban ez igaz, de mondjuk az újabb Unreal Engine 3-as játékokban nem igazán képes még megközelíteni sem a 8600GT-t.
Hiába van erõ a rendszerben, ha közel 800 pixelre csinálja a mostanában sokat alkalmazott Dynamic Branching-ot, ezzel szemben a G80 rendszerek 32 pixeles blokkra dolgoznak.
Hiába van erõ a rendszerben, ha közel 800 pixelre csinálja a mostanában sokat alkalmazott Dynamic Branching-ot, ezzel szemben a G80 rendszerek 32 pixeles blokkra dolgoznak.
#14
A 8600 GT valójában jóval lassabb, mint a 7900 GT.
#13
"Ez a kartya kb. 10-szer erossebb mint a ps3 a gf7900-el _es_ a cellel egyutt."
Ez egy hazugság, és ezt te is tudod.
RSX/G71: ~308 GFLOPS (peak)
((24 pixel shader pipes * 20 FLOPS <2*vector4+2*scalar MADD>2*vector4+2*scalar MADD> + 8 vertex shader pipes * 10 FLOPS <1*vector4+1*scalar MADD>1*vector4+1*scalar MADD>) * 550 MHz)
Fontos: ez csak a programozható shader egységek, tehát nem számolva a G7x sorozatig bõven lévõ fix funkciós egységeket - ellentétben azzal, hogy a G8x-tõl ezek nagy részét átvették a programozható shader egységek.
GTX 260: 708 GFLOPS (peak)
De több feladatot kell ebbõl kigazdálkodni, lásd fenti megjegyzés.
A fillrate-eket nem másolgatom ide, de ott sincs közel sem 10x gyorsulás.
Cell: ~200 GFLOPS (peak)
Csakhogy: a GPU-k teljesítménye jóval drasztikusabban esik vissza összetettebb feladatok esetén (mert alapvetõen nem erre tervezték õket), mint a Cellé (amit viszont erre). Ezt jól mutatja a következõ példa: CELL vs. G80 - hiába rendelkezik a G80 2.5x több FLOPS-sal papíron, ray-tracingben a Cell mégis 4-5x gyorsabb nála... Azaz, azonos FLOPS-ból a Cell 8-10x hasznos teljesítményt hoz ki!
A GT200-as sorozat ~2x gyorsabb, mint a G80-as, és alig fejlettebb architektúrálisan. Így egy valós, összetettebb feladatban a Cell még mindig 2x gyorsabb nála...
"akkor inkabb egy gf7-es kartyat kellene venned 20 ezer forint alatt. Akkor pont olyan dx9-es rendszered lenne mint amilyen a ps3-ban van."
Ez sem igaz. Attól, hogy a hw (már a GPU, mert CPU-ban igencsak más a helyzet) ugyanaz, a szoftveres körítés közel sem (Windows vs. célorientált Linux kernel; lassú DX9 vs. célorientált OpenGL ES), és az is nagyon nem mindegy, hogy a PS3 hw-e fix, lehet és érdemes rá optimalizálni a szoftvereket.
Arról nem beszélve, hogy a Physix és a Havok csomag (benne a Havok Physics-sel) is portolva van PS3-ra, és a Cell SPE-in fut. Tehát mintha benne lenne egy teljes jobb fajta Physix kártya. (Most az Nvidia megcsinálta a GPU-ira is, de eléggé gyerekcipõben jár a dolog, erõsen terheli a GPU-t, és ráadásul a CPU-t is.)
Ez egy hazugság, és ezt te is tudod.
RSX/G71: ~308 GFLOPS (peak)
((24 pixel shader pipes * 20 FLOPS <2*vector4+2*scalar MADD>2*vector4+2*scalar MADD> + 8 vertex shader pipes * 10 FLOPS <1*vector4+1*scalar MADD>1*vector4+1*scalar MADD>) * 550 MHz)
Fontos: ez csak a programozható shader egységek, tehát nem számolva a G7x sorozatig bõven lévõ fix funkciós egységeket - ellentétben azzal, hogy a G8x-tõl ezek nagy részét átvették a programozható shader egységek.
GTX 260: 708 GFLOPS (peak)
De több feladatot kell ebbõl kigazdálkodni, lásd fenti megjegyzés.
A fillrate-eket nem másolgatom ide, de ott sincs közel sem 10x gyorsulás.
Cell: ~200 GFLOPS (peak)
Csakhogy: a GPU-k teljesítménye jóval drasztikusabban esik vissza összetettebb feladatok esetén (mert alapvetõen nem erre tervezték õket), mint a Cellé (amit viszont erre). Ezt jól mutatja a következõ példa: CELL vs. G80 - hiába rendelkezik a G80 2.5x több FLOPS-sal papíron, ray-tracingben a Cell mégis 4-5x gyorsabb nála... Azaz, azonos FLOPS-ból a Cell 8-10x hasznos teljesítményt hoz ki!
A GT200-as sorozat ~2x gyorsabb, mint a G80-as, és alig fejlettebb architektúrálisan. Így egy valós, összetettebb feladatban a Cell még mindig 2x gyorsabb nála...
"akkor inkabb egy gf7-es kartyat kellene venned 20 ezer forint alatt. Akkor pont olyan dx9-es rendszered lenne mint amilyen a ps3-ban van."
Ez sem igaz. Attól, hogy a hw (már a GPU, mert CPU-ban igencsak más a helyzet) ugyanaz, a szoftveres körítés közel sem (Windows vs. célorientált Linux kernel; lassú DX9 vs. célorientált OpenGL ES), és az is nagyon nem mindegy, hogy a PS3 hw-e fix, lehet és érdemes rá optimalizálni a szoftvereket.
Arról nem beszélve, hogy a Physix és a Havok csomag (benne a Havok Physics-sel) is portolva van PS3-ra, és a Cell SPE-in fut. Tehát mintha benne lenne egy teljes jobb fajta Physix kártya. (Most az Nvidia megcsinálta a GPU-ira is, de eléggé gyerekcipõben jár a dolog, erõsen terheli a GPU-t, és ráadásul a CPU-t is.)
#12
Nekem játékra bõben elég a PS3:D
#11
És vajon hány kilowatton üzemel...
#10
Jogos, de ha átírjuk a reális árakra, attól még a kérdése is az marad :)
Ráférne valami siker az NVidiára, mert a részesedése komoly, a GF8/9 sikeres VOLT, de mivel a befektetõk a jövõbe tekintenek, elmúlt hónapokban a béka segge alá estek a részvényeik.
Ráférne valami siker az NVidiára, mert a részesedése komoly, a GF8/9 sikeres VOLT, de mivel a befektetõk a jövõbe tekintenek, elmúlt hónapokban a béka segge alá estek a részvényeik.
#9
"Ha az a teljesitmeny is eleg neked (es miert ne lenne eleg), akkor inkabb egy gf7-es kartyat kellene venned 20 ezer forint alatt. Akkor pont olyan dx9-es rendszered lenne mint amilyen a ps3-ban van. "
Ez elméletileg majdnem igaz, csak sajnos gyakorlatilag totál nem. Nekem quad procim van és 8800GTX-em vízhûtve és épphogy nem szaggatnak a konzol átiratok (colin dirt, assasins creed és tsai). Egy 7900-al sajna kitörölheti...
Ez elméletileg majdnem igaz, csak sajnos gyakorlatilag totál nem. Nekem quad procim van és 8800GTX-em vízhûtve és épphogy nem szaggatnak a konzol átiratok (colin dirt, assasins creed és tsai). Egy 7900-al sajna kitörölheti...
#8
Te is képben vagy a valutaárfolyamokban...
:Ð
:Ð
fotográfik kolomp edisön :D
#7
"billentené helyre a kissé megbomlott egyensúlyt,"
mert most nem 70-80% az nvidia részesedése?????????
Most van egyensúly a piacon
mert most nem 70-80% az nvidia részesedése?????????
Most van egyensúly a piacon
#6
Gf8600GT már rég 20k alatt van.
#5
"Hatalmas VGA miért nem lehetne ennek a felére megcsinálni a hosszát és nem lenne akkora hûtés rajta hanem ennek is a fele vagy jóval kisebb annál is."
Mert az adott technologia mellett nagyon melegedne. Ilyen pl. az xbox360 esete a kis es gyenge hutesu gpu-val. Ezt is csinalhatnak kisebbre, de akkor leolvadna a nyakrol.
"Ja és lehetne jóval olcsóbb mert ebbõl a pénzbõl akkor már nem VGA-át veszek hanem PS-mat"
Ha az a teljesitmeny is eleg neked (es miert ne lenne eleg), akkor inkabb egy gf7-es kartyat kellene venned 20 ezer forint alatt. Akkor pont olyan dx9-es rendszered lenne mint amilyen a ps3-ban van. Arrol nem beszelve, hogy a cikkben levo kartyaban kb. 4-szer tobb memoria van, mint amennyi a ps3-ban a grafikara jut. Ez a kartya kb. 10-szer erossebb mint a ps3 a gf7900-el _es_ a cellel egyutt.
ps: Egyebkent ha jatszani akarsz, akkor xbox360-ra tobb jatek van, viszont gyakrabban mennek tonkre. A ps3 gyakorlatilag egy mai 'gazdasagos' pc tudasat hozza, es a multiplatform jatekok ugyanugy mennek mindharmon. (ugyanolyan beallitasok es minoseg mellett) Az egyetlen szabaly, hogy egy pc-be tobb ramot illik tenni, hatha jatekon kivul mast is akar csinalni vele a vevo. (pl. dolgozni, amire a ps3-ban nagyon keves a ram)
Mert az adott technologia mellett nagyon melegedne. Ilyen pl. az xbox360 esete a kis es gyenge hutesu gpu-val. Ezt is csinalhatnak kisebbre, de akkor leolvadna a nyakrol.
"Ja és lehetne jóval olcsóbb mert ebbõl a pénzbõl akkor már nem VGA-át veszek hanem PS-mat"
Ha az a teljesitmeny is eleg neked (es miert ne lenne eleg), akkor inkabb egy gf7-es kartyat kellene venned 20 ezer forint alatt. Akkor pont olyan dx9-es rendszered lenne mint amilyen a ps3-ban van. Arrol nem beszelve, hogy a cikkben levo kartyaban kb. 4-szer tobb memoria van, mint amennyi a ps3-ban a grafikara jut. Ez a kartya kb. 10-szer erossebb mint a ps3 a gf7900-el _es_ a cellel egyutt.
ps: Egyebkent ha jatszani akarsz, akkor xbox360-ra tobb jatek van, viszont gyakrabban mennek tonkre. A ps3 gyakorlatilag egy mai 'gazdasagos' pc tudasat hozza, es a multiplatform jatekok ugyanugy mennek mindharmon. (ugyanolyan beallitasok es minoseg mellett) Az egyetlen szabaly, hogy egy pc-be tobb ramot illik tenni, hatha jatekon kivul mast is akar csinalni vele a vevo. (pl. dolgozni, amire a ps3-ban nagyon keves a ram)
#4
Az oké hogy jön:D:D:D
Húzzuk le a népet megint kategória:D
Hatalmas VGA miért nem lehetne ennek a felére megcsinálni a hosszát és nem lenne akkora hûtés rajta hanem ennek is a fele vagy jóval kisebb annál is.
Akkora ez a VGA , hogy közelharcban önvédelmi fegyver:D mint a többi (8800 GTS,GTX ,9800 GTX,GX2, GTX 260, 280)
Ja és lehetne jóval olcsóbb mert ebbõl a pénzbõl akkor már nem VGA-át veszek hanem PS-mat és már MO-ágon is annyiért lehet újonnan kapni egy gámet mint külföldön(7-10 k ért)!
Húzzuk le a népet megint kategória:D
Hatalmas VGA miért nem lehetne ennek a felére megcsinálni a hosszát és nem lenne akkora hûtés rajta hanem ennek is a fele vagy jóval kisebb annál is.
Akkora ez a VGA , hogy közelharcban önvédelmi fegyver:D mint a többi (8800 GTS,GTX ,9800 GTX,GX2, GTX 260, 280)
Ja és lehetne jóval olcsóbb mert ebbõl a pénzbõl akkor már nem VGA-át veszek hanem PS-mat és már MO-ágon is annyiért lehet újonnan kapni egy gámet mint külföldön(7-10 k ért)!
#3
Mikor jön ki a GeForce FXX2000 Ultra GTI HD Extreme X 9 000 000? Én addig nem veszek kártyát...
Gaming is believing.
#2
Azzal akarnak teret nyerni, hogy a ~70 és ~100 ezres kártyák közé betesznek egy mondjuk 85 ezrest?<#confused>#confused>
\"...lámák kíméljenek.\"
#1
Akkor tudnák ezt jelentõsen olcsóbban adni, mint az eddigieket (ráfizetés nélkül, vagy legalább értelmes haszonnal), ha ez már 55nm-es csíkszélességgel készül, mármint a chip. De azt késõbbre várják.