9761
-
zoolee #2759 A sima q6600 csak 1066 os. -
Abu85 #2758 A cell 1 főmagból (PPE) és 8 darab mellékmagból (SPE) áll. Ebből 1 mag le van foglalva az hangok számítására, és a csatornák kezelésére. 1 SPE mag pedig ki van kapcsolva. Valószínűleg a DMA vezérlő már így is túlterhelt, ezért kellett ezt meglépni.
Nem hiszem, hogy érdemes az IBM PC-s procikkal összehasonlítani, a Cell nem x86 rendszer.
Őszintén szólva a Cell közelebb áll a xBox360 Xenon procijához, mint a PC-s procikhoz.
Teljesítmény szempontjából a Xenos és a Cell sokkal erősebbek bármely x86 procinál. Bár némileg nehezebb rájuk programozni. Az x86 CISC-RISC leképzésű procijai mára eléggé erőforráspazarlóvá váltak.
A q6600 eleve nem kóser rendszer, mert az 1333MHz-es effektív FSB-je nem fogja kiszólgálni a négy magot magas memóriaigényű alkalmazásokban. Nagyon jól többszálúsított programban maximum 40-50%-al lehet gyorsabb az E6600-nál, kb. 2,8-3 magra elég a szűkös rendszerbusz. -
virs lee #2757 Jelenleg viszont erre van szüksége a programoknak, 2 évvel előre felesleges tervezni, mert addigra lemegy 3 generáció.
az a kérdésem, hogy az MS a D3D10 képességeit miért HD2900XT-vel demózza?
És a demón kívül miért nem látunk semmit a játékokban? Az hogy majd 3 év múlva lesz is hozzá játék, elég kevés indok arra hogy ma pénzt adjak ki ezért. -
Abu85 #2756 Akkor miért nem tette meg?
Mert a D3D10-re ilyen hardver kell. 2007 májusában nincs értelme D3D9-D3D10 átmenetett kiadni.
Az ATI-n kívül nem járatja le senki. A játékok magukért beszélnek. Én csak a szememnek hiszek.
Én nem hiszek semmiben inkább gondolkodom. Hinni egy ilyen piacon öngyilkosság. Igazából az a kérdésem, hogy az MS a D3D10 képességeit miért HD2900XT-vel demózza? Lehetősége lenne 8800Ultrát is szerezni. Nyilván az MS olyan VGA-t részesít előnyben ami gyenge, ráadásul a gyártőja lejáratja a szabványt. Elég logikátlan nem?
Ez mind szép és jó, de hol az eredmény a gyakorlatban? Na ezért nem jó vétel a Radeon ma.
Itt csak leírtam a két rendszer különbségeit, nem volt szándékomban bármit sugalni a háttérban. Eredménye akkor lesz, ha D3D10 elveire épülő programokat írnak a fejlesztők. -
zoolee #2755 Az egész gonzol 1 nagy átb@szás...
Azok a vackok 7 magos procival se tudnak akkora teljesÍtményt leadni mint 1 mostani q6600 ...
-
virs lee #2754 Ez mind szép és jó, de hol az eredmény a gyakorlatban? Na ezért nem jó vétel a Radeon ma. -
zoolee #2753 Még nem..-.- -
virs lee #2752 PC != játék! A nextgen konzolok meg legalább annyira, ha nem jobban vergődnek. Az egyik megsüti saját magát, a másikra nincs (minőségi és sok) játék, meg alapból jó drágák, főleg ahhoz képest hogy csak játékra használhatóak. Hiába a Cell, meg a teraflopsos kamu marketing, a Sony a PS3-mal épp vesztésre áll eladásilag. -
#2751 Valaki észrevette már valahol hogy lejjebb vitték volna az árakaat? -
virs lee #2750 Szerinted meddig tartott volna az AMD-nek megtömni a rendszert Tex blokkal és ROP blokkal, a shader procik helyett.
Akkor miért nem tette meg?
sem az a megoldás, hogy az egész világ előtt lejáratjuk az új MS API-t
Az ATI-n kívül nem járatja le senki. A játékok magukért beszélnek. Én csak a szememnek hiszek. -
#2749 azt a kurva -
Abu85 #2748 A szám szerinti összahsonlítás nem teljesen logikus módszer. Egyrészt nem feltélelezhetjük, hogy az nV Stram procijai megegyeznek az AMD stream procijaival. Eleve meg kell vizsgálni a két architektúrának a felépítését is. A D3D10-nek főleg a skalár stream procik felelnek meg a legjobban. Ezek SISD Alu-k, tehát ''1 utasítás 1 adaton'' elvűek. Az AMD és az nV is ilyen Stream procikat használ, mindkét rendszerben MAD, MUL, ADD utasítás lehetséges float adattípusra. Ezen kívül a D3D10 lehetőséget ad trigonometrikus és transzcendens utasítások elvégzésére. Ezeket az SFU (Speciel Function Unit) egységek végzik. Itt van némi változás az nV és az AMD SFU egységei közt. Az AMD SFU egysége a spec. utasításokon kívül MAD, MUL, ADD utasítást tud, így lényegében használható általános stream processzorként, míg az nV SFU-ja stream prociként MUL utasítást tud, illetve 4 órajelciklus alatt végez egy műveletett, tehát 4x lasabb a stream procik sebességénél. A két rendszer elrendezése is eltérő. Az AMD 4stream+1SFU alapú shader procikat használ, ezekből 4 darabot működtet egy clusterben és VLIW mintával etetik őket (a VLIW lényegében egy architektúra az a fontos, hogy a VLIW minta egy nagy memóriaszó ami leírja az egységeknek a működést, illetve ezeket a szavakat a fordító hozza létre). Az nV egy shader procijában 4+4darab Stream proci van egymással párhuzamosan kötve, és ezekhez a 4-es csoportokhoz kapcsolódik egy-egy SFU egység. Ezenkívül vizsgálni kell a texture fetch hatékonyságot és még sok mást... -
zoolee #2747 Naja, valamit csak tud az a vacak, de mennyuk ha neki 128 helyett 320 shader procija van akkor elvárnám a +40 % os gyorsulást, nem az ilyen 4-6 FPS eket.:S
Na mind1, nemsokára jón a gef 9 és akkor nincs kegyelem. -
Abu85 #2746 Passzív hűtésű karik nagyon döglenek. Nem ajánlott egyik sem.
D3D10-re nem elég a 8600GT. De ha erre van pénzed akkor jó vétel. Ugyanennyiért van HD2600XT DDR3, szvsz az jobb alternatíva.
Ha nem kő D3D10 akkor jó a 7900GS is. -
zoolee #2745 Grat, és a gGS nél most 640 est lehet.:)
Na pazz, hány SMS t küldtél???
Én olyan szerencsétlen vagyok, hogy küldhetnék több száztatm akkor se nyernék semmit. -
skygt90 #2744 #2727 légyszi erre valaki válaszoljon már ! kössszi -
Abu85 #2743 Pár helyen még van Z puffer szűrési hiányosság. Bár ez csak kötöszködés a részemről, tényleg nagyon szépen javul az új driverrel. -
#2742 Új Driverrel már nemszaggat a Lost Planet 2900XT-vel és a grafikai bugok sincsenek. -
Abu85 #2741 Ó... dehogynem, sajnos ott állunk, hogy mára ezek a szomorú tények. Mindezt pont akkor amikor az újgenerációs konzolok elkezdenek élni. Az IBM PC piaca nevetségessé vált. A szabvány létjogosultsága kérdőjeles amikor ez az alap tarja össze a renszert. -
Abu85 #2740 Szerinted meddig tartott volna az AMD-nek megtömni a rendszert Tex blokkal és ROP blokkal, a shader procik helyett.
Én tényleg együttérzek az nV-vel, mert eléggé nagy hátrányból indult neki a D3D10-es rendszer fejlesztéséhez, de akkor sem az a megoldás, hogy az egész világ előtt lejáratjuk az új MS API-t. Gyakorlatilag a Lost Planet-tel használhatatlannak minősétették, hiszen a D3D9-es és a D3D10-es mód között látványbeli eltérés nincs, viszont sebessége a D3D10-es módnak fele. Eleve a D3D10 átdolgozása a teljesítménynövelés céljából került napirendre.
Ahogy elnézem a nagy fejlesztő stúdiók kimaradnak ebből a vitából. Az FSX fejlesztői nemrég bírálták az nV kártyáit a GS teljesítmény végett, de szerintem ez csak olaj a tűzre, nem a ellenségeskedés a megoldás a helyzetre. -
virs lee #2739 Mi lenne ha... Ezek nem tények. -
Inquisitor #2738 "és DX10-ben még szarabb"
Te miről beszélsz? Kemény 3 progiból 2-ben jobb, a Lost Planetért meg egy halom pénzt fizettek, hogy ne menjen jól ATI kártyával. A szintetikus DX10 tesztekben meg fényévekkel gyorsabb az ATI, a Geometriai sebessége sokszorosa a konkurensének. Abu éppen azt írta le, hogy nagyon érdekes lesz a játékipar, ha csak azért nem fogják használni rendesen a DX10-et, hogy az ATI-t szivassák. -
virs lee #2737 Lehet magyarázni a bizonyítványt, de az a tényeken nem változtat. Jelenleg pedig az van hogy az ATI 1 év késéssel se tudott felnőni az Nvidiához, és DX10-ben még szarabb. Eddig csak ígéreteket láttunk tőlük, amik nem váltak be. Ezek után ki hisz nekik? Előbb bizonyítsanak! -
Abu85 #2736 Senki nem tudja a D3D10 piacra dobása előtt mik lesznek a fejlesztők igényei. Az API lehetőséget ad a felmerült feladatok megoldására. Szerintem jelenleg senki sem nézi, hogy miben előnyös a D3D10 amíg az nV és az AMD VGA megoldása ennyire eltérően látja a jövőt. Ezt az MS szúrta el már nem először. A D3D10 leírása nagyságrendekkel pontosabb az elődöknél, de rengeteg területre kiterjed. Amíg ezek a területek elvárható teljesítmény szerint nincsenek osztályozva addig eltérő megoldások születnek majd a piacon az esetleges D3D generáció váltáskor. Gondolom emlékszel, hogy a D3D9-nél is eltérő elgondolás születet az Ati-nál és az nV-nél. Ez nyilván senkinek sem jó.
Sajnos azt lehet érezni, hogy az nV-vel kiszúrtak. Amíg Ati-nak az MS megmondta, hogy milyen GPU-t kell csinálni a D3D10-re, addig az nV kénytelen volt saját maga kitalálni azt.
Ennek az eredménye két teljesen eltérő felfogás egyetlen piacra. Gondolom nem kell ecsetelnem, hogy ez milyen káros lehet a fejlesztésekre, hiszen a problémákra olyan megoldásokat kell majd keresni ami mindkét cég rendszerének fekszik. Rosszabb esetben ki kell szúrni az egyikkel, vagy mindkét rendszerre meg kell írni az algoritmust. -
Abu85 #2735 Mert nem nézel a dolgok mögé. Ha én valamit nem értek akkor magyarázatot keresek rá. -
virs lee #2734 Ez olyan mint a PS3 teraflopsos teljesítménye: csak papíron létezik. Ezzel szemben a gyakorlat azt mutatja hogy pl. Lost Planet DX10-ben egy 2900 xt-vel szaggat mint az állta, miközben egy 8800 GTS /320 is 3x jobban nyomja. Hol is itt a gyakorlati előny? Én nem látom. -
#2733 grat -
#2732 Egy német weboldalon, csak a citromail megint baszakszik, nehogy tudjak linket adni:@
Gamestarral Inno3D 8800Gts-t lehet nyerni;) -
zoolee #2731 Hol nyerted????
pcworld??gamestar??? -
#2730 Ühüm, értem, azért kérdem mer nyertem neten egy Bfg 8800Gts 320Mb-os vidikarit, de akkor nem tok vele mitcsinálni... -
zoolee #2729 Hát, méretre 1 eznie kell, elméletileg 2 külön márkájú kari is futtatható 1 mással, de az nem szerencsés, ha 1 innót meg 1 XFX et raksz SLI be, mert az órajel külömbségek bekavarhatnak..Szóval a kérdésedre a válasz, lehet, de jobb ha full 1 formák. -
#2728 Hello!
Az lenne a kérdésem, ha szeretnék 8800Gts-t Sliben futtatni ugyan olyan típusúak kellenek hogy legyenek a kártyák??? -
skygt90 #2727 Hali emberek! mi a véleményetek a GEFORCE 8600GT 256MB PCI-E ASUS SILENT
illetve a GEFORCE 8600GT 256MB PCI-E GAINWARD VGA-król ? megérik az árukat ? vagy esetleg ennyi pénzért jobbat is kapni ?
Vagy esetleg jobban járnék egy GEFORCE 7900GS 256MB PCI-E GAINWARD-al ?
légyszives válaszoljatok ! -
#2726 ez így ide nem sokban passzol, termékciklusok nagyjából egybeestek eddig, az implementációk pedig a fejlesztők igényeihez vannak mérve.közben fejlődik minden, fizika+graf.munka együtt, minden. ehhez van, volt most nem kevés ideje az ati-nak. még csak most látják a fejlesztők, mi kell az igazi dx10-hez. amire ez befut, addigra eltelik még másfél év...
mind1,túl hosszú.
a lényeg, h elbeszélünk 1más mellett.:) -
Abu85 #2725 Nem igazán értem a kérdést.
Az nV a G80 fejlesztésénél azokat a megoldásokat építette be amik elterjedtek. Nyilván ők majd 8 hónappal hamarabb piacra dobták a karit így ők egy átmeneti megoldást készítettek. Az igazán nagy kérdés, hogy a nemsokára érkező G92 mennyire épít majd a D3D10 elveire. Az AMD komoly előnye, hogy az xBox360 Xenos chipjének tervezésekor az MS megmutatta számukra az irányt, hogy milyen hardvert képzel el az új API-hoz. Innentől sajnos az nV eleve hátrányba került. Nyilván valamilyen mértékben ezt bojkottálni kell, és a lehető legtovább késleltetni kell a fejlődés vonalát. Egész pontosan addig amíg az nV fel nem készül a D3D10 elveire. Gyakorlatilag ez az FX féle stratégia, csak itt az nV önhibáján kívül esett bele a lecsóba, ám a szakácsot sikeresen maga mellé állította. -
daneelolivaw #2724 mármint a crysis ajánlott rendszerkövetelménye... -
daneelolivaw #2723 hát, az ajánlott rendszerkövetelménynél ati radeon x1600 kari volt írva, az van most nekem, ha megveszem a 8600gts-t, csak jobban fog futni... -
#2722 oké.
akkor mivel erősen nVIDIA-párti vagyok, egy kérdéssel kezdem:
szerinted az utolsó ati-kártya bejelentése után mennyi idővel jön ki egy gyorsabb számításokra képes vid.kártya??
az a 6hónap, amivel minimum előbb kijött a G80-nál, ebben fejlettségben jobb..de volt rá min.6hónap, szal innen indul. -
Abu85 #2721 Nem akarlak meggyőzni az ellenkezőjéről, mert nyilván minden embar a saját szemléletei szerint dönt egy-egy hardver mellett.
Azért pár dolog aggasztó a G80 architektúrában:
Itt egy link egy táblázathoz, a gyakorlati értékek benne vannak, összahsonlítási alapnak kiszámoltam neked az elméleti értékeket. Látszik, hogy a G80 nem következetes, ami nagyon nem tetszik nekem. Én speciel nem szeretem ha egy rendszer nem úgy működik ahogy azt elméletben indokolná a felépítése.
A legtöbbször amikor valaki ír egy shader programot kiszámolja először, hogy kb. milyen gyorsan fog futni, ez logikus dolog mivel, ha nem fut megfelelő sebességgel akkor nincs értelme megírni. Az nv doksijaiban rengeteg olyan dolog van ami nem úgy működik ahogy az le van írva ami számomra aggasztó...
Speciel az FX-nél is a tényekre hagyatkoztak sokan, és egy játék véget vetett a rendszer karrierjének. Akinek volt FX-je az tudja a legjobban, hogy milyen amikor a csúcskategóriás karija nem képes arra amire megvette. Speciel az Oblivionban a 9800Pro 10-szer gyorsabb, mint az FX5900. Pedig egy időben nagy ellenségek voltak és kiegyesúlyozot csatákat vívtak. A D3D10 túl bonyolult API ahhoz, hogy csak a tényekre hagyatkozzunk. Teljesen megértem a véleményed, sőt én nv párti is vagyok, de a GF8 szériából nem választanék semmit, abban nagy stiklik lehetnek benne egyes mérések alapján. -
virs lee #2720 Nyilván... A 2900xt csúnyán leszerepelt, biztos jobban nyomja mint egy 2x erősebb nvidia kártya...