9761
-
#158 Ha így haladunk el fog jönni az az idő, amikor lesz egy számítógépházunk, és mellette egy hasonló méretű doboz, külön táppal, hűtéssel, miegymással, amely a VGA "doboz" lesz, és egy optikai kábelen keresztül fog a számítógéppel kommunikálni. ^^ -
#157 Röhej:
- * The G80 will not have unified shaders, but will still be DirectX10 compliant.
- * the next generation of GPUs will range in power consumption from 130W to 300W. This increase in power consumption will make for higher-wattage Power Supply Units (to the 1 kW-1.2 kW range) and/or the addition of internal, secondary PSUs solely for powering the GPUs.[2] -
#156 Minden amit tudni kell róla:
* The G80 is expected to be released anywhere from August to October 2006.
* It will be the first Direct3D 10 and Shader Model 4.0 card to be released.
* The G80 will be a 32 pipeline card with 32 pixel shaders, 16 vertex shaders, and 16 geometry shaders per core.
* The G80 may be dual core.
* There will be 2 cards released at launch, the flagship 8800GTX and the slightly slower 8800GT. The 8800GTX will have 512 MB of ram while the 8800GT will have from 256 MB-512 MB of RAM and will also have slower clock speeds than the 8800GTX.
* The 8800GTX will cost $499-599 while the 8800GT will cost $299-399. [1]
* The G80 will not have unified shaders, but will still be DirectX10 compliant.
* The memory interface is said to be Samsung's new GDDR4 specification.
* The series is also rumored to have fast memory and core clocks, but will still be built on 90nm technology to avoid unnecessary risks.
* Anandtech reports that the next generation of GPUs will range in power consumption from 130W to 300W. This increase in power consumption will make for higher-wattage Power Supply Units (to the 1 kW-1.2 kW range) and/or the addition of internal, secondary PSUs solely for powering the GPUs.[2]
* In addition, many manufacturers are looking at liquid-based cooling elements (as opposed to the traditional heatsink/fan combo) to keep the noise and heat levels down on these next-generation of GPUs.
* The G80 should also feature UDI connections with full HDCP support.
* There will be no AGP version of a GeForce 8 Card.
-
#155 mi mikor kerülünk fel a térképre? :(
-
izb #154 Annyit kell tudni erről a directx ről hogy itt a kompatibilitás vga szinten van meg.
ha a kártya támogatja akkor menni fog. -
Richard90 #153 akkor ok.... megnyigtattál
csak azért gondolom megkérdezem.. HÁTHA ott is lehet valami bibi (még akkor is ha nem ahhoz a témához vág) -
izb #152 csak ők mondjuk teljesen másról beszéltek:) -
Richard90 #151 hát nem tom.... alant volt szó
"A probléma, hogy a GDDR RAM-ok irása/olvasása szekvenciális, míg egy több feladatot futtató CPU-nak véletlenszerű elérés szükséges, azaz oda/onnan tudjon írni/olvasni ahonnan éppen jólesik neki. Ezt GDDR-rel nem fogod tudni megvalósítani."
ezért kérdeztem hátha itt is lehet valami baj-e téren... tod biztos, ami biztos :) -
izb #150 Miért ne lehetne? -
Richard90 #149 na egy kérdés... ebbe a konfigba belelehet rakni egy dx10-es kártyát bármi probléma nélkül (gondolok szoftveres dolgokra)
asus a8n-sli premium; x2 4200+ amd; 1gb ddr ram; dx10-es kártya -
dara #148 Lehet én nem értem a cikket, de sehol sem találtam benne olyat, hogy a GPU és a CPU ugyan azt a memóriát alkalmazná.
A probléma, hogy a GDDR RAM-ok irása/olvasása szekvenciális, míg egy több feladatot futtató CPU-nak véletlenszerű elérés szükséges, azaz oda/onnan tudjon írni/olvasni ahonnan éppen jólesik neki. Ezt GDDR-rel nem fogod tudni megvalósítani. -
Inquisitor #147 Már elnézést, de a "fognak gyártani integrált CPU+GPU megoldást", meg a "csak azt fognak gyártani" között bazi nagy a difi szerintem. Ráadásul a 4x4 cikekben lévő "sok GPU, kevés CPU" megoldást erőteljesen kétlem, hogy egybetokozzák mondjuk 10 éven belül. -
#146 Miről beszélsz ember! Sose állíts semmit biztosan, ha csak ilyeneket tudsz mondani...
Szerintem, előbb olvass az AMD lehetséges terveiről! Különösen az 5. oldal alját ajánlom figyelmedbe!
-
Inquisitor #145 "Azt is hozzátenném, hogy DX9 VGA+XP-n sokkal gyorsabb lesz egy játék, mint Vista+DX10-en 100ezres DX10-es VGA-val."
Az összes eddigi infó a DX10-ről, meg a Vista driver rendszeréről ennek ellentmond, persze lehet csak marketingduma, de fejlesztőktől is elhangzott.
(Lásd 80%-os üresjárat a GPU-knál a hülye driverkezelés miatt témát.) -
dara #144 Nem igazán tudna mit kezdeni egy proci a GDDR4-gyel. Nem felel meg neki az az írási/olvasási metodika. -
#143 Laptopba vagy lowendre...
Ezt senki nem gondolja highend aszatli gamer gépekbe.
Azt is hozzátenném, hogy DX9 VGA+XP-n sokkal gyorsabb lesz egy játék, mint Vista+DX10-en 100ezres DX10-es VGA-val.
Szerintem.
Új platformnál MINDIG szopik az aki beleugrik elsőnek. -
#142 S akkor még nem is hallottatok arról, hogy az AMD egy tokba teszi majd a GPU-val a VPU-t... és közösen használják majd a GDDR4-et...
-
dara #141 Azért írtam, hogy inkább. A VGA most sem szenved hiányt sávszélességben, a PCI-E-ben még rengeteg tartalék van. -
Inquisitor #140 Cooprocit most is tehetsz pl. egy duálopteronos lap proci foglalatában (ha van sok pénzed rá), de HTX elvileg sokmindenhez jó lehet, amihez gyors adatátvitel kell ram, proci és chipset felé. -
dara #139 A HTX teljesen más célokat szolgál, inkább coprocesszorokhoz való. -
dara #138 És miért kellene a pipeline? Ezt meg is tudod magyarázni? -
Inquisitor #137 Nvidia's G80 will stay a 90 nanometre chip
Szerintem ez akkora kamu, mint ide Nagykáta, de hát Inquirer ...
Viszont ha igaz, akkor lehetnek pofáraesések. -
#136 A számítástechnikában nem érdemes kivárásra játszani, én mégis azt javasolnám minden most feljavítani kívánónak, hogy most inkább vegyen egy harmatgyenge DX9-es kareszt, amivel eltötyög a FEAR, Prey, és egy év múlva ilyenkor vegyen egy brutális ATI(-AMD) R600-ast!
-
Inquisitor #135 Nem tudom, lehet csak belemagyarázom, mert elfogult vagyok, de a Crysis fórumán ezt olvastam:
3. How good will a...let's say..GeForce 8600GT 256MB (mainstream DX10) card would perform under MAXIMMUM quality settings, at 1280x1024 or 1024x768 and no AA/AF? Few of us can afford a high-end solution, and..after all, these cards will be bestsellers.
3. Not even Crytek or Nvidia could answer that accuratly. We're talking about DX10 here which is currently untested on any graphics hardware. But, as microsoft promises great performance increases, expect it to play the the same as 7900GTX DX9 card. The 7900GTX will most likely continue to play DX9 games faster however.
Viszont ...
If I upgrade to ATI r600 next year (ATIs DX10 card), then can I run in max settings? And which should i get first for best performance in Crysis- a duall core cpu/mobo or the ATI r600?
If you upgrade to an R600, expect to run everything max at 1280x1024 at a decent frame rate. The performance gains of DX10 are quite nice. You'll also see a bit more detail in textures and shrubs.etc
Nekem ebből az jött le, hogy az elvileg késöbb kijövő R600-ból kaptak tesztvasat, de a G80-ból nem, bár azt állította másik mondatban, hogy nem tesztelték még Dx10 vason ... -
#134 Kár, hogy csak a saját szemüvegeden keresztül látod a körülötted lévő világot...
Én nem azt írtam, hogy így van és punktum, hanem: ATI szerint, és szerintem is
Ez kicsit más megvilágításba helyezi a dolgot, nem?
De te csak nyugodtan járasd az agyad... a semmin.
-
virs lee #133 Kell pipe is meg shader is, a baj az hogy egyik gyártó csak az egyiket, a másik csak a másikat erőlteti. Együtt kéne, akkor lenne valódi teljesítménynövekedés is. -
virs lee #132 De csak szerinted, az OpenGL-ben fejlesztők erről mit se tudnak. Biztos jobban tudod ezt mint az IDSoft, Obsidian, stb... -
Richard90 #131 arról a htx csatlakozóról még nem is hallottam :D -
Inquisitor #130 AMD-nél lesz majd HTX csatoló, de az még pár év, szóval marad a PCIE. ;) -
#129 PCI-E lesz.
-
Richard90 #128 ezek a kártyák (geforce8 dx10-zel) PCI-e csatolófelületűek lesznek? vagy kitalálnak valami új szabvány és lehet új alaplapot venni? -
#127 Prohw-s hír:
Helyet spórolhat óriásprocesszorában az NVIDIA -
#126 Én ezért szoktam a teszteknél - főképp PH! - átugrani a Quake 3, Doom 3 és Doom 4, RTCW teszteket: nem érdekel, hogy OGl-ben az nV jobb. -
Zsoldos #125 Csak kar hogy olyannak van jovoje, ami egy db oprendszerhez kotott.
Amugy nem olyan gaz mar az opengl tamogatas atieknal sem, sokat fejlodtek. Ez nem latszik annyira, mert mindenhol doom3 es riddickel tesztelnek, amiken amugyis eros az nv az fp16 hasznalata miatt. -
Inquisitor #124 Ez most már J.C. is hangoztatja, ami azért fontos, mert eddig ő volt az OpenGL pápája. Nem tudom milyen motort ír a D3/Q4 motor után, de lehet az már nem OGL lesz ... -
Inquisitor #123 Hogy drágábban el lehessen adni a jobb OGL támogatású FireGL kártyákat? -
#122 Mert az OpenGL - ATI szerint, és szerintem is - nem életképes szabvány: a D3D-é a jelen és a jövő.
-
turul16 #121 ATI -nak vajon, miért gyengébb az OpenGL támogatássa ... -
dara #120 Sőt, az egész R5xx szériára ez jellemző. Az X1800XT/XL esetén mondjuk a kettő egyenlő számban volt jelen. -
#119 ez a futószalag keverés már az x1900-al elkezdődött