9761
10645648441175096535.jpg
  • [NST]Cifu
    #158
    Ha így haladunk el fog jönni az az idő, amikor lesz egy számítógépházunk, és mellette egy hasonló méretű doboz, külön táppal, hűtéssel, miegymással, amely a VGA "doboz" lesz, és egy optikai kábelen keresztül fog a számítógéppel kommunikálni. ^^
  • IMYke2.0.0.0
    #157
    Röhej:
    - * The G80 will not have unified shaders, but will still be DirectX10 compliant.
    - * the next generation of GPUs will range in power consumption from 130W to 300W. This increase in power consumption will make for higher-wattage Power Supply Units (to the 1 kW-1.2 kW range) and/or the addition of internal, secondary PSUs solely for powering the GPUs.[2]
  • macesz
    #156
    Minden amit tudni kell róla:

    * The G80 is expected to be released anywhere from August to October 2006.
    * It will be the first Direct3D 10 and Shader Model 4.0 card to be released.
    * The G80 will be a 32 pipeline card with 32 pixel shaders, 16 vertex shaders, and 16 geometry shaders per core.
    * The G80 may be dual core.
    * There will be 2 cards released at launch, the flagship 8800GTX and the slightly slower 8800GT. The 8800GTX will have 512 MB of ram while the 8800GT will have from 256 MB-512 MB of RAM and will also have slower clock speeds than the 8800GTX.
    * The 8800GTX will cost $499-599 while the 8800GT will cost $299-399. [1]
    * The G80 will not have unified shaders, but will still be DirectX10 compliant.
    * The memory interface is said to be Samsung's new GDDR4 specification.
    * The series is also rumored to have fast memory and core clocks, but will still be built on 90nm technology to avoid unnecessary risks.
    * Anandtech reports that the next generation of GPUs will range in power consumption from 130W to 300W. This increase in power consumption will make for higher-wattage Power Supply Units (to the 1 kW-1.2 kW range) and/or the addition of internal, secondary PSUs solely for powering the GPUs.[2]
    * In addition, many manufacturers are looking at liquid-based cooling elements (as opposed to the traditional heatsink/fan combo) to keep the noise and heat levels down on these next-generation of GPUs.
    * The G80 should also feature UDI connections with full HDCP support.
    * There will be no AGP version of a GeForce 8 Card.
  • Punker
    #155
    mi mikor kerülünk fel a térképre? :(


  • izb
    #154
    Annyit kell tudni erről a directx ről hogy itt a kompatibilitás vga szinten van meg.
    ha a kártya támogatja akkor menni fog.
  • Richard90
    #153
    akkor ok.... megnyigtattál
    csak azért gondolom megkérdezem.. HÁTHA ott is lehet valami bibi (még akkor is ha nem ahhoz a témához vág)
  • izb
    #152
    csak ők mondjuk teljesen másról beszéltek:)
  • Richard90
    #151
    hát nem tom.... alant volt szó
    "A probléma, hogy a GDDR RAM-ok irása/olvasása szekvenciális, míg egy több feladatot futtató CPU-nak véletlenszerű elérés szükséges, azaz oda/onnan tudjon írni/olvasni ahonnan éppen jólesik neki. Ezt GDDR-rel nem fogod tudni megvalósítani."

    ezért kérdeztem hátha itt is lehet valami baj-e téren... tod biztos, ami biztos :)
  • izb
    #150
    Miért ne lehetne?
  • Richard90
    #149
    na egy kérdés... ebbe a konfigba belelehet rakni egy dx10-es kártyát bármi probléma nélkül (gondolok szoftveres dolgokra)
    asus a8n-sli premium; x2 4200+ amd; 1gb ddr ram; dx10-es kártya
  • dara
    #148
    Lehet én nem értem a cikket, de sehol sem találtam benne olyat, hogy a GPU és a CPU ugyan azt a memóriát alkalmazná.

    A probléma, hogy a GDDR RAM-ok irása/olvasása szekvenciális, míg egy több feladatot futtató CPU-nak véletlenszerű elérés szükséges, azaz oda/onnan tudjon írni/olvasni ahonnan éppen jólesik neki. Ezt GDDR-rel nem fogod tudni megvalósítani.
  • Inquisitor
    #147
    Már elnézést, de a "fognak gyártani integrált CPU+GPU megoldást", meg a "csak azt fognak gyártani" között bazi nagy a difi szerintem. Ráadásul a 4x4 cikekben lévő "sok GPU, kevés CPU" megoldást erőteljesen kétlem, hogy egybetokozzák mondjuk 10 éven belül.
  • IMYke2.0.0.0
    #146
    Miről beszélsz ember! Sose állíts semmit biztosan, ha csak ilyeneket tudsz mondani...
    Szerintem, előbb olvass az AMD lehetséges terveiről! Különösen az 5. oldal alját ajánlom figyelmedbe!


  • Inquisitor
    #145
    "Azt is hozzátenném, hogy DX9 VGA+XP-n sokkal gyorsabb lesz egy játék, mint Vista+DX10-en 100ezres DX10-es VGA-val."
    Az összes eddigi infó a DX10-ről, meg a Vista driver rendszeréről ennek ellentmond, persze lehet csak marketingduma, de fejlesztőktől is elhangzott.
    (Lásd 80%-os üresjárat a GPU-knál a hülye driverkezelés miatt témát.)
  • dara
    #144
    Nem igazán tudna mit kezdeni egy proci a GDDR4-gyel. Nem felel meg neki az az írási/olvasási metodika.
  • NeoMaN
    #143
    Laptopba vagy lowendre...
    Ezt senki nem gondolja highend aszatli gamer gépekbe.
    Azt is hozzátenném, hogy DX9 VGA+XP-n sokkal gyorsabb lesz egy játék, mint Vista+DX10-en 100ezres DX10-es VGA-val.
    Szerintem.

    Új platformnál MINDIG szopik az aki beleugrik elsőnek.
  • IMYke2.0.0.0
    #142
    S akkor még nem is hallottatok arról, hogy az AMD egy tokba teszi majd a GPU-val a VPU-t... és közösen használják majd a GDDR4-et...

  • dara
    #141
    Azért írtam, hogy inkább. A VGA most sem szenved hiányt sávszélességben, a PCI-E-ben még rengeteg tartalék van.
  • Inquisitor
    #140
    Cooprocit most is tehetsz pl. egy duálopteronos lap proci foglalatában (ha van sok pénzed rá), de HTX elvileg sokmindenhez jó lehet, amihez gyors adatátvitel kell ram, proci és chipset felé.
  • dara
    #139
    A HTX teljesen más célokat szolgál, inkább coprocesszorokhoz való.
  • dara
    #138
    És miért kellene a pipeline? Ezt meg is tudod magyarázni?
  • Inquisitor
    #137
    Nvidia's G80 will stay a 90 nanometre chip
    Szerintem ez akkora kamu, mint ide Nagykáta, de hát Inquirer ...
    Viszont ha igaz, akkor lehetnek pofáraesések.
  • IMYke2.0.0.0
    #136
    A számítástechnikában nem érdemes kivárásra játszani, én mégis azt javasolnám minden most feljavítani kívánónak, hogy most inkább vegyen egy harmatgyenge DX9-es kareszt, amivel eltötyög a FEAR, Prey, és egy év múlva ilyenkor vegyen egy brutális ATI(-AMD) R600-ast!

  • Inquisitor
    #135
    Nem tudom, lehet csak belemagyarázom, mert elfogult vagyok, de a Crysis fórumán ezt olvastam:

    3. How good will a...let's say..GeForce 8600GT 256MB (mainstream DX10) card would perform under MAXIMMUM quality settings, at 1280x1024 or 1024x768 and no AA/AF? Few of us can afford a high-end solution, and..after all, these cards will be bestsellers.

    3. Not even Crytek or Nvidia could answer that accuratly. We're talking about DX10 here which is currently untested on any graphics hardware. But, as microsoft promises great performance increases, expect it to play the the same as 7900GTX DX9 card. The 7900GTX will most likely continue to play DX9 games faster however.

    Viszont ...

    If I upgrade to ATI r600 next year (ATIs DX10 card), then can I run in max settings? And which should i get first for best performance in Crysis- a duall core cpu/mobo or the ATI r600?

    If you upgrade to an R600, expect to run everything max at 1280x1024 at a decent frame rate. The performance gains of DX10 are quite nice. You'll also see a bit more detail in textures and shrubs.etc

    Nekem ebből az jött le, hogy az elvileg késöbb kijövő R600-ból kaptak tesztvasat, de a G80-ból nem, bár azt állította másik mondatban, hogy nem tesztelték még Dx10 vason ...
  • IMYke2.0.0.0
    #134
    Kár, hogy csak a saját szemüvegeden keresztül látod a körülötted lévő világot...
    Én nem azt írtam, hogy így van és punktum, hanem: ATI szerint, és szerintem is
    Ez kicsit más megvilágításba helyezi a dolgot, nem?
    De te csak nyugodtan járasd az agyad... a semmin.

  • virs lee
    #133
    Kell pipe is meg shader is, a baj az hogy egyik gyártó csak az egyiket, a másik csak a másikat erőlteti. Együtt kéne, akkor lenne valódi teljesítménynövekedés is.
  • virs lee
    #132
    De csak szerinted, az OpenGL-ben fejlesztők erről mit se tudnak. Biztos jobban tudod ezt mint az IDSoft, Obsidian, stb...
  • Richard90
    #131
    arról a htx csatlakozóról még nem is hallottam :D
  • Inquisitor
    #130
    AMD-nél lesz majd HTX csatoló, de az még pár év, szóval marad a PCIE. ;)
  • IMYke2.0.0.0
    #129
    PCI-E lesz.
  • Richard90
    #128
    ezek a kártyák (geforce8 dx10-zel) PCI-e csatolófelületűek lesznek? vagy kitalálnak valami új szabvány és lehet új alaplapot venni?
  • ZaJanga
    #127
    Prohw-s hír:
    Helyet spórolhat óriásprocesszorában az NVIDIA
  • IMYke2.0.0.0
    #126
    Én ezért szoktam a teszteknél - főképp PH! - átugrani a Quake 3, Doom 3 és Doom 4, RTCW teszteket: nem érdekel, hogy OGl-ben az nV jobb.
  • Zsoldos
    #125
    Csak kar hogy olyannak van jovoje, ami egy db oprendszerhez kotott.

    Amugy nem olyan gaz mar az opengl tamogatas atieknal sem, sokat fejlodtek. Ez nem latszik annyira, mert mindenhol doom3 es riddickel tesztelnek, amiken amugyis eros az nv az fp16 hasznalata miatt.
  • Inquisitor
    #124
    Ez most már J.C. is hangoztatja, ami azért fontos, mert eddig ő volt az OpenGL pápája. Nem tudom milyen motort ír a D3/Q4 motor után, de lehet az már nem OGL lesz ...
  • Inquisitor
    #123
    Hogy drágábban el lehessen adni a jobb OGL támogatású FireGL kártyákat?
  • IMYke2.0.0.0
    #122
    Mert az OpenGL - ATI szerint, és szerintem is - nem életképes szabvány: a D3D-é a jelen és a jövő.
  • turul16
    #121
    ATI -nak vajon, miért gyengébb az OpenGL támogatássa ...
  • dara
    #120
    Sőt, az egész R5xx szériára ez jellemző. Az X1800XT/XL esetén mondjuk a kettő egyenlő számban volt jelen.
  • NeoMaN
    #119
    ez a futószalag keverés már az x1900-al elkezdődött