Egyre népszerűbbek a többmagos chipek
Jelentkezz be a hozzászóláshoz.
Túl sokat nem javulhatott a gyártástechnológia, hiszen a 2.5x annyi tranyó 2.5x annyit is zabál.
Én errõl beszélek. Az egy másik dolog, hogy ennek, itt most már más a belsõ felépítése is, vagy hogy majd késõbb 80nm-en fogják gyártani. Mellesleg az sem (több mint) felezi a fogyasztást.
1. Ez teljesen természetes. Ha a tranzisztorok átrendezésével jelentsen javulhatna a teljesítmény, az azt jelentené, hogy az elõzõ generáció nagyon el volt cseszve.
2. Most azért lehet több tranzisztor egy chip-ben, mert fejlõdött a gyártástechnológia. Már egy ekkora lapkát is ki lehet hozni alacsony selejt aránnyal. Másrészt hamarosan kisebb csíkszélességgel fogják gyártani, vagyis normális méretû lesz (de ezt annyiszor leírtam már, hogy össze se tudom számolni).
3. Az új belsõ felépítés óriási lehetõségeket rejt, de egyelõre nincs kihasználva. Ehhez kell majd a DX10, meg a CUDA.
Én ugyanazt ismételgetem, más-más megfogalmazásban, de úgy tûnik, hiába... 😄
"viszont lehet, hogy az uj kialakitás miatt kénytelenek voltak ilyen "böszmére" csinálni"
Dehogy. Azért ennyi, mert ugye be kell elõzi jól a konkurenciát, meg a userek is várják a menetrendszerû duplázást. De pl. most jönnek majd a kistestvérek, 8600GT 64 stream-procival (128 helyett), szóval "megoldható".
"a 2-2.5x-ös teljesítmény nem az új kialakításnak köszönhetõ, hanem a 2.5x-ös méretnek."
- viszont lehet, hogy az uj kialakitás miatt kénytelenek voltak ilyen "böszmére" csinálni (a meglévõ csíkszélességen), egyszerüen csak hogy igy gyorsan kész legyen. Azt a néhány gépbe még azért befér, és páran meg tudják majd fizetni cimszóval piacra küldték, hogy így egy picit beelõzzék az amd-t...
Mindössze arra, hogy a 2-2.5x-ös teljesítmény nem az új kialakításnak köszönhetõ, hanem a 2.5x-ös méretnek.
Meg akkor is mindegy, ha csak akarod programozni (de nem teszed). 😉
A GX2 chipjeinek órajele csak azért alacsonyabb, mert mindkettõnek olyan lapos a hûtése, hogy a kettõ együtt olyan vastag, mint pl. egy GTX. 2 full méretû GTX a normál órajelén is mehet együtt SLI-ben.
Mint már sokszor mondtam, 80nm-en fogják gyártani nemsokára (vagy talán már most is), de nyílván a gyártási problémák elkerülése miatt az elsõ szériát még 90nm-en hozták ki (ugyanezt csinálják mostanában a CPU-knál is). Az meg nem igaz, hogy ugyanolyan, mintha a korábbi generációból lenne 2 mag, mivel azok nem tudnak elég hatékonyan együttmûködni. Gondolom oka volt annak, hogy a GX2 kisebb órajelen megy, nyílván nem attól féltek, hogy túl erõs lesz.
Amugy nem tudom, hogy azóta javitottak-e rajta szoftveresen driverrel, már ha 1általán megoldható, de akkor se vennék ilyen videokarit az biztos, ez a veszély nem fenyeget 😄
Érted már?
A 7950GX2 jóval alacsonyabb órajelekkel dolgozik, mint a 7900GTX, így nem csoda, hogy nem 2x gyorsabb.
Muris, hogy rendre új információként írod le, amit már magam is írtam. A DX10-re gondolok. Csakhogy, mivel az ma még nem elérhetõ (se a DX10, se a DX10-es driverek, és a ez hírek szerint még legalább 2 hónapig így marad), csak DX9-ben lehet használni a kártyát.
Egyébként meg nem a nyers DX9 teljesítmény a "kunszt", bár az is elég impresszív. A lényeg a DX10, és méginkább a programozhatóság.
És ez miért érdekes? Komolyan nem értem, hogy mire akarsz kilyukadni.
GA EP35-DS3, C2D E6400@3,2, Geil Ultra 2x1 CL4, GTX 280 1024MB, 250GB WD RE, TT Armor Jr., Logitech X-230...Win 7
Nem tudom, ugyanez fogják-e késõbb kisebb csíkszélességgel gyártani, inkább újabb cuccok lesznek azok, még több tranyóval, hasonló méretben. Öldöklõ verseny van ugye, mindent beleadnak, ami korábban nem lett volna ésszerû, azt is.
\"Kinézet hajhászó átlagfelhasználó\" by GyP
Nem értelek. A tranzisztor szám nyílván emelkedik, hiszen fejlõdik a technológia. A fogyasztás (és méret) meg drasztikusan esni fog ha kisebb csíkszélességgel gyártják.
\"Kinézet hajhászó átlagfelhasználó\" by GyP
<#vigyor3>#vigyor3>
\"Kinézet hajhászó átlagfelhasználó\" by GyP
És nem a crysis, hanem a CoH lesz az elsõ dx10es játék, ha kijön a vista & dx10, igaz nem alapvetõen dx10re irták, de crysis sem lesz teljesen olyan.
"...optimalizálatlan játék..."
Mikor beszlunk optimalizalatlan, vagy epp optimalizalt jatekrol???
Szerintem az engine eleg jo, es meg egy FX5600-zal is jatszhatonak nevezheto. 7000-es kartyakkal nem volt modom kiprobalni, de a 6600 es a 8800 kozott a kulonbseg eg es fold. Most nehogy mar az nvidia tehessen arrol, hogy nincsenek DX10-es jatekoke. Ok kiadtak egy iszonyatosan izmos kartyat, ami remenyeik szerint helytall majd a DX10-es jatekok eseteben is. Es nehogy mar a jatekfejlesztok hibaja, hogy 2006 szeptemberben egy olyan jatekot kenytelenek kiadni ami "csak" DX9-et hasznal. Gondolom pici ido szukseg volt a fejlesztesre is. Szoval most nem ertelek.
Egyebkent ilyen alapon a teljes 6 es 7 ezres sorozat mero folosleg, mivel ha jol tudom mar az 5 ezresek is DX9-esek voltak. Csak a franya jatekirok nem optimalizaltak ra???
Nade mindegy is.
\"Kinézet hajhászó átlagfelhasználó\" by GyP
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Röviden: az hogy nem kell tovább szart enned még nem fejlõdés.
Histeria est magistra vitae. Ez nem trollkodás, ez online graffiti! ;) https://suno.com/@nexus65ongs
Nekem pont eleg, hogy a Company Of Heroes minden szir-szar csili-vili, bizbasz bekapcsolasa utan sem igen esik 50 fps ala.
Ja es a 6600GT utan olyan volt, mintha egy uj jatekkal jatszanek. Ezert aztan szamomra ugy tunik, hogy eleg rendesen kihasznalja a jatek a 8800-at. (persze ertelek am, hogy mit ertesz az alatt, hogy nem hasznalja ki, de attol meg nagyon jol jon az a plusz teljesitmeny DX9 alatti jatekoknal is, mert a Core2 2 magjat se hasznalja ki a CoH, de megis sokkal jobb pl. replayt nezni azzal, mint a P4 2.8-cal)
\"Kinézet hajhászó átlagfelhasználó\" by GyP
Ja õk programozók. Azt mondja iszonyat a PS3. A GT HD-n össze hugyozta magát...
A másik PS3 meg 18kiló és akkora mint egy bõrönd, mivel a fejlesztõi verzió, mindenfajta kibemenettel, meg blue-ray dvd író is van benne! 😛 De jó nekik. Játszanak mint állat 😄
És én csak azt mondom, hogy az a néhány is nagyságrendileg több, mint amennyi a GF8800XT-re optimalizált PC-s játékok száma.
Amúgy mivel nincs PS3-asom így nem tudom, mennyire jobb a képe a pS2-höz képest amikor PS2-játékokat futtatunk rajta.
De pl a PS2-õn be lehetett kapcsolni, hogy a PS1-es játékoknál is használjon textúra szûrést, meg gyorsabban is pörögtek a játékok. Szal ennyit a Ps2-nél is láttunk, de én akkor sem mondtam azt a lükeséget, hogy már csak ezért is érdemes lenne PS2-õt venni 3X annyiért, hogy csak PS1 játékokat futtassunk.
Szal a Crysisig nincs egyetlen olyan gámae, ami rendesen kihasználná, max az FSX.
Histeria est magistra vitae. Ez nem trollkodás, ez online graffiti! ;) https://suno.com/@nexus65ongs
Igen emeli, mert gyorsabban mennek a játékok, és jóval szebbek is. Még nagy felbontás mellett is sokat dob a kép minõségén az FSAA, és az is sokat számít, ha 20 helyett 50 fps-sel megy a játék.
Egyébként visszakérdezhetnék, hogy a PS2-es játékoknál mekkora élmény növekedést okoz a PS3.
Baromi ronda ez az új dizájn!
Ezt mar egy eredetileg voodoo2-re (majd dx7-re) irt mmoprg is tudta. Igaz, hogy szinte mindent a proci szamolt de tudta. Az ujitas pont az, hogy a dx10-zel vegre visszakapjuk az opengl-ben mar az 1.1 ota ismert feedback buffer-t, azaz uj neven geometry shadert. A pc-s kartyak a geforce 1 ota csak szoftverbol tudtak ezt az uzemmodot, most vegre implementaltak hardveres szinten is. Es nem csak a regi fix funkcios, hanem programozhato modon. Ez jo. Az, hogy a gf8800-as vegre kepes nativ felbontasban hasznalhatoan mukodni egy uj nagyfelbontasu lcd monitoron az mar csak bonusz. (igen igy a regi jatekok, mint pl. az oblivion sem fog szaggatni 1440p mellett hdr-ben)
A ketmagos rendszerek pedig alacsonyabb orajel mellet gyorsabbak, meg ha csak az egyik mag jar akkor is. Koszonheto mindez a 2-rol 3 darabra novelt alu-knak, az 1-rol 3-ra novelt vektoregysegeknek es egyeb kivulrol nem lathato boviteseknek. (a core2 sorozat a pentium pro kozvetlen leszarmazottja, mint a PII es a PIII volt, a P4 sajnos mukodeseben a transmeta crusoe rokona volt)
A cell-ben van 1 cpu es 6 hasznalhato dsp (1-et az oprenszer hasznal). Ez megfelel 0.75 darab azonos orajelen mukodo core2 duo-nak vagy 1 darab 3 magos ppc-nek (xbox360). Annyi kulonbseggel, hogy mig a pc-kre konnyebb programot irni, addig a cell-hez dsp-s gyakorlattal rendelkezo programozok kellenek. Ilyenbol keves van es jelenleg is jobban fizetik oket, mint a jatekfejelsztoket. A sony nagy lepese az volt, hogy most ugyanaz a proci van a bravia tv-kben, a ps3-asokban es az ibm szuperszamitogepekben. A 8 jo dsp-seket az ibm kapja, a 7 jo dsp-s megy a ps3-ba, a meg kevesebb jo magos meg a bravia tv-kbe. Az oprendszer ugyanaz a linux, csak a vasarlok nem tudnak rola. Egyebkent dsp-kent hasznalva a cell tenyleg jo, de ez nem altalanos felhasznalast jelent, hanem pl. a video es a hangkartyat lehet igy kivaltani. (a bravia-kban igy kevesebb aramkor van, egy cluster-be meg minek videokartya)
"Mért rossz emlékû az FX5200??én nagyon csipázom!"
Mert shader programok eseten gyengebb mint egy gf4ti volt.
Gigabyte 8VM800 LGA775 alaplap,1GB DDR2 zeppelin RAM 512 Mb DDR2 zeppelin RAM Nvidia Geforce 7600 GS 256Mb/128bit AGP,Intel Pentium D 2x3Ghz LGA 775,Maxtor 120 Gb & Maxtor 40 Gb Creative P5800 5.1
cell meg aztán nagyon emeli a játékélményt mekkora érzés az a sok flops ami rá van írva \o/
Vain ei kuulu terroristien käsiin! CS. N. T. K. K.! SG az a hely ahol sunyi módon csöndben törölgetik a hozzászólásokat, indok nélkül. ;)
Naneetess! Szólok a Szõkének hogy mutasson már nekem is egy 8800GTX-et!😉))
Histeria est magistra vitae. Ez nem trollkodás, ez online graffiti! ;) https://suno.com/@nexus65ongs