5974
  • Evogordon
    #4214
    Állítólag most évvégén már kint lessz az ATI-nak is.
  • Richard90
    #4213
    a dx10-es karik csak jövőre fognak megjelenni?
    az R600-as magúak
  • dara
    #4212
    Csak a retail forgalomban jelenleg is létező procikat veszem számításba.
  • dara
    #4211
    Ez azért kissé összetettebb. Ha Te azt látod, hogy nincs ami kihasználná a több processzormagot, sőt ebben maga az oprendszer akadályoz, akkor vennél ilyen lapot? Nézz szét mindenféle fórumokon,még most is sokan vannak, akik kétségbe vonják a több magos procik létjogosultságát, mert nincs ami kihasználná. Most akkor melyik oldalnak van igaza?
  • Inquisitor
    #4210
    "öööö az x1900xt ben miert nincs 1440 es felbontas???"
    Radeon 7000-től fölfelé (vagy talán már a Rage sorozatban is?) benne van. nem csak ez, hanem rakás egzotikus felbontás. Elvileg csak akkor jelenik meg a választhatóak között, ha a driver telepítése elött a monitor drivere fel volt rakva. Amúgy régebbi tweak programokkal az összes ilyen fura felbontás (960, 1440, 1366, stb.) aktiválható volt, mostani programokat nem ismerem.
  • Inquisitor
    #4209
    ATi X1950XTX and X1650XT launch date postponed
    From our sources, the X1950XTX and X1650XT series of cards launch will be postponed to Sept 14 2006. No reasons were known about why is it postponed. It was previously scheduled to be launched on 23rd Aug.


    El nem tudom képzelni miért csúsztatnák el, hiszen 23-án lett volna (lesz?) pár ATI bejelentás a GC-n.
    Azért remélem erről az olcsó X1650XT-ről lesz pár teszt elötte is.
  • Inquisitor
    #4208
    A Kenstfield az két darab Core2 magot tartalmaz ... :)
  • Anotino
    #4207
    De a userek hany %-anak volt meg a hw hozza akkor, 0.5-1%? Szerintem meg sokat is mondtam. Amig el nem er egy dominans aranyt a ketmag addig nem nagyon fognak ilyenben gondolkodni, es ez nem is feltetlen lustasag, inkabb esszeruseg. Ugyanez okbol tartott egy csomo ideig, mig atallnak dx8 v. 9 verziora.

    Az ido meg csak most jott el (vagyis a mainstream 2magos procik), hogy megerje elkezdeni foglalkozni vele.
  • dara
    #4206
    A hw nagyon régóta létezik, az sw fejlesztők elaludtak, vagy csak egyszerűen lusták. Már a Q3 motor is tartalmazza a több processzormag használatának lehetőségét, mégse lett ez kihasználva. Pedig a hw meg volt hozzá már akkor is.

    A többmagos procik talán nem egy sziliciumlapkán vannak? Dehogynem, az X2-k, Core (2) Duo-k és a Smithfield-ek is mind monolit chipek. A Presler nem, de ez valószínűleg a 65nm-es gyártástechnológia akkori kiforratlanságának a következménye.

    A gyártási nehézségekre: a G70-ben nem 6 quad van, hanem 7, de az sem lehetetlen, hogy 8! Ugyanis csak így tudták garantálni, hogy legyen 6 működőképes közöttük. A G71 jelentős áttervezés után alakult ki, és akkor már tudták garantálni a jobb kihozatalt 90nm-en, ezért nincs bennük, csak 6 quad. Ezért van sokkalta kevesebb tranzisztor a G71-ben. Nem a melegedés vagy a szivárgási áramok miatt kellett, hanem egyszerűen ekkora volt a selejtarány, amit így lehetett csökkenteni.
  • virs lee
    #4205
    De ha nincs hw, sose fognak sw-t írni hozzá. ~~

    Viszont ilyen összetettségű chipeket nem egyszerű gyártani, sok a selejt. Erre megoldás a több egyszerűbb, olcsóbban és jobb kihozatallal gyártható chip összekapcsolása.
    Lehet hogy a selejt is csökken, és ez egy pozitív mellékhatás, de az igazi ok inkább az hogy az adott technológiából maximumot kihozó magokból duplaakkorát csinálni nem is lehet, mert annyira melegszik, és olyan áthallások alakulnak ki benne, hogy a működését teszi lehetetlenné. Ugyanezen okból kezdték a prociknál is a többmagosakat erőltetni.
  • dara
    #4204
    Az otthoni SMP nagyon régóta elérhető, csak nem támogatta az XP megjelenéséig egyetlen otthoni használatra szánt Windows sem. Az Abit BP6 még csak drága sem volt (mikor is: '99-ben). A hw mwg lett volna hozzá, csak az sw oldal volt nagyon gyengén megtámogatva. És mint tudjuk, a legjobb hw sem ér semmit normális sw nélkül.

    Mint írtam, a GPU-k jelenleg is erőteljesen párhuzamosított architektúrák. Viszont ilyen összetettségű chipeket nem egyszerű gyártani, sok a selejt. Erre megoldás a több egyszerűbb, olcsóbban és jobb kihozatallal gyártható chip összekapcsolása. Erre megoldás a régi és a mostani SLi és a Crossfire. És szintén ennek a megnyilvánulása volt a VSA100.
  • virs lee
    #4203
    Mert egy szuperszámítógépen kifejezetten párhuzamítottan futó alkalmazások futnak. Egy PC-re ez nem jellemző (a PC-s játékokra meg főleg nem).
    Egyrészt ez is csak részben igaz, másrészt nyilván azért mert eddig nem volt mit párhuzamosítani. Most megadják hozzá a hardvert, erre nem az a válasz hogy hát eddig se volt divat. Persze hogy nem, mert nem volt min. Majd most lesz. Azonkívül most is rengeteg program fut párhuzamosan egy gépen, pl. vírusirtó, anydvd, stb, amire máris jó hatással van egy duplamagos proci.

    A GPU-k esetén a több mag nem a párhuzamosítás miatt lényeges, hanem a gyártási kihozatal növelése miatt.
    ???
  • virs lee
    #4202
    Életszerűtlen azért mert egy oplyan dolog ami az esetek 0.000000000000000000001%-ában talán előfordulhat, a maradék 99.99999999999999999% meg párhuzamosítható, nem a kivételek miatt kell akadályozni a fejlődést.

    "a szuperszamitogepeket rendszerint nem 1 user hasznalja" -> ez csak egy igaz allitas
    Már megint szavakon lovagolsz, nem arra válaszolsz ami a kérdés volt. Ez már csak egy 1000. példa volt, mert képtelen vagy megérteni miért jobb a több mag, mint az 1. Ebből indult ki az egész. Olyan példákat hozol fel hogy mivan akkor ha ez meg az történik, ami éppen nem párhuzamosítható. Hát akkor az épp nem. És? Majd a többi lesz párhuzamosítva, az egészre nézve gyorsul a rendszer. Mi ebben a felfoghatatlan?
  • dara
    #4201
    Mert egy szuperszámítógépen kifejezetten párhuzamítottan futó alkalmazások futnak. Egy PC-re ez nem jellemző (a PC-s játékokra meg főleg nem). A legáltalánosabban alkalmazott architektúra a szuperszámítógépeknél az MPP, azaz Massively Parallel Processing. Már nevében is erősen párhuzamosított. Ezért kell több ezer processszor.

    A GPU-k esetén a több mag nem a párhuzamosítás miatt lényeges, hanem a gyártási kihozatal növelése miatt. Egy többszáz millió tranzisztorból álló chip gyártása nem egyszerű, ezért sok a selejt. Maguk a GPU-k már jelenleg is erőteljesen párhuzamosított felépítésűek.
  • dara
    #4200
    Architektúrán belül maradva számít csak. Különböző architektúrák teljesítményét a legkevésbé sem lehet összehasonlítani a pipeline-ok száma alapján. Ezért irreleváns kizárólagos teljesítménymérőként hivatkozni rá, mint ahogy sokan szeretnék (tipikusan az nV hívők). Az órajel megint nem releváns, ez is architektúra függő.
  • Zsoldos
    #4199
    eletszeruen kivetel, mint mikor a processzorral kiszamitasz valamit, a pipeline meg kiszamolja egy pixel szinet?

    "Abból amiből neked az hogy 1 user nem használhatja mindet."
    ilyet sem mondtam soha. "a szuperszamitogepeket rendszerint nem 1 user hasznalja" -> ez csak egy igaz allitas

    "Rajtad kívül."
    hol?

    Eleg szakallas trukk, ha azt probalod cafolni amit a vitapartnered sosem mondott. Kivalo politikus lennel.
  • virs lee
    #4198
    Te beszélsz viddes "nevetseges kivetelekrol", ilyen "mi van akkor ha nem a jobb kezemmel vakarom meg a bal fülemet, hanem a ballal" féle életszerűtlen kivételekről, nem zavartava magad a tényektől.

    es ez most neked mibol kovetkezett, hogy 1 user 1 procit hasznal?
    Abból amiből neked az hogy 1 user nem használhatja mindet.

    ezt sem mondta senki
    Rajtad kívül.
  • Zsoldos
    #4197
    "hogy ha csak 1 pixel van, a 30 shader se segít"
    Ha visszaolvasol latod, hogy pipelineokrol beszeltunk epp, nem shaderekrol. Es igen, ha csak 1 pixel van, nem segit 30 pipeline. gondolkozz rajta hatha sikerul. Vicces, hogy nevetseges kivetelekrol beszelsz, es te irod le a legnagyobbat, mint pl ez.

    "Hanem egyszerre 5000? És ha meghibásodik 1 proci, azonnal kirugnak egy dolgozót, mert nincs min kódolnia?"
    es ez most neked mibol kovetkezett, hogy 1 user 1 procit hasznal?

    "Hiszen 1 magon mennyivel gyorsabb lenne"
    ezt sem mondta senki

    minek irsz ilyen hulesegeket?
  • virs lee
    #4196
    az olyan dolgok, mint a pipeline-ok vagy a textúrázóegységek száma sem mérvadó.
    De, mérvadó. Csak nem egyik vagy másik only, hanem mindkettő. Teszteknél kiderül hogy mikor melyik a szűk keresztmetszet, és hát vegyesen ez is, az is.

    Az az egy megoldás maradt, hogy fogod, és összehasonlítod, hogy egy másodperc alatt mennyi képkockát tud azonos program alatt kinyomni.
    Ez csak nagy általánosságban, durva becslésnek felel meg. Nem minden program használja egyformán intenzíven a különböző műveleteket.

    Az RSX esetében a DDR3 nem nagy szám, már évek óta ezt használják a PC-s videókarik
    Az GDDR3, a DDR3-nak asszem még végleges szabványa sincs.

    Amúgy alapvetően jó amit írtál. :)
  • virs lee
    #4195
    A gondolkodással neked vannak gondjaid, olyan nevetséges kivételeket hozol fel példának, hogy hihetetlen. Ennyi erővel mondhatnád azt is hogy ha csak 1 pixel van, a 30 shader se segít, ebből következően lehetkidobni minden videokártyát a kukába, ugyanolyan jó az S3 Trio is...

    a szuperszamitogepeket rendszerint nem 1 user hasznalja
    Hanem egyszerre 5000? És ha meghibásodik 1 proci, azonnal kirugnak egy dolgozót, mert nincs min kódolnia? LOÁL!

    Szerinted a SETI-t miért nem csak 1 pc-n futtatják a sarokban? Hiszen 1 magon mennyivel gyorsabb lenne...
  • [NST]Cifu
    #4194
    Akkor a monitormeghajtó körül kell keresni a hibát. Powerstrip vagy hasonló programmal megoldható.
  • CSOCSO
    #4193
    ugyan az az ati driver. az egyik x850 xt a masik x1900xt es a 850 nel van 1440 es felbontas ( windowsban!)
  • [NST]Cifu
    #4192
    Egyfelől ez már erősen OFF téma, de azért röviden.

    Teljesítményben szerintem nem lesz elementális erejű különbség, főleg azért, mert a PS3-ra a hírek szerint elég nehéz programozni, így kell egy kis idő, amíg a játékprogramok ki fogják teljesen használni a benne rejlő képességeket. (Tehát elméletileg erősebb lesz kijövetelekor, no de nem fogja ezt kimutatni)

    A másik probléma, hogy a megfelelő látványhoz már egy HD-s TV is dukál, ami bizony további cirka 200e Ft (vagy több).

    Azt vedd meg, amelyik szimpatikusabb. PC-re például évek óta nem jött ki normális verekedős játék. Konzolon viszont olyan, hogy valósághű szimulátor, gyakorlatilag egyáltalán nem is létezik. A két gép felépítése is eltér, alapvető dolgokba. Amíg egy három éves PC gond nélkül elfuttatja az OFP nevezetű játékot, ahol 20km-es szigeten is mászkálhatunk, addig XBox-on a programozóknak vért kellett izzadniuk, hogy a szűkös memória miatti korlátot valahogy megkerülhessék (végül egy folyamatosan töltő megoldást alkalmaztak az OFP:E játékban). Pedig az XBox elvileg erősebb gép. Konzoloknál a probléma az szokott lenni, hogy alapvetően szűkösre van szabva a memória, ez az általános konzolos (árkád) játékoknál nem probléma, de a PC-n ismert játékok konzolos változatainál már az.

    A konzol előnye, hogy (elvileg) nem kell szórakoznod driverekkel, segédprogramokkal, csak berakod a játékot, és kész, megy (jó esetben). Tehát egyszerűbben kezelhető. A PC ugyanakkor nem csak játékra használható, hanem lehet vele netezni, lehet vele különféle felhasználói programokat futtatni, stb.

    Nekem személy szerint nem éri meg a konzol, mert nem sok játék van rá, ami érdekelne...
  • Zsoldos
    #4191
    Ez monitordriver lesz sztem. Probald meg refresh force-al hozzaadni az 1440-es felbontast.
  • Zsoldos
    #4190
    Majd ha kintlesz a ps3 + ha lesz egyket ps3+pc platformos game, akkor ossze lehet hasonlitani. Carmack szerint hasonlo lesz.
  • [NST]Cifu
    #4189
    Windows alatt nem látod ezt a felbontást, vagy játék alatt?

    Az elöbbi esetén driver vagy monitormeghajtó program hiba lehet, utóbbi esetén lehet, hogy a játék nem támogatja a felbontást.
  • Richard90
    #4188
    a ps3 teljesítmány összehasonlítható egy mai "erős" 200000ft-os konfiggal?
    melyiket érdemes megvenni?
  • CSOCSO
    #4187
    öööö az x1900xt ben miert nincs 1440 es felbontas???
  • [NST]Cifu
    #4186
    ...és két pipeline egységenként kettő vertex shader egység van...

    helyesen:

    ...és két pipeline egységenként egy vertex shader egység van...
  • [NST]Cifu
    #4185
    Igen. De alapvetően annyire összetett ma már a videókártyák renderelési eljárása, hogy az olyan dolgok, mint a pipeline-ok vagy a textúrázóegységek száma sem mérvadó. Az az egy megoldás maradt, hogy fogod, és összehasonlítod, hogy egy másodperc alatt mennyi képkockát tud azonos program alatt kinyomni.

    A pipeline vagyis a grafikus rendelő futószallag végzi a pixelek számítását, ha 1 pipeline van, akkor egy órajel alatt 1 pixelt számol ki elvileg, ha 24, akkor 24 pixelt. Elvileg. Ugyanis valójában úgy néz ki, hogy egy-egy pixelt akár többször is újra kell számolni, ha például egy menetben csak egy textúrát kell felvinnie. A 2000 év körényétől, egészen olyan 2004 körülig egy pipeline-hoz általában több (akár négy) textúrázó egység is tartozott, tehát egy menetben akár több textúrát is rá tudott húzni az adott objektumra (multitexturing, vagyis egy objekten több textúra is látható). Ez az eljárás valahol a Dx9 megjelenésével kezdett kikopni, és visszatértek a futószallagonként egy textúrázó egységre. Az indok az új renderelési eljárások, vagyis az, hogy manapság már nem a multitexturingot használják a objektek kiszépítésére, hanem a shadereket, vagyis az árnyékolást. Eddig a hagyományos általában az volt, hogy pipeline-onként egy-egy pixel árnyékoló egység, és általában 3 pipeline-onként egy-egy vertex árnyaló egység került beépítésre. Az ATi az X1900/X1600 széria óta új felépítést hozott be, mely szerint csak 16 pipeline van a kártyában, de pipeline-onként három pixel shader egység, és két pipeline egységenként kettő vertex shader egység van a VPU-ban. Emiatt egy-egy menet alatt a pixel shader-ek által több effektezést is el lehet végezni, vagyis ott, ahol a shadereket intenzíven használják (az újabb játékok), ott az ATi kártyái legalább olyan gyorsak általában, mint a hagyományos felépítésű, több pipeline-al rendelkező kártyák. Lásd az X1900XTX teljesítményben gyorsabb a shaderintenzív játékokban, mint a GeForce 7900GTX, holott nyolcal kevesebb pipeline van benne (16 vs. 24).

    Az elég vicces megállapítás volt, hogy a PC-s videókártyákban csak 16-16 pipeline van, mivel ott van például a GeForce 7950GX2, amely 2x24 = 48 pipeline-al rendelkezik.

    Ami a több magot illeti, szerintem igenis erre felé tendál a jövő. Kiváncsi leszek persze arra, hogy a Dx10 esetén az egyesített Shader modelre épülő videókártyáknál mi lesz a helyzet, de a teljesítmény növelésére ma már leginkább a többmagos rendszerekkel valósítható meg gyorsan és hatékonyan. A GeForce 7950GX2 esetében láthatjuk, hogy ez igenis megvalósítható és működőképes egy kártyán is. Ma már annyira sok problémába ütköznek a grafikus magok fejlesztésénél, hogy nem lehet tartani az egyikori félévente-évente új grafikus mag kihozása standardot. Muszáj megoldást találni, és a többmagos rendszerek azok, amelyek erre megfelelő választ adhatnak.

    Az RSX esetében a DDR3 nem nagy szám, már évek óta ezt használják a PC-s videókarik, és most térnek át a DDR4-re, lásd Radeon X1950XTX.
  • Zsoldos
    #4184
    fiktiv szamokkal? muveletido becslesekhez fiktiv szamok az igazan szemleletesek. Ha esetleg gondjaid lennenek a gondolkodassal, helyettesits be n helyere amennyi jolesik ezret.

    for your interest: a szuperszamitogepeket rendszerint nem 1 user hasznalja, es nem is doomoznak rajta. tudomanyos szamitasokhoz, parhuzamos algoritmusokhoz jol jon a kazalnyi processzor (es persze mondjuk a lenti pelda szerinti logaritmikus vs linearis muveletido).

    "Hát 1 millió pixel shaderes radeont? "
    nvidia meg radeon 'vitaba' (vagy mi is az, talan fanboysagnak nevezheto) nem kivanok belefolyni, amiket mondok, gyartotol fuggetlen. Mivel te nv-t irtal, enis azt irtam. Nem a gyartora koncentraltam, csak hogy banalis hulyeseget mondtal, ennyi.
  • virs lee
    #4183
    Ne sose használt fiktív példákkal dobálózz, azt magyarázd meg miért jobb egy 1 magos szgép, mint egy 5000 magos (procis) szuperszámítógép? Ha sikerül, jelentkezhetsz is Nóbel díjra.

    Meg nem lattam 1 millio pipelineos nvidia kartyat
    Hát 1 millió pixel shaderes radeont?
  • CSOCSO
    #4182
    pls.segitsetek a SEGITSEG topikba!!

    mara kellene a gep mert ocsem szulinapja lesz de nem megy a kurva gep::(((((
  • Zsoldos
    #4181
    "A cpu műveletek talán nem?"

    Egyaltalan nem. Mondjuk a feladat a1+a2+a3+....+an . Ha van >=n db magod, meg akkor is csak logn ido alatt tudod elvegezni. Es ez meg egy idealisnak szamito szituacio.

    Mig ha pl nxn pixelt renderelsz, n^2 db pipeline -al 1 orajelnyi ido alatt kesz vagy. Es ez az esetek 100%-ara igaz.

    "Gyakorlatilag is, ez van az Nvidia kártyákon."
    Meg nem lattam 1 millio pipelineos nvidia kartyat
  • NeoMaN
    #4180
    Hát, azért a pipák száma sztem nagyon is számít. 6800-ból 6800GT-t csináltam anno rivával, és bőven sokkal gyorsabb lett a kari...
  • virs lee
    #4179
    A cpu műveletek talán nem? Nem is értem ezeket a szuperszámítógépeket minek bele 5000 proci...

    Elmeletileg annyit is bele lehetne tuszkolni, ahany pixelt renderel.
    Gyakorlatilag is, ez van az Nvidia kártyákon.

    A tobb-gpu-s megoldasok max arra jok, hogy kicsit elorebb lehet szaladni, mint ahol a gyartastechnologia tart, es lehet csinalni ilyen jokis presztizsGPU-kat.
    Egy 7950 gx2 csak annyira presztizs mint egy x1900 xt. Árban ugyanott van, teljesítményben meg ég és föld. Az ATI is ezért erőlteti a Crossfiret.
  • Zsoldos
    #4178
    Vga-knal nem hiszem, hogy a tobb mag lesz az iranyvonal. Nem jo parhuzamot vonni, mert hatalmas kulonbseg a cpu es a vga kozott: a vga-ban zajlo idoigenyes muveletek totalisan parhuzamosithatoak. Ezert halmoznak bele egyre tobb pipet. Elmeletileg annyit is bele lehetne tuszkolni, ahany pixelt renderel. Ha megoldhato egy maggal, akkor joval gazdasagosabb a mukodes. A tobb-gpu-s megoldasok max arra jok, hogy kicsit elorebb lehet szaladni, mint ahol a gyartastechnologia tart, es lehet csinalni ilyen jokis presztizsGPU-kat.

    szvsz persze
  • virs lee
    #4177
    De. Számít a pipeline is, meg a shader is. Hogy mikor melyik számít többet, az a futtatott programtól függ, hogy van megírva, melyiket használja jobban.

    A 7950 gx2 jelenleg a leggyorsabb, ez a tesztekből is kiderül. Az x1950 tud egyedül felzárkózni hozzá. Persze vannak olyan programok ahol egy szóló 1900xtx vagy 7900 gtx több pontot ér el, mert azok abszolut nem használják ki az sli-t, viszont órajelfüggőek, itt értelemszerűen labdába tudnak rúgni. Azonban a jövő mindenképp a sokmagos vga, a prociknál is pont ugyanez a váltás megy végbe, ott se sokminden használja ki _jelenleg_ a 2. magot, de egyre több minden fogja. Vga-nál is.
  • dara
    #4176
    Állítottam, hogy a leggyorsabb/legjobb? Azt mondtam, hogy 2/3 annyi pipeline elég neki ahhoz, hogy némi teljesítménybeli fölénybe kerüljön a 7900GTX-szel szemben. Akkor most számít a pipeline-ok száma? Nem! A shaderek mennyisége a lényeg, és a jövőben méginkább az lesz.

    Tegyük hozzá, hogy a legbivalyabb VGA nem a 7950GX2. Attól a címtől nagyon-nagyon messze van.
  • Landren
    #4175
    ennyi hibát egy mondatban