Még egy FX 5900 Ultra GPU is gyorsabb egy 10 GHz-es Pentium 4-nél?

Oldal 1 / 2Következő →

Jelentkezz be a hozzászóláshoz.

mir
#82
a transmeta valóban mikrokódós, és k*va lassú. a VLIW nem RISC alapú. LIWrõl meg még nem hallottam. amúgy sem a VLIW sem az EPIC sem a RISC nem mikrokódos cucc. az utsó komolyan mikrokódot használó(és teljesímtényorientált) processzorok a DEC VAXok voltak.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

mir
#80
azok a procik, amiket mis használunk döntõ többségükben huzalozottan hajtják végre a bonyolutatbb utasításokat, a mikrokód már nem dívik.

neandesz: OK, majd elolvasom egyszer a PDFet, ha lesz idõm, meg kedvem. érdekes dolognak tûnik.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#77
nvidia geforce 5800 ultra. oda van irva.
Passz. Latni kene a kodot hogy tudjam.

3d vizualizáció és egyéb objektum lakatos, illetve maxscript challenger. render engine szaki, és szeretem a süteményt. xD donorok privátban jelentkezzenek. köszönöm.

mir
#76
nos a rendering-területen nem vagyok igazán otthon, a GPUk 3Ds képalkotásával eléggé tisztában vagyok.
de ha megnézed, akkor õk nem az egész renderert, csak a photon mapping-et futtatták a GPUn.
nem vagyok tiszában ennek a valós megvalósításával, de az alapján a pár sor alapján nem tudom megállpítani, de hogyha elágazások nincsenek benne, akkor könnyen el tudom képzelni.
a másik fontos dolog, hogy nem írják, milyen GPUn dolgoztak.
azokban az SGI gépekben, amikkel 5 éve kerültem kapcsolatba pl. RENDERING GPUk voltak, azaz a GPU nen csak megjelenített, hanem RENDEREL is.(SGI rulz, de sajna vékony rétegigény) tehát még ez sem számít önmagában újdonságnak, a lényeg az lenne, hogy milyen GPUn.
Ha nvidia, vagy ATI, akkor az elég komoly dolog, ha nem, akkor már kevésbé. pl. 3DLABS P10 télleg programozható(advanced PFCvel)(mondjuk nem Direcx APIval persze) azt biztos hogy nem lenne nehéz rávenni hasonló dolgokra.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#75
na, csak hogy letisztazzuk a dolgokat, latom a renderelesrol fogalmad sincs :) De ezt minden rossz szandek nelkul mondom... A pohon mappingolas nem mas mint ray tracing, a fenyforrasbol photonokat lonek ki es az pattog a feluleteken. Sugarkovetes. Tehat ez a modja a renderelesnek, semmi azaz SEMMI koze a gpukon elterjedt renderelesi modokhoz. Programozas szempontjabol pedig, a cucc igen-igen komoly... es sokretu is.
Mit akarok ezzel kihamozni. Azt hogyha meg tudtak oldani hogy a program teljesen a gpun fut akkor valoszinuleg sok mast is meg lehet oldani...

Legvegere azert nem artott volna elolvasni a cikket :) Velemenyt mondani mindenki tud...

3d vizualizáció és egyéb objektum lakatos, illetve maxscript challenger. render engine szaki, és szeretem a süteményt. xD donorok privátban jelentkezzenek. köszönöm.

mir
#74
nomeg a szoftvertámogatás sem hinném, hogy akár csak létezne.
még egy komolyabb programnál(ne csak a photoshopra gondoljatok, ennél azért többmindent ismerek) sem láttam hogy bármiféle AMIGA support van.
WIN, MAC, nagyon esetlegesen valamilyen UNIX. mindenhol ezt látom.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#73
több project is van amiga témában
az AROS ez x86-os procira átirt amigaOS, aros.org
az amiga inc egy uj gépet csinál ppc procival meg az uj OS-t, amiga.com
és ott van még a morphOS ami egy a Pegasos-ra irodott ez is egy ppc-s gép
vannak fejlesztések csak az a baj hogy mindenhol hiányzik a pénz és képtelenek ütös hardvert csinálni

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)

mir
#70
na inge. az intel sem tudja elterjeszttetni az itaniumot, pedig az az "nagyok" között olcsó, és stabil. errõl az újfajta amiga projectrõl is olvastam, de olyannal, aki ilyen gépet látott volna még nem találkoztam.
és az amigába építhetõ PPC kártyákról szeretnék kérdezni:
Volt saját memóriájuk?(saját címtér/saját mem a központi címtérben/saját mem a központi címtérben fizikailag saját chipekben, cache)
a programozás hogy ment? mint egy vektorprocesszort? vagy párhuzamos kódot kellett írni, azaz egyszerre mind a két processzort vezérelni kellett? egyszerre volt task swich? engem ilyesmi érdekelne.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

mir
#67
na jó, mégis éírok még.
amiga programot írtam, de akkor még nem voltam túl magas szinten elmélyedve a témában(mint ahogy most sem, de azért már jobban) és az maradt meg bennem, hogy a rendszerprogramozás nagyon nem tetszett, azaz nekem antipatikus volt.
egyébként sokat olvastam róla. örülök neki, ha kijavítasz(tényleg), ne éljek tévedésben.
úgy látom, ebben a témában te vagy otthon.
azok a bizonyos PPC amigák hogyan mûködtek? a felépítéssael nagyjából tisztában vagyok, de a programozás rendszerérõl dunsztom sincs. megkapták az IBM és a Motorola fordítókat, vagy valami SPEC kellett nekik?...

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

mir
#64
na jó, a mikrokód egy kicsit durva.az operációs rendszere nagyon speciális volt, egy flash chipben volt eltárolva, így elég gyorsan betöltött, és ezt az userek nagyon szerették.
de programozni egy rémálom volt, mert kicsi KERNELje volt, és kicsi kernelbe kevés rendszerfüggvény fért bele.
rugalmasság 0, egy mai összetettségû rendszert nem lehetne hasonló módon megépíteni. az oprendszer nem szerepelt a memóriacím-tartományban, amit most nem fogok ecsetelni miért, de nagy probléma. nem lehetett fejleszteni, debuggolni. a debuggolás akor még nem volt nagy gond, leültés, és írtál egy minden igényt kielégítõ OSt pár hónap alatt viszonylag kevés erõforrás felhazsnálásával.
ma ez már nagyon bonyolult lett, egy ilyen gép építése irreálisan sok pénzbe kerülne. arról meg nem is beszélve, hogy a rendszerdiagnosztika 0... ami komolyabb munkára tenné ma alkalmatlanná.
akkoriban nagyon sok elõremutató technológia volt benne, de nem volt elég rugalmas.
és boldog karácsonyt mindenkinek, most én már nem írok többet!

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#63
ugy tudom microkod a cisc processzorokban van általában ahol minden utasitáshoz van egy program

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)

#62
semmit,az amiga os egy normális oprendszer csak belefért 1 megába az egész és rombol indult
persze ha az ember fölpakolt hozzá mindent akkor má egész nagy lett ugy 10-40 mega

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)

#58
majd arra leszek kiváncsi a ps3-nál mibe fogsz belekötni:D

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)

mir
#56
a megfelflõ képesítésed úgy látom meg van hozzá, és a színvonalra is tudsz vigyázni, meg ne szökjön(azaz létre ne jöjjön) tehát szerintem minden bizonnyal:D

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

mir
#53
nekem van nVidia a gépembe(FX5200 nem kell anyázni, a starcraft meg a colin2 megy, más nem érdekel) meg van ATI egy laptopban, (Mobility radeon 7500 egy IBM A30-asban) tehát van mind a kettõrõl tapasztalatom.
a helyzet az, hogy az ATI sokkal jobb.
azért nem az van a desktopomban is, mert nekem olcsó cucc kellett DVIvel, 3d-s teljesítmény nem számított. az ATI meg 30K alatt nem adott DVIs kártyát. de az ATI jobb.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

mir
#48
az a CELL, és az 16 vektorprocesszor. kiegészítve persze 4 flow controll egységgel. és rohadt gyors lesz.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#47
A ps3-ban az az új über proci nem ehhez hasonló,vagy hülyeséget írtam? (tudjátok az a proci amit máshol is fe szeretnének használni,és több feladatot képes egyszerre végezni meg minden egyéb fricsõr)
mir
#46
"Harmatgyenge az érvelésed. Egy Pentium4 összehasonlítható szerinted egy videókártyával??? Esetleg szerinted az FX-eken fut a Chessmaster 2000??? :DDDDDDDDD"
Te most hülye vagy?
szerinted miért téptem itt a számat a #17ben? Ugyan errõl.
ha nem értesz a témához, és mindenképpen hozzá akarsz szólni, akkor legalább OLVASD VÉGIG! Csak azt mondtam, hogy nem lehet összehasonlítani ez egyiket as másikkal úgy, ahogy te tetted.
mellesleg ha van olyan adat, ami a proci teljesítményérõl ha lehet még az órajelnél is kevesebbet mond el, akkor az a GFLOPs érték. a lényege a hozzászólásomnak az volt a lényege, hogy attól, hogy valami sok GFLOPSos, attól ez még nem gyors.

"Nem ertem minek a gpu-nak elagzas. Ebben epp az a lenyeg hogy normal program ami a normal procin fut vezerli a gpu-t, megpedig ugy hogy nagyon sok egyszeru szamitast vegeztet el vele.
Egyaltalan nem arrol van szo hogy a gpu-n kulon programok fognak futni."
ahoz, hogy a GPUn külön program fusson, kell bele a PFC.
Így csak egy nagyon korlátolt vektorprocesszorként lehet használni, de ahoz SPEC driver és spec oprendszer kell. a megvalósításnak az lenne az eredménye, hogy drágább lenne, mint egy rendes vektorprocesszor.(pl. SUN VXR1K)

"szerintem kar aggodni barmiert is, a lenyeg hogy lehet hasznalni. Es az jo... Lattam mellesleg egy erdekes eloadast, hogy peldaul 3ds renderingre hasznaltak, (photonmapping). es marha gyors."
Egy GPUt renderingre használni nem olyan nagy cucc...

"Nem artani elobb a CPU-t kihasznalni... mert az is csak unatkozik "
Ezt merre olvastad? Olvasd elõször végig a topicot mielõtt ilyen okosakat benyögsz, ok?

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#45
Nos, hogy én is újra beleszóljak.
#43: ez oké, de megint csak grafikára használtak egy grafikai procit, szal ez nem feltétlenül világrengetõ tevékenység. :)
#42: senkivel sem "basztak" ki
#41: természetesen nem hasonlítható össze tisztességesen, ez olyan mintha egy traktort és egy bmw-t hasonlítanál össze, hogy mennyivel gyorsabb a bmw és szántsunk inkább azzal...
#39: nem is kell a gpunak elágazás, vagy legalábbis nem sok. De épp ezért GPU és nem CPU. Ha a CPU adja ki az utasításokat, hogy számítsa ki a GPU, és hagyományos számításokat akarnánk elvégezni, akkor az esetek nagyrészében az AGP busz kinyírná azt az elönyt, amit az egésszel nyernénk, mivel az nagyságrenddel lassabb mint amit a CPUban megszokhattunk.
#38: tegyünk fel egy hipotetikus amigád van, ami mai szintû. Meghalnál mennyivel nehezebb rá (és költségesebb is) egy korszerû programot fejleszteni, ami tud minden szart, amit a mai userek elvárnak.
#36: mir nagyon jól rátapintott a lényegre.

#44
ihol a link, a program teljesen a gpu-n fut.
http://www-graphics.stanford.edu/papers/photongfx/

3d vizualizáció és egyéb objektum lakatos, illetve maxscript challenger. render engine szaki, és szeretem a süteményt. xD donorok privátban jelentkezzenek. köszönöm.

#43
szerintem kar aggodni barmiert is, a lenyeg hogy lehet hasznalni. Es az jo... Lattam mellesleg egy erdekes eloadast, hogy peldaul 3ds renderingre hasznaltak, (photonmapping). es marha gyors.

3d vizualizáció és egyéb objektum lakatos, illetve maxscript challenger. render engine szaki, és szeretem a süteményt. xD donorok privátban jelentkezzenek. köszönöm.

#38
"Nem mellékes, mindenki rinyál, hogy az új OS lasabb és a ráírt programok, stb.
De ha megnézzük milyen egy WinXP például, ha leszedjük a csilivili grafikát, kiszedünk belõle mindent ami felesleges, mert nem használjuk, és nem futtatunk ezer kis "bizbasz" programot a taskban (meg reklámszemetet, benyiló SB/Office menüt), akkor kiderül, hogy nem is lassabb, sõõt."

az a kérdés te mit veszel gyorsnak, ha összehasonlitanál egy 30 mhz-es amigat egy mai pc-vel, azt vennéd észre hogy az amiga szebb szorja az ablakokat azt csinálja amit akarsz és amikor akarod, ezzel szemben a pc meg a win egyszerüen reménytelen
ebböl nem azt akarom leszürni hogy az amiga olyan jo gép, annak is megvannak a korlátai csak mintha az jönne le hogy a pc egy tákolmány a win-el együtt,
nehogy az legyen egy jo os feltétele hogy kitud rakni pár ikon meg megnyit pár ablakot meg felismeri a hardvert ezt az amiga már 20 éve tudta
nyiss meg pc-n pdf-et vagy ppt-t közben a mp3 lejátszo bericeg :D, van olyan alkalmazás ami 10 sec alatt indul el, a VC 2 percig fordit párszás soros forrást, a virtual mem kezelésröl nem is beszélve stb...
viszont aki pc-n kezdte az ismerkedést a ámitástechnikával annak tényleg az jön le hogy hatalmas a fejlödés a win3.1-hez képest :)

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)

mir
#37
nem map processzorok, hanem mai processzorok, és általában nézve.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

mir
#36
igen, ez az ábra.
és még valami a GPU FLOW controlljáról. a Pixel Shadferekrõl nem tudok, de az annyira nem érdekes, mert nagyon spec.
a Vertex shader 1.xben SEMMILYEN program flow control(továbbiakban PFC) nincs, a VS. 2.0ban mát van, méghozzá egy n darambszor végrehajtandó GOTO. tehát csakis statikus ciklus van benne, aminke nem más a feladata, minthogy leegyzserûsítse, és átláthatóbbá tegye a VS kódot, illetve ez a max 2048 utasítás akár több is lehessen.(mondjuk az nagyon sok) tehát nyugodtan mondhatjuk, hogy még abban SINCS FLOW control.
és valószínûleg nem is lesz, mert azért "könnyû" a VS kódot végrehajtani, mert nincsen benne ilyen.
nagyon gyors adatfeldolgozó egységet bárki tud szerkeszteni. a map processzorokra áll a következõ:
DIE méretének 50%a cache
25%a utasításpárhuzamosítással kapcsolatos logikai rész(itaniumnál értelemszerûen ez hiányzik)
10% vezeték
10% flow control(IF, CASE, GOTO, Safety Mode Task Swiching...)
5% számoló egység.
tehát a sziliciumlapkának csak az 5%a foglalkozik azzal, hogy 3+2=5 Ezen az 5%on van minden effektív utasításvégrehajtó egység.
ez az 5% nagyjából áll a fejlesztési idõre, és költségekre is.
a cache az a 0hoz konvergál.
a fejlesztési idõ(és erõforrás) 95 %át a PFC és a párhuzamosító egység teszi ki! az a kettõ dolog messze a processzor legfontosabb, és legbonyolultabb része!
és a GPUkból éppen ez hiányzik.
ha bele kelllene tenni ezeket is, akkor a GPUk méretetöbbszörösére nõne, ahol a többszörös min. 3 a fejlesztési költség pedig sokszorosára, és a sok minimum 10
ez az árakon is meglátszana, higyjétek el, így sem olcsó dolgok.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#35
Na bekéstem :)
Nem mellékes, mindenki rinyál, hogy az új OS lasabb és a ráírt programok, stb.
De ha megnézzük milyen egy WinXP például, ha leszedjük a csilivili grafikát, kiszedünk belõle mindent ami felesleges, mert nem használjuk, és nem futtatunk ezer kis "bizbasz" programot a taskban (meg reklámszemetet, benyiló SB/Office menüt), akkor kiderül, hogy nem is lassabb, sõõt.

#34
Nem rád haragszom vagy ilyesmi, félre NE értsd ... csak azokra akik ezt a baromságot terjesztik, hogy ay X-Box egy PC.
El kéne olvani legalább 1x az életben, amit a sajtóban írtak (már értelmes õjságoknál ugye) a témában.
Adva van egy direkt az X-Box-hoz készült PIII/Celeron öszvér proci, egy végtelenül csupszított Windows 2000 (valami iszonyú pici FIX kernellel) ami már kapásból 20-ad rendszererõforrást, és 100-ad helyet igényel.
Aztán ezen fut egy spéci Shell program, egy felület amit direkt Pixelshaderre fejlesztettek ki, és jól néz ki.
Speciális saját DirectX felülete van, ami tekintve a fix vasat legalább 5x hatékonyabb.
És akkor ott a spéci VGA, ami minden híreszteléssel ellentétben NEM GF3, hanem valami külön fejlesztett cucc, ami bizonyos tekintetben több mint egy GF4, másrészt meg kevesebb. Pl. minek neki gyors textúrázás ugye egy TV felbontáshoz? :)
Ja és ugye a rendszermem és a VGA memória egyben van, sok idõt spórólva az adatok pakolgatásával, cserébe kisfelbontású textúrákat kell használni, de attól megint gyorsabb.
Ezért nem lehet mai PC-vel SE normális emulátort csinálni ugye.
Van itt sok konzolos arc és/vagy programozó, õk majd kijavítanak engem, de kb. ez az ábra.

mir
#33
"azt magyarázd el nekem légyszives, hogy miért van az, hogy az pl. az x-box negyed olyan erõs hardverrel is képes jobb grafikát nyujtani mint egy pc! tényleg nem értem. pedig az x-box is x86 felépitésü, azt hiszem valami 700-as pIII megy benne"
majdnem P3, azaz olyan, amiben celeron méretû cvache van, de az P3 késleltetéssel. merthogy kevéésé ismter tény, hogy a P3 celeronok meg a P4 celeronok nem azért lassabbak, mert kisebb a cache,(persze azért is), hanem jóval nagyobb szerepe van ebben a cache beépített késleltetésének. na mind1.
hogy miért szebb a grafikája?
Az Xboxon van egy adott HW és egy játékokra optimalizált futtatási környezet, ami erõsen DX8 alapú.
A lényeg az, hogy ha valaki valamit Xboxra ír, annak egy HWen kell futnia, egy gépen, egy GPUval, egy oprendszerrel, ez nagyban megkönnyíti a fejlesztést.
de hogy miért szebb?
nem szebb. 640*480nál is kisebb a felbontása a játékoknak(talán 5xx*3xx) ami bazi kevés. és ezért tûnik szépnek. mivel nem kell nagy felbontás, telepakolhatják vertexekkel, és ha nincs benne sok vertex, akkor is kevésbé feltûnõ, azaz szebbnek látszik.

"pl az x86 má 10 éve is egy szar konstrukcio volt
nem is értem mért ebböl csinálták a pc-t, gondolom ment zsebbe a pénz "
azért ebbõl csinálták a PCt, mert 25 éve nemhogy egyszerûen egy qurvajó konstrukció volt az X86, hanem olcsó, és az egyetlen. az összes többi architektúra ALAP ára USDben mérve 5 számjegynél kezdõdött, és az elsõ számjegy is inkább nagyobb volt mint 5.

"a windows egyre lassul, rengeteg eröforrást használ fölöslegesen , szarul van megirva, jé egy ikontörlésnél várni kell 3 másodpercet :D"
Ezt általában azok szokták mondogatni, akik programot még csak pascalban láttak:)
hidd el, hogy a windows nincs szarul megírva, maga a felépítése szar, de az a szar felépítése meglehetõsen jól van megvalósítva. nem kell azt hinni, hogy a spanyol viaszt még fel lehet találni.
a windows azért szar, hogy te is tudd otthon használni, és ne kelljen megtanulnod UNIXul, mert az valszleg elvennáé a kedved a számítógépektõl is.
az teljesen természetes, hogy ha bedugsz egy USB egeret, az megy, graf.kártya driver telepíteni 4 klikk, felbontást váltani meg 3. ezekért a kényelmi szolgáltatásokért áldozták fel a jó felépítést.
mondjuk lehetett volna csinálni olyat is, ami egyszerû, meg jó is, de az nem sikerült:) azért a m$ sem tudhat mindent. de hidd el, hogy egyáltalán nincs szarul megcsinálva, és a windows is ki fogja nõni szépen lassan a gyermekbetegségeit.
az XP már elég barátságos pl.

"amigán 10 éve 14mhz-en egy pillanat müve volt"
az amiga OS-e egy mikrokód volt, már akkor nehéz volt komoly programokat írni rá, pedig akkor még jóval egyszerûbb colt a programozás.
egy AMIGA szerû konstrukció ma a programozás nehézsége miatt halálra lenne ítélve.

"a harmadik a directX , pár éve volt a GLIDE az legalább 2szer gyorsabb volt a DX-nél , akkor el lehet képzelni milyen lenne ha a programok közvetlenül a hardverbe nyomnák az adatokat"
a sebesség API független.
a GLIDE eleinte mérföldekkel verte a DXet, de a DX7 már sajna odavágott neki, a 8 már a openGL-al van egálban, a 9 meg már szerintem alkalmasabb játékfejlesztésre JÓVAL.
Hidd el, nem mnden szar, ami m$.
mellesleg a GLIDe ott lett halálra ítélve, hogy a 3DFX nem adott licenct az nvidiának, és az ATInak. ha adott volna, ma valószínûleg élne(a GLIDE, nem a 3DFX)

" programok közvetlenül a hardverbe nyomnák az adatokat
mint a ps2-nél gc-nél,talán xboxnál(kétlem)"
ezzel mire akarsz célozni? nem értem.
a DX egy rendszerkönyvtár, a használata nem azt jelenti, hogy te már nem a HWet programozod, hanem azt, hogy ha valamit megírsz a PS2 ASM nyelvén 300 oldalra, akkor az DXet használva 10, hasonló arányban csökken a fejlesztésre fordított idõ is.

"a pc-nek az az elönye ami a hátránya ,a kompatibilitás miatt csak lassu a fejlödés"
a PCk 10 éve játékgépek voltak, most meg szuperszámítógépeket építenek belõlük.
azt hiszem, hogy korektebb lenne az állítás így:
a PC architektúrájának korlátai ellenére a bele fektetett iszonyatos technológiáknak iköszönhetõen a leggyorsabban fejlõdõ architektúra.
ha azt a pénzt, idõt, és szellemi tõkét, amit a PCbe öltek az elmúlt 10 évben mindíg új architektúrákba fektették volna,(nem törõdve a kompatibilitással) akkor ma szerintem legalább 2* gyorsabb gépeink lennének otthon.

"de emiatt ezt veszik más géptipusok meg kihalnak(amiga,SGI ) pedig jobbak voltak a pc-nél"
nem tudom, emlékszel-e egy darvin nevû fickóra, aki mondott valami olyasmit, hogy az erõsebb kutya b*szik. na valami ilyesmi itt is van. az AMIGA meg a MIPS nem voltak hosszútávon versenyképesek, azaz annyi pénzért lehetett jobbat is venni. ha nem lehetett volna, akkor nem haltak volna ki. de kihaltak: volt jobb is. ha valamit nem tart fenn a piac, akkor annak nincs létjogosultsága, és kész.
jobbak voltak a PCnél?
az AMIGA a saját korában valóban jóval fejlettebb volt, de sokkal sokkal drágább is. de a PÉNZ mozgatja a számítástechnikát. nem volt ANNYIVAL fejlettem, mint amennyivel drágább volt.
SGI: Ezzel kapcsolatban vannak konkrét ismereteim, van hozzáférésem SGI gépekhez, dolgoztam is velük.
szerintem egy nagyon nagyon rendesen összerakott, korrrekt rendszer az IRIXel, de még a "nagygépek" között is FÉLELMETESEN DRÁGA volt, és nem volt gyorsabb, mint a többi UNIX rendszer 5 éve(amikor az utsó genereáció, a MIPS12K megjelent)

"a kérdés hogy változik e valami ha a sony kihozza a ps3-at 1 teraflopsal mert utána pc-n játszani értelmetlen dolog lesz , na meg röhejes:)"
akkor valami hülye(?) biztosan épít majd PS3 szuperszámítógépet:D
amíg nem lesz starcraft konzolra(+háló), a PCknek van egy biztos játékosuk:)

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#32
"azt magyarázd el nekem légyszives, hogy miért van az, hogy az pl. az x-box negyed olyan erõs hardverrel is képes jobb grafikát nyujtani mint egy pc! tényleg nem értem. pedig az x-box is x86 felépitésü, azt hiszem valami 700-as pIII megy benne "

a ps2 300 mhz-es mégis jobb grafikát nyom mint a pc, ha nem hiszed nézd meg GT4-et
és ez több különbözö dolog miatt van igy

pl az x86 má 10 éve is egy szar konstrukcio volt
nem is értem mért ebböl csinálták a pc-t, gondolom ment zsebbe a pénz
a windows egyre lassul, rengeteg eröforrást használ fölöslegesen , szarul van megirva, jé egy ikontörlésnél várni kell 3 másodpercet :D
amigán 10 éve 14mhz-en egy pillanat müve volt
a harmadik a directX , pár éve volt a GLIDE az legalább 2szer gyorsabb volt a DX-nél , akkor el lehet képzelni milyen lenne ha a programok közvetlenül a hardverbe nyomnák az adatokat
mint a ps2-nél gc-nél,talán xboxnál(kétlem)

a pc-nek az az elönye ami a hátránya ,a kompatibilitás miatt csak lassu a fejlödés ,de emiatt ezt veszik más géptipusok meg kihalnak(amiga,SGI ) pedig jobbak voltak a pc-nél

a kérdés hogy változik e valami ha a sony kihozza a ps3-at 1 teraflopsal mert utána pc-n játszani értelmetlen dolog lesz , na meg röhejes:)

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)

#31
ugy tudom az uj grafprocikon már van elágazás müvelet, elvileg lehetne használni más feladatokra is, de van pár korlátozo tényezö
ugymint kevés utasitás ,agp lassusága stb

Mi van, bamba paraszt, még most sem buzog föl benned Árpád vére?” (McSzéchenyi)

mir
#29
a GPU és a SIMD mûveletek kapcsolatáról cask annyit mondanék, hogy a GPU nagy számítási teljesítményt adó részer, a PIPELINE-ok nem használhatóak fel.
a Pexel Shaderek mondjuk taudnának ESETLEG segíteni valamilyen grafikai alkalmazást(filtering...)
maradnak a vertex shaderek.
ezek tényleg SIMG egységek, de még nagyon kevés utasítást tudnak végrehajtani.
mondjuk ha vektorprocesszorként akarjuk használni a videókártyánkat, akkor nincs szükség FELTÉTELÜL elágazásokra, de akkor is kellene valmailyen hatékonyabb program flow control. Mert hiába pöpec VS 2.0 még midíg Vertex Sader, és nem több.
Ennek a dolognak akkor látnám értelmét, ha a GPUt is felkészítenék ilyen dolgokra. nem hiszem, hogy túl nagy munka lenne, de valószínûleg 1-2 hónapot dobhatna a fejlesztési idõn, ami a mai kiélezett piacon hatalmas hátrány lenne.
tehát a mai GPUk erre még szerintem alkalmatlanok.
ha meg csak SIMD egység kell, akkor jó eséllíel a procidban is találsz 4-5-öt belõlük:D
a két lehetséges megvalósítás: az egyik a GPUban az elágazás, illetve az elágazásbecslés megvalósítása, saját memóriavezérlõ(nem csak RAM contoller) beépítése , de ez túl bonyolult.
a másik esetben(vektorprocesszor) hihetetlenül nehéz lenne programozni.

"Megsúgom: az Earth Simulator-ban levõ 500MHz-es NEC proci teljesítménye (8GFlops) már összemérhetõ a 10 GHz-es Pentium4-gyel."
Az egy vektor processzor, a P4 meg egy általános célú processzor.
nem összemérhetõ a teljesítményük, az earth simulator CPUja egy Chessmaster 2000-tõl is megfeküdne.(mert tele van elágazással, amire a NEC CPUk, amiknek nem jut eszembe a neve) finoman szólva is hiperallergiásak.

És még valami a hitetleneknek, köztük nekem is:
építettek a PS2bõl TOP500as gépet, ki tudja... mondjuk abban több volt a ráció szerintem.

programozási technikák:
a legnagyobb baj a piaccal van, hogy mindíg mindenki kompatibilis processzort akar venni, mert azon mennek a már meglévõ programok. ezért haldoklik az x86, meg majd lassan a RISCek is elkezdenek, a mai sazoftver és harverfejlesztõk vért izzadnak, hogy valamilyen szinten sikerüljön mûködõ, és gyorsabb gépet csinálni, ami KOMPATIBILIS. Bárki tudna(megfelelõ mennyiségû pénzbõl) a mai igényeknek teljesen megfelelõ architektúrát fejleszteni, de rerre nincs piaci igény, ezért nem csináljs senki.
szóval nem az X86ot, intelt, meg AMDt kell szidni, hanem magunkat, felhasználókat, mert a fejlõdésben mi teremtjük a legnagyobb akadályt.
az intelnek van pénze, és megteheti, hoyg több generációt fejlesszen egy naprakész, gyors, és viszonylag rugalmas architektúrát, aminek nem jön el 10 éven belül a vége(itanium) és lásd, senkinek sem kell.(na jó, azért az itanium semolyan pöpec, de az x86nál mindenképp fejlettebb a HW)

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#26
Jaja, a koprocit anno matematikai procinak is hívták, esetleg társprocinak is.

#25
Hadd tisztázam mi volt a gondom. Nem az unregeket nem bírom hanem azt, ha valaki belém köt (te vagy az ostoba) és közben a teljes ismeretlenségbe bújik, hisz holnap mondjuk már Bélavagyok nicknéven fog a fórumba írogatni. És hadd ne kelljen feladnom azt a jogomat, hogyha vki közli velem, hogy hülye vagyok és nem mondja meg miért, akkor morcos legyek.

Csudri
#23
OFF:
Hogyne emlékeznék. Nekem nem 386-os, hanem 486dlc mellé raktak egy külön matematikai prockót. (de ez már régen volt lehet, hogy nem matematikainak hívták).

alkohol.freeblog.hu Mi csak õszinték vagyunk, de nem állatok!

#20
Ez nem személyeskedés. Egyszerûen csak szeretek legalább vmit tudni arról aki belém köt.
Szóval arra írtad? Mióta használják rákkutatásra? Hol? Egyáltalán megnézted mennyire kezdetleges állapotban van még ez az egész? Az ANSI C egy jelentõs részét még nem is támogatja.
Bizony vannak olyan dolgok ahol ezek az utasítások szükségesek, és tudod hol? A grafikában...

mir
#17
warlord: szerinted az elmúlt 30 évben az összes okos mérnök mégis min dolgozott? áztatták a lábukat a medencébe? NEM! a helyzet az, hogy a központi processzor egy általános célú processzor, míg a GPU a nevével ellentétben NEM PROCESSZOR a megszokott értelemben. Csak egy példa: Nincs benne elágazás. ez tulajdonképpen már alkalmatlanná teszi a grafikus feldolgozáson kívül majdnem mindenre.
A SGt már ennek a cikknek a megjelenése is azt hiszem, hogy eléggé jellemzi, merthogy ilyen faszságot nem nagyon tudnak máshol kitalálni. ez a cikk olyan, mintha egy dragster(GPU) egy F1-es versenyautóval akarnak összehasonlítani, hogy mennyivel gyorsabb a dragsetr... csak mondjuk kanyarodni is alig tud, fékje meg amúgy sincs. a GPUt meg nem lehet "rávenni" arra, hogy "besegítsen" a CPUnak valamit, a számítástechnika mára már nagyon meggse jutott a problémák hasonló megoldásának lehetõségétõl. egy oka van ennek: NEM ARRA TERVEZTÉK!!!
Mellesleg az, amirõl beszéltek, már meg volt valósítva, méghozzá "co-processzor" néven lehetett a 386osokba tetetni. ha emlékszik mgé erre veleki persze...
de ez amirõl ez a cikk szól egészen egyszerûen megmondva hülyéség.

When using Linux - there\'re no walls, so we don\'t need any Gates or Windows, do we?

#16
Elõsször is ne személyeskedjünk, fõleg egy unreg ne tegye. Másodszor pedig arra figyelj amit írtam. Ha tényleg ennyire fontos, hogy olyan dolgokra kényszerítsük a hardverünket, amire nem való, akkor inkább ne is tegyük, hanem a szerint alakítsák át az egészet, hogy ne is kelljen. Ha képesek olyan gyors GPU-t elõállítani, akkor ebbõl következi, hogy ez CPUra is igaz. Másrészt a GPU egy célhardver, ahogy azt már elöttem írták, ezért bizonyos mûveleteket képes nagy hatékonysággal végrehajtani. Ezek azonban leginkább grafikai vagy grafikával kapcsolatos mûveletek, épp ezért egyáltalán nem biztos hogy mész velük bármire is a rákkutatással kapcsolatban.

#13
Szerintem pedig elég ostoba ötlet. A GPU feladata a grafika a CPU-é pedig a programok futtatása és a számolás. Na mármost ha mindenáron azt akarjuk, hogy a GPU számoljon, akkor hozzunk létre olyan CPU-t ami elég erõs, hogy kiváltsa a mai CPU és GPU párosítást. Ami pedig a cikkbeli dolgok gyakorlati megvalósítást illeti, vmi iszonyat inkompatibilitási problémákat meg hasonlókat okozna ezeknek a kihasználása, ha vkinek ez kell...

Darth Sith
#12
elég nehéz lehet megvalósítani, de érdekes ötlet. :)

Nem a lényeg, hanem a fontos!

[HUN]PAStheLoD
#11
nem baj.. akkor elég lenne ha 2 processzor mûködne.. minden polygon dolgot a GPU számol a proci csak a windózt tartja :]

hátö .. az elõzõ aláírásom sokkal jobb volt :]

FtranX
#10
Még ha rá is tudnák venni a GPU-t hogy "kisegítse" a CPU-t, az AGP bus eléggé behatárolná az elérhetõ teljesítményt.

FtranX
#9
Mekkora szám lenne, ha valamelyik alaplapgyártó kijönne egy olyan alaplapal, amibe Ati vagy Nvidia GPU-kat lehetne rakni. De azért szerintem ezt nem olyan könnyû megvalósítani, mint ahogy tûnik.

[HUN]PAStheLoD
#4
végre 1 értelmes fejelsztés..

hátö .. az elõzõ aláírásom sokkal jobb volt :]

#2
mEGVASZEM!
Gerry
#1
Az ötlet nagyon kecsegtetõ, remélem sikerül a dolgot elterjeszteni, és a gyakorlatban is hasznisítani, mert akkor pl lehetne dual proci vagy HT nélkül is nagy erõforrásigényû programokat párhuzamosan futtatni. (pl videotömörítés és letöltés mellett filmnézés minimális teljesítményvisszaeséssel, de jó is lenne. Vagy ha az ember nem akar egyszerre sokmindent csinálni, akkor a mostani idõ töredéke alatt lerenderelne a gép egy 3D-s képet.)

Oldal 1 / 2Következő →