82
  • mir
    #82
    a transmeta valóban mikrokódós, és k*va lassú. a VLIW nem RISC alapú. LIWről meg még nem hallottam. amúgy sem a VLIW sem az EPIC sem a RISC nem mikrokódos cucc. az utsó komolyan mikrokódot használó(és teljesímtényorientált) processzorok a DEC VAXok voltak.
  • mir
    #80
    azok a procik, amiket mis használunk döntő többségükben huzalozottan hajtják végre a bonyolutatbb utasításokat, a mikrokód már nem dívik.

    neandesz: OK, majd elolvasom egyszer a PDFet, ha lesz időm, meg kedvem. érdekes dolognak tűnik.
  • nenad
    #77
    nvidia geforce 5800 ultra. oda van irva.
    Passz. Latni kene a kodot hogy tudjam.
  • mir
    #76
    nos a rendering-területen nem vagyok igazán otthon, a GPUk 3Ds képalkotásával eléggé tisztában vagyok.
    de ha megnézed, akkor ők nem az egész renderert, csak a photon mapping-et futtatták a GPUn.
    nem vagyok tiszában ennek a valós megvalósításával, de az alapján a pár sor alapján nem tudom megállpítani, de hogyha elágazások nincsenek benne, akkor könnyen el tudom képzelni.
    a másik fontos dolog, hogy nem írják, milyen GPUn dolgoztak.
    azokban az SGI gépekben, amikkel 5 éve kerültem kapcsolatba pl. RENDERING GPUk voltak, azaz a GPU nen csak megjelenített, hanem RENDEREL is.(SGI rulz, de sajna vékony rétegigény) tehát még ez sem számít önmagában újdonságnak, a lényeg az lenne, hogy milyen GPUn.
    Ha nvidia, vagy ATI, akkor az elég komoly dolog, ha nem, akkor már kevésbé. pl. 3DLABS P10 télleg programozható(advanced PFCvel)(mondjuk nem Direcx APIval persze) azt biztos hogy nem lenne nehéz rávenni hasonló dolgokra.
  • nenad
    #75
    na, csak hogy letisztazzuk a dolgokat, latom a renderelesrol fogalmad sincs :) De ezt minden rossz szandek nelkul mondom... A pohon mappingolas nem mas mint ray tracing, a fenyforrasbol photonokat lonek ki es az pattog a feluleteken. Sugarkovetes. Tehat ez a modja a renderelesnek, semmi azaz SEMMI koze a gpukon elterjedt renderelesi modokhoz. Programozas szempontjabol pedig, a cucc igen-igen komoly... es sokretu is.
    Mit akarok ezzel kihamozni. Azt hogyha meg tudtak oldani hogy a program teljesen a gpun fut akkor valoszinuleg sok mast is meg lehet oldani...

    Legvegere azert nem artott volna elolvasni a cikket :) Velemenyt mondani mindenki tud...
  • mir
    #74
    nomeg a szoftvertámogatás sem hinném, hogy akár csak létezne.
    még egy komolyabb programnál(ne csak a photoshopra gondoljatok, ennél azért többmindent ismerek) sem láttam hogy bármiféle AMIGA support van.
    WIN, MAC, nagyon esetlegesen valamilyen UNIX. mindenhol ezt látom.
  • Vers
    #73
    több project is van amiga témában
    az AROS ez x86-os procira átirt amigaOS, aros.org
    az amiga inc egy uj gépet csinál ppc procival meg az uj OS-t, amiga.com
    és ott van még a morphOS ami egy a Pegasos-ra irodott ez is egy ppc-s gép
    vannak fejlesztések csak az a baj hogy mindenhol hiányzik a pénz és képtelenek ütös hardvert csinálni
  • mir
    #70
    na inge. az intel sem tudja elterjeszttetni az itaniumot, pedig az az "nagyok" között olcsó, és stabil. erről az újfajta amiga projectről is olvastam, de olyannal, aki ilyen gépet látott volna még nem találkoztam.
    és az amigába építhető PPC kártyákról szeretnék kérdezni:
    Volt saját memóriájuk?(saját címtér/saját mem a központi címtérben/saját mem a központi címtérben fizikailag saját chipekben, cache)
    a programozás hogy ment? mint egy vektorprocesszort? vagy párhuzamos kódot kellett írni, azaz egyszerre mind a két processzort vezérelni kellett? egyszerre volt task swich? engem ilyesmi érdekelne.
  • mir
    #67
    na jó, mégis éírok még.
    amiga programot írtam, de akkor még nem voltam túl magas szinten elmélyedve a témában(mint ahogy most sem, de azért már jobban) és az maradt meg bennem, hogy a rendszerprogramozás nagyon nem tetszett, azaz nekem antipatikus volt.
    egyébként sokat olvastam róla. örülök neki, ha kijavítasz(tényleg), ne éljek tévedésben.
    úgy látom, ebben a témában te vagy otthon.
    azok a bizonyos PPC amigák hogyan működtek? a felépítéssael nagyjából tisztában vagyok, de a programozás rendszeréről dunsztom sincs. megkapták az IBM és a Motorola fordítókat, vagy valami SPEC kellett nekik?...
  • mir
    #64
    na jó, a mikrokód egy kicsit durva.az operációs rendszere nagyon speciális volt, egy flash chipben volt eltárolva, így elég gyorsan betöltött, és ezt az userek nagyon szerették.
    de programozni egy rémálom volt, mert kicsi KERNELje volt, és kicsi kernelbe kevés rendszerfüggvény fért bele.
    rugalmasság 0, egy mai összetettségű rendszert nem lehetne hasonló módon megépíteni. az oprendszer nem szerepelt a memóriacím-tartományban, amit most nem fogok ecsetelni miért, de nagy probléma. nem lehetett fejleszteni, debuggolni. a debuggolás akor még nem volt nagy gond, leültés, és írtál egy minden igényt kielégítő OSt pár hónap alatt viszonylag kevés erőforrás felhazsnálásával.
    ma ez már nagyon bonyolult lett, egy ilyen gép építése irreálisan sok pénzbe kerülne. arról meg nem is beszélve, hogy a rendszerdiagnosztika 0... ami komolyabb munkára tenné ma alkalmatlanná.
    akkoriban nagyon sok előremutató technológia volt benne, de nem volt elég rugalmas.
    és boldog karácsonyt mindenkinek, most én már nem írok többet!
  • Vers
    #63
    ugy tudom microkod a cisc processzorokban van általában ahol minden utasitáshoz van egy program
  • Vers
    #62
    semmit,az amiga os egy normális oprendszer csak belefért 1 megába az egész és rombol indult
    persze ha az ember fölpakolt hozzá mindent akkor má egész nagy lett ugy 10-40 mega
  • Vers
    #58
    majd arra leszek kiváncsi a ps3-nál mibe fogsz belekötni:D
  • mir
    #56
    a megfelflő képesítésed úgy látom meg van hozzá, és a színvonalra is tudsz vigyázni, meg ne szökjön(azaz létre ne jöjjön) tehát szerintem minden bizonnyal:D
  • mir
    #53
    nekem van nVidia a gépembe(FX5200 nem kell anyázni, a starcraft meg a colin2 megy, más nem érdekel) meg van ATI egy laptopban, (Mobility radeon 7500 egy IBM A30-asban) tehát van mind a kettőről tapasztalatom.
    a helyzet az, hogy az ATI sokkal jobb.
    azért nem az van a desktopomban is, mert nekem olcsó cucc kellett DVIvel, 3d-s teljesítmény nem számított. az ATI meg 30K alatt nem adott DVIs kártyát. de az ATI jobb.
  • mir
    #48
    az a CELL, és az 16 vektorprocesszor. kiegészítve persze 4 flow controll egységgel. és rohadt gyors lesz.
  • peat0
    #47
    A ps3-ban az az új über proci nem ehhez hasonló,vagy hülyeséget írtam? (tudjátok az a proci amit máshol is fe szeretnének használni,és több feladatot képes egyszerre végezni meg minden egyéb fricsőr)
  • mir
    #46
    "Harmatgyenge az érvelésed. Egy Pentium4 összehasonlítható szerinted egy videókártyával??? Esetleg szerinted az FX-eken fut a Chessmaster 2000??? :DDDDDDDDD"
    Te most hülye vagy?
    szerinted miért téptem itt a számat a #17ben? Ugyan erről.
    ha nem értesz a témához, és mindenképpen hozzá akarsz szólni, akkor legalább OLVASD VÉGIG! Csak azt mondtam, hogy nem lehet összehasonlítani ez egyiket as másikkal úgy, ahogy te tetted.
    mellesleg ha van olyan adat, ami a proci teljesítményéről ha lehet még az órajelnél is kevesebbet mond el, akkor az a GFLOPs érték. a lényege a hozzászólásomnak az volt a lényege, hogy attól, hogy valami sok GFLOPSos, attól ez még nem gyors.

    "Nem ertem minek a gpu-nak elagzas. Ebben epp az a lenyeg hogy normal program ami a normal procin fut vezerli a gpu-t, megpedig ugy hogy nagyon sok egyszeru szamitast vegeztet el vele.
    Egyaltalan nem arrol van szo hogy a gpu-n kulon programok fognak futni."
    ahoz, hogy a GPUn külön program fusson, kell bele a PFC.
    Így csak egy nagyon korlátolt vektorprocesszorként lehet használni, de ahoz SPEC driver és spec oprendszer kell. a megvalósításnak az lenne az eredménye, hogy drágább lenne, mint egy rendes vektorprocesszor.(pl. SUN VXR1K)

    "szerintem kar aggodni barmiert is, a lenyeg hogy lehet hasznalni. Es az jo... Lattam mellesleg egy erdekes eloadast, hogy peldaul 3ds renderingre hasznaltak, (photonmapping). es marha gyors."
    Egy GPUt renderingre használni nem olyan nagy cucc...

    "Nem artani elobb a CPU-t kihasznalni... mert az is csak unatkozik "
    Ezt merre olvastad? Olvasd először végig a topicot mielőtt ilyen okosakat benyögsz, ok?
  • Csatti
    #45
    Nos, hogy én is újra beleszóljak.
    #43: ez oké, de megint csak grafikára használtak egy grafikai procit, szal ez nem feltétlenül világrengető tevékenység. :)
    #42: senkivel sem "basztak" ki
    #41: természetesen nem hasonlítható össze tisztességesen, ez olyan mintha egy traktort és egy bmw-t hasonlítanál össze, hogy mennyivel gyorsabb a bmw és szántsunk inkább azzal...
    #39: nem is kell a gpunak elágazás, vagy legalábbis nem sok. De épp ezért GPU és nem CPU. Ha a CPU adja ki az utasításokat, hogy számítsa ki a GPU, és hagyományos számításokat akarnánk elvégezni, akkor az esetek nagyrészében az AGP busz kinyírná azt az elönyt, amit az egésszel nyernénk, mivel az nagyságrenddel lassabb mint amit a CPUban megszokhattunk.
    #38: tegyünk fel egy hipotetikus amigád van, ami mai szintű. Meghalnál mennyivel nehezebb rá (és költségesebb is) egy korszerű programot fejleszteni, ami tud minden szart, amit a mai userek elvárnak.
    #36: mir nagyon jól rátapintott a lényegre.
  • nenad
    #44
    ihol a link, a program teljesen a gpu-n fut.
    http://www-graphics.stanford.edu/papers/photongfx/
  • nenad
    #43
    szerintem kar aggodni barmiert is, a lenyeg hogy lehet hasznalni. Es az jo... Lattam mellesleg egy erdekes eloadast, hogy peldaul 3ds renderingre hasznaltak, (photonmapping). es marha gyors.
  • Vers
    #38
    "Nem mellékes, mindenki rinyál, hogy az új OS lasabb és a ráírt programok, stb.
    De ha megnézzük milyen egy WinXP például, ha leszedjük a csilivili grafikát, kiszedünk belőle mindent ami felesleges, mert nem használjuk, és nem futtatunk ezer kis "bizbasz" programot a taskban (meg reklámszemetet, benyiló SB/Office menüt), akkor kiderül, hogy nem is lassabb, sőőt."

    az a kérdés te mit veszel gyorsnak, ha összehasonlitanál egy 30 mhz-es amigat egy mai pc-vel, azt vennéd észre hogy az amiga szebb szorja az ablakokat azt csinálja amit akarsz és amikor akarod, ezzel szemben a pc meg a win egyszerüen reménytelen
    ebböl nem azt akarom leszürni hogy az amiga olyan jo gép, annak is megvannak a korlátai csak mintha az jönne le hogy a pc egy tákolmány a win-el együtt,
    nehogy az legyen egy jo os feltétele hogy kitud rakni pár ikon meg megnyit pár ablakot meg felismeri a hardvert ezt az amiga már 20 éve tudta
    nyiss meg pc-n pdf-et vagy ppt-t közben a mp3 lejátszo bericeg :D, van olyan alkalmazás ami 10 sec alatt indul el, a VC 2 percig fordit párszás soros forrást, a virtual mem kezelésröl nem is beszélve stb...
    viszont aki pc-n kezdte az ismerkedést a ámitástechnikával annak tényleg az jön le hogy hatalmas a fejlödés a win3.1-hez képest :)

  • mir
    #37
    nem map processzorok, hanem mai processzorok, és általában nézve.
  • mir
    #36
    igen, ez az ábra.
    és még valami a GPU FLOW controlljáról. a Pixel Shadferekről nem tudok, de az annyira nem érdekes, mert nagyon spec.
    a Vertex shader 1.xben SEMMILYEN program flow control(továbbiakban PFC) nincs, a VS. 2.0ban mát van, méghozzá egy n darambszor végrehajtandó GOTO. tehát csakis statikus ciklus van benne, aminke nem más a feladata, minthogy leegyzserűsítse, és átláthatóbbá tegye a VS kódot, illetve ez a max 2048 utasítás akár több is lehessen.(mondjuk az nagyon sok) tehát nyugodtan mondhatjuk, hogy még abban SINCS FLOW control.
    és valószínűleg nem is lesz, mert azért "könnyű" a VS kódot végrehajtani, mert nincsen benne ilyen.
    nagyon gyors adatfeldolgozó egységet bárki tud szerkeszteni. a map processzorokra áll a következő:
    DIE méretének 50%a cache
    25%a utasításpárhuzamosítással kapcsolatos logikai rész(itaniumnál értelemszerűen ez hiányzik)
    10% vezeték
    10% flow control(IF, CASE, GOTO, Safety Mode Task Swiching...)
    5% számoló egység.
    tehát a sziliciumlapkának csak az 5%a foglalkozik azzal, hogy 3+2=5 Ezen az 5%on van minden effektív utasításvégrehajtó egység.
    ez az 5% nagyjából áll a fejlesztési időre, és költségekre is.
    a cache az a 0hoz konvergál.
    a fejlesztési idő(és erőforrás) 95 %át a PFC és a párhuzamosító egység teszi ki! az a kettő dolog messze a processzor legfontosabb, és legbonyolultabb része!
    és a GPUkból éppen ez hiányzik.
    ha bele kelllene tenni ezeket is, akkor a GPUk méretetöbbszörösére nőne, ahol a többszörös min. 3 a fejlesztési költség pedig sokszorosára, és a sok minimum 10
    ez az árakon is meglátszana, higyjétek el, így sem olcsó dolgok.
  • Inquisitor
    #35
    Na bekéstem :)
    Nem mellékes, mindenki rinyál, hogy az új OS lasabb és a ráírt programok, stb.
    De ha megnézzük milyen egy WinXP például, ha leszedjük a csilivili grafikát, kiszedünk belőle mindent ami felesleges, mert nem használjuk, és nem futtatunk ezer kis "bizbasz" programot a taskban (meg reklámszemetet, benyiló SB/Office menüt), akkor kiderül, hogy nem is lassabb, sőőt.
  • Inquisitor
    #34
    Nem rád haragszom vagy ilyesmi, félre NE értsd ... csak azokra akik ezt a baromságot terjesztik, hogy ay X-Box egy PC.
    El kéne olvani legalább 1x az életben, amit a sajtóban írtak (már értelmes őjságoknál ugye) a témában.
    Adva van egy direkt az X-Box-hoz készült PIII/Celeron öszvér proci, egy végtelenül csupszított Windows 2000 (valami iszonyú pici FIX kernellel) ami már kapásból 20-ad rendszererőforrást, és 100-ad helyet igényel.
    Aztán ezen fut egy spéci Shell program, egy felület amit direkt Pixelshaderre fejlesztettek ki, és jól néz ki.
    Speciális saját DirectX felülete van, ami tekintve a fix vasat legalább 5x hatékonyabb.
    És akkor ott a spéci VGA, ami minden híreszteléssel ellentétben NEM GF3, hanem valami külön fejlesztett cucc, ami bizonyos tekintetben több mint egy GF4, másrészt meg kevesebb. Pl. minek neki gyors textúrázás ugye egy TV felbontáshoz? :)
    Ja és ugye a rendszermem és a VGA memória egyben van, sok időt spórólva az adatok pakolgatásával, cserébe kisfelbontású textúrákat kell használni, de attól megint gyorsabb.
    Ezért nem lehet mai PC-vel SE normális emulátort csinálni ugye.
    Van itt sok konzolos arc és/vagy programozó, ők majd kijavítanak engem, de kb. ez az ábra.
  • mir
    #33
    "azt magyarázd el nekem légyszives, hogy miért van az, hogy az pl. az x-box negyed olyan erős hardverrel is képes jobb grafikát nyujtani mint egy pc! tényleg nem értem. pedig az x-box is x86 felépitésü, azt hiszem valami 700-as pIII megy benne"
    majdnem P3, azaz olyan, amiben celeron méretű cvache van, de az P3 késleltetéssel. merthogy kevéésé ismter tény, hogy a P3 celeronok meg a P4 celeronok nem azért lassabbak, mert kisebb a cache,(persze azért is), hanem jóval nagyobb szerepe van ebben a cache beépített késleltetésének. na mind1.
    hogy miért szebb a grafikája?
    Az Xboxon van egy adott HW és egy játékokra optimalizált futtatási környezet, ami erősen DX8 alapú.
    A lényeg az, hogy ha valaki valamit Xboxra ír, annak egy HWen kell futnia, egy gépen, egy GPUval, egy oprendszerrel, ez nagyban megkönnyíti a fejlesztést.
    de hogy miért szebb?
    nem szebb. 640*480nál is kisebb a felbontása a játékoknak(talán 5xx*3xx) ami bazi kevés. és ezért tűnik szépnek. mivel nem kell nagy felbontás, telepakolhatják vertexekkel, és ha nincs benne sok vertex, akkor is kevésbé feltűnő, azaz szebbnek látszik.

    "pl az x86 má 10 éve is egy szar konstrukcio volt
    nem is értem mért ebböl csinálták a pc-t, gondolom ment zsebbe a pénz "
    azért ebből csinálták a PCt, mert 25 éve nemhogy egyszerűen egy qurvajó konstrukció volt az X86, hanem olcsó, és az egyetlen. az összes többi architektúra ALAP ára USDben mérve 5 számjegynél kezdődött, és az első számjegy is inkább nagyobb volt mint 5.

    "a windows egyre lassul, rengeteg eröforrást használ fölöslegesen , szarul van megirva, jé egy ikontörlésnél várni kell 3 másodpercet :D"
    Ezt általában azok szokták mondogatni, akik programot még csak pascalban láttak:)
    hidd el, hogy a windows nincs szarul megírva, maga a felépítése szar, de az a szar felépítése meglehetősen jól van megvalósítva. nem kell azt hinni, hogy a spanyol viaszt még fel lehet találni.
    a windows azért szar, hogy te is tudd otthon használni, és ne kelljen megtanulnod UNIXul, mert az valszleg elvennáé a kedved a számítógépektől is.
    az teljesen természetes, hogy ha bedugsz egy USB egeret, az megy, graf.kártya driver telepíteni 4 klikk, felbontást váltani meg 3. ezekért a kényelmi szolgáltatásokért áldozták fel a jó felépítést.
    mondjuk lehetett volna csinálni olyat is, ami egyszerű, meg jó is, de az nem sikerült:) azért a m$ sem tudhat mindent. de hidd el, hogy egyáltalán nincs szarul megcsinálva, és a windows is ki fogja nőni szépen lassan a gyermekbetegségeit.
    az XP már elég barátságos pl.

    "amigán 10 éve 14mhz-en egy pillanat müve volt"
    az amiga OS-e egy mikrokód volt, már akkor nehéz volt komoly programokat írni rá, pedig akkor még jóval egyszerűbb colt a programozás.
    egy AMIGA szerű konstrukció ma a programozás nehézsége miatt halálra lenne ítélve.

    "a harmadik a directX , pár éve volt a GLIDE az legalább 2szer gyorsabb volt a DX-nél , akkor el lehet képzelni milyen lenne ha a programok közvetlenül a hardverbe nyomnák az adatokat"
    a sebesség API független.
    a GLIDE eleinte mérföldekkel verte a DXet, de a DX7 már sajna odavágott neki, a 8 már a openGL-al van egálban, a 9 meg már szerintem alkalmasabb játékfejlesztésre JÓVAL.
    Hidd el, nem mnden szar, ami m$.
    mellesleg a GLIDe ott lett halálra ítélve, hogy a 3DFX nem adott licenct az nvidiának, és az ATInak. ha adott volna, ma valószínűleg élne(a GLIDE, nem a 3DFX)

    " programok közvetlenül a hardverbe nyomnák az adatokat
    mint a ps2-nél gc-nél,talán xboxnál(kétlem)"
    ezzel mire akarsz célozni? nem értem.
    a DX egy rendszerkönyvtár, a használata nem azt jelenti, hogy te már nem a HWet programozod, hanem azt, hogy ha valamit megírsz a PS2 ASM nyelvén 300 oldalra, akkor az DXet használva 10, hasonló arányban csökken a fejlesztésre fordított idő is.

    "a pc-nek az az elönye ami a hátránya ,a kompatibilitás miatt csak lassu a fejlödés"
    a PCk 10 éve játékgépek voltak, most meg szuperszámítógépeket építenek belőlük.
    azt hiszem, hogy korektebb lenne az állítás így:
    a PC architektúrájának korlátai ellenére a bele fektetett iszonyatos technológiáknak iköszönhetően a leggyorsabban fejlődő architektúra.
    ha azt a pénzt, időt, és szellemi tőkét, amit a PCbe öltek az elmúlt 10 évben mindíg új architektúrákba fektették volna,(nem törődve a kompatibilitással) akkor ma szerintem legalább 2* gyorsabb gépeink lennének otthon.

    "de emiatt ezt veszik más géptipusok meg kihalnak(amiga,SGI ) pedig jobbak voltak a pc-nél"
    nem tudom, emlékszel-e egy darvin nevű fickóra, aki mondott valami olyasmit, hogy az erősebb kutya b*szik. na valami ilyesmi itt is van. az AMIGA meg a MIPS nem voltak hosszútávon versenyképesek, azaz annyi pénzért lehetett jobbat is venni. ha nem lehetett volna, akkor nem haltak volna ki. de kihaltak: volt jobb is. ha valamit nem tart fenn a piac, akkor annak nincs létjogosultsága, és kész.
    jobbak voltak a PCnél?
    az AMIGA a saját korában valóban jóval fejlettebb volt, de sokkal sokkal drágább is. de a PÉNZ mozgatja a számítástechnikát. nem volt ANNYIVAL fejlettem, mint amennyivel drágább volt.
    SGI: Ezzel kapcsolatban vannak konkrét ismereteim, van hozzáférésem SGI gépekhez, dolgoztam is velük.
    szerintem egy nagyon nagyon rendesen összerakott, korrrekt rendszer az IRIXel, de még a "nagygépek" között is FÉLELMETESEN DRÁGA volt, és nem volt gyorsabb, mint a többi UNIX rendszer 5 éve(amikor az utsó genereáció, a MIPS12K megjelent)

    "a kérdés hogy változik e valami ha a sony kihozza a ps3-at 1 teraflopsal mert utána pc-n játszani értelmetlen dolog lesz , na meg röhejes:)"
    akkor valami hülye(?) biztosan épít majd PS3 szuperszámítógépet:D
    amíg nem lesz starcraft konzolra(+háló), a PCknek van egy biztos játékosuk:)
  • Vers
    #32
    "azt magyarázd el nekem légyszives, hogy miért van az, hogy az pl. az x-box negyed olyan erős hardverrel is képes jobb grafikát nyujtani mint egy pc! tényleg nem értem. pedig az x-box is x86 felépitésü, azt hiszem valami 700-as pIII megy benne "

    a ps2 300 mhz-es mégis jobb grafikát nyom mint a pc, ha nem hiszed nézd meg GT4-et
    és ez több különbözö dolog miatt van igy

    pl az x86 má 10 éve is egy szar konstrukcio volt
    nem is értem mért ebböl csinálták a pc-t, gondolom ment zsebbe a pénz
    a windows egyre lassul, rengeteg eröforrást használ fölöslegesen , szarul van megirva, jé egy ikontörlésnél várni kell 3 másodpercet :D
    amigán 10 éve 14mhz-en egy pillanat müve volt
    a harmadik a directX , pár éve volt a GLIDE az legalább 2szer gyorsabb volt a DX-nél , akkor el lehet képzelni milyen lenne ha a programok közvetlenül a hardverbe nyomnák az adatokat
    mint a ps2-nél gc-nél,talán xboxnál(kétlem)

    a pc-nek az az elönye ami a hátránya ,a kompatibilitás miatt csak lassu a fejlödés ,de emiatt ezt veszik más géptipusok meg kihalnak(amiga,SGI ) pedig jobbak voltak a pc-nél

    a kérdés hogy változik e valami ha a sony kihozza a ps3-at 1 teraflopsal mert utána pc-n játszani értelmetlen dolog lesz , na meg röhejes:)
  • Vers
    #31
    ugy tudom az uj grafprocikon már van elágazás müvelet, elvileg lehetne használni más feladatokra is, de van pár korlátozo tényezö
    ugymint kevés utasitás ,agp lassusága stb
  • mir
    #29
    a GPU és a SIMD műveletek kapcsolatáról cask annyit mondanék, hogy a GPU nagy számítási teljesítményt adó részer, a PIPELINE-ok nem használhatóak fel.
    a Pexel Shaderek mondjuk taudnának ESETLEG segíteni valamilyen grafikai alkalmazást(filtering...)
    maradnak a vertex shaderek.
    ezek tényleg SIMG egységek, de még nagyon kevés utasítást tudnak végrehajtani.
    mondjuk ha vektorprocesszorként akarjuk használni a videókártyánkat, akkor nincs szükség FELTÉTELÜL elágazásokra, de akkor is kellene valmailyen hatékonyabb program flow control. Mert hiába pöpec VS 2.0 még midíg Vertex Sader, és nem több.
    Ennek a dolognak akkor látnám értelmét, ha a GPUt is felkészítenék ilyen dolgokra. nem hiszem, hogy túl nagy munka lenne, de valószínűleg 1-2 hónapot dobhatna a fejlesztési időn, ami a mai kiélezett piacon hatalmas hátrány lenne.
    tehát a mai GPUk erre még szerintem alkalmatlanok.
    ha meg csak SIMD egység kell, akkor jó eséllíel a procidban is találsz 4-5-öt belőlük:D
    a két lehetséges megvalósítás: az egyik a GPUban az elágazás, illetve az elágazásbecslés megvalósítása, saját memóriavezérlő(nem csak RAM contoller) beépítése , de ez túl bonyolult.
    a másik esetben(vektorprocesszor) hihetetlenül nehéz lenne programozni.

    "Megsúgom: az Earth Simulator-ban levő 500MHz-es NEC proci teljesítménye (8GFlops) már összemérhető a 10 GHz-es Pentium4-gyel."
    Az egy vektor processzor, a P4 meg egy általános célú processzor.
    nem összemérhető a teljesítményük, az earth simulator CPUja egy Chessmaster 2000-től is megfeküdne.(mert tele van elágazással, amire a NEC CPUk, amiknek nem jut eszembe a neve) finoman szólva is hiperallergiásak.

    És még valami a hitetleneknek, köztük nekem is:
    építettek a PS2ből TOP500as gépet, ki tudja... mondjuk abban több volt a ráció szerintem.

    programozási technikák:
    a legnagyobb baj a piaccal van, hogy mindíg mindenki kompatibilis processzort akar venni, mert azon mennek a már meglévő programok. ezért haldoklik az x86, meg majd lassan a RISCek is elkezdenek, a mai sazoftver és harverfejlesztők vért izzadnak, hogy valamilyen szinten sikerüljön működő, és gyorsabb gépet csinálni, ami KOMPATIBILIS. Bárki tudna(megfelelő mennyiségű pénzből) a mai igényeknek teljesen megfelelő architektúrát fejleszteni, de rerre nincs piaci igény, ezért nem csináljs senki.
    szóval nem az X86ot, intelt, meg AMDt kell szidni, hanem magunkat, felhasználókat, mert a fejlődésben mi teremtjük a legnagyobb akadályt.
    az intelnek van pénze, és megteheti, hoyg több generációt fejlesszen egy naprakész, gyors, és viszonylag rugalmas architektúrát, aminek nem jön el 10 éven belül a vége(itanium) és lásd, senkinek sem kell.(na jó, azért az itanium semolyan pöpec, de az x86nál mindenképp fejlettebb a HW)
  • Csatti
    #26
    Jaja, a koprocit anno matematikai procinak is hívták, esetleg társprocinak is.
  • Csatti
    #25
    Hadd tisztázam mi volt a gondom. Nem az unregeket nem bírom hanem azt, ha valaki belém köt (te vagy az ostoba) és közben a teljes ismeretlenségbe bújik, hisz holnap mondjuk már Bélavagyok nicknéven fog a fórumba írogatni. És hadd ne kelljen feladnom azt a jogomat, hogyha vki közli velem, hogy hülye vagyok és nem mondja meg miért, akkor morcos legyek.
  • Csudri #23
    OFF:
    Hogyne emlékeznék. Nekem nem 386-os, hanem 486dlc mellé raktak egy külön matematikai prockót. (de ez már régen volt lehet, hogy nem matematikainak hívták).
  • Csatti
    #20
    Ez nem személyeskedés. Egyszerűen csak szeretek legalább vmit tudni arról aki belém köt.
    Szóval arra írtad? Mióta használják rákkutatásra? Hol? Egyáltalán megnézted mennyire kezdetleges állapotban van még ez az egész? Az ANSI C egy jelentős részét még nem is támogatja.
    Bizony vannak olyan dolgok ahol ezek az utasítások szükségesek, és tudod hol? A grafikában...
  • mir
    #17
    warlord: szerinted az elmúlt 30 évben az összes okos mérnök mégis min dolgozott? áztatták a lábukat a medencébe? NEM! a helyzet az, hogy a központi processzor egy általános célú processzor, míg a GPU a nevével ellentétben NEM PROCESSZOR a megszokott értelemben. Csak egy példa: Nincs benne elágazás. ez tulajdonképpen már alkalmatlanná teszi a grafikus feldolgozáson kívül majdnem mindenre.
    A SGt már ennek a cikknek a megjelenése is azt hiszem, hogy eléggé jellemzi, merthogy ilyen faszságot nem nagyon tudnak máshol kitalálni. ez a cikk olyan, mintha egy dragster(GPU) egy F1-es versenyautóval akarnak összehasonlítani, hogy mennyivel gyorsabb a dragsetr... csak mondjuk kanyarodni is alig tud, fékje meg amúgy sincs. a GPUt meg nem lehet "rávenni" arra, hogy "besegítsen" a CPUnak valamit, a számítástechnika mára már nagyon meggse jutott a problémák hasonló megoldásának lehetőségétől. egy oka van ennek: NEM ARRA TERVEZTÉK!!!
    Mellesleg az, amiről beszéltek, már meg volt valósítva, méghozzá "co-processzor" néven lehetett a 386osokba tetetni. ha emlékszik mgé erre veleki persze...
    de ez amiről ez a cikk szól egészen egyszerűen megmondva hülyéség.
  • Csatti
    #16
    Elősször is ne személyeskedjünk, főleg egy unreg ne tegye. Másodszor pedig arra figyelj amit írtam. Ha tényleg ennyire fontos, hogy olyan dolgokra kényszerítsük a hardverünket, amire nem való, akkor inkább ne is tegyük, hanem a szerint alakítsák át az egészet, hogy ne is kelljen. Ha képesek olyan gyors GPU-t előállítani, akkor ebből következi, hogy ez CPUra is igaz. Másrészt a GPU egy célhardver, ahogy azt már elöttem írták, ezért bizonyos műveleteket képes nagy hatékonysággal végrehajtani. Ezek azonban leginkább grafikai vagy grafikával kapcsolatos műveletek, épp ezért egyáltalán nem biztos hogy mész velük bármire is a rákkutatással kapcsolatban.
  • Csatti
    #13
    Szerintem pedig elég ostoba ötlet. A GPU feladata a grafika a CPU-é pedig a programok futtatása és a számolás. Na mármost ha mindenáron azt akarjuk, hogy a GPU számoljon, akkor hozzunk létre olyan CPU-t ami elég erős, hogy kiváltsa a mai CPU és GPU párosítást. Ami pedig a cikkbeli dolgok gyakorlati megvalósítást illeti, vmi iszonyat inkompatibilitási problémákat meg hasonlókat okozna ezeknek a kihasználása, ha vkinek ez kell...
  • Darth Sith
    #12
    elég nehéz lehet megvalósítani, de érdekes ötlet. :)
  • [HUN]PAStheLoD
    #11
    nem baj.. akkor elég lenne ha 2 processzor működne.. minden polygon dolgot a GPU számol a proci csak a windózt tartja :]
  • FtranX
    #10
    Még ha rá is tudnák venni a GPU-t hogy "kisegítse" a CPU-t, az AGP bus eléggé behatárolná az elérhető teljesítményt.