dez#97
"Ha sok feldolgozandó kérés van, akkor azokat egy pool-ból akárhány szál kiveheti és feldolgozhatja. Ha sok adattal kell párhuzamosan ugyanazt a műveletsort elvégezni, akkor megint csak akárhány szál dolgozhat gond nélkül."
Persze. Én mindössze azt mondtam, hogy ha két szálúra írsz meg valamit, az nem fog magától 4 szálúan futni. Csak ha úgy írod meg, hogy alkalmazkodni tudjon a rendelkezésre álló magok számához.
"Akkor van csak gond, ha minden szálnak különböző feladatot kell adni."
Attól függ. Ha egy program egy időben több fajta, egymástól elválasztható feladatot lát el, akkor elég egyszerű ezeket nem egymás után elvégezni, hanem egyszerűen szétszedni 1-1 külön szálra. De amúgy értem, mire gondolsz.
"Az én ismerőseim közt nincs. És cégeknél e láttam, csak szerverekben. Nem mondtam, hogy nem létezik, de ha még nem találkoztam ilyennel, akkor nem lehet túl elterjedt."
Ha te még nem találkoztál ilyennel, az azért lehet, mert nem olyan körökben mozogsz, ahol ilyeneket használnak. Mint pl. 3D-grafikai studiók (mint írtam, rég óta vannak két procin is futtatható 3D-grafikai programok). Vagy megnézed a játékteszteket, néha feltűnnek ilyen alaplapok (és csalódva állapítják meg, hogy alig gyorsult tőle az adott játék). Vagy néhány dual-mag tesztben ilyen kétprocis rendszerekkel is van összehasonlítás.
"Igen, erről beszélek én is. A játékfejlesztőknek nagyobb gondjuk is van annál, mint hogy egzotikus hardverekre fejlesszenek."
Én meg azt mondom, hogy bár nem elterjedt, azért nem is annyira egzotikus.
"Szart se ér a 16 meg, ha nincs legalább páronkén külön RAM modul."
Aha, tehát majd a fél alaplap ram-modulokból fog állni. Akkor mi lesz a 32 magosnál? Ebből az következik, hogy időközben teljesen új típusú, többcsatornás memóriákra is át kell majd állni...
"Még 1 magnál is a memória a szűk kereszetmetszet."
1 magnál? Szerintem ott még nem. Pl. P4-nél (ha jól emlékszem egy tesztre, amúgy nem túlzottan ismerem az Intel vonalat) a gyorsabb rendszerbusz - ami egyben nagyobb sávszélességet is jelent - alig gyorsít pl. a stream-feldolgozáson (itt a késleltelés csökkenése sem igazán számít). Vagy pl. az Athlon X2 úgy tud 90%-ot gyorsulni (adott esetben), a sima Athlon 64-hez képest, hogy ugyanaz a memvezérlő van benne. (Bár úgy emlékszem, ez eleve kétcsatornás, így volt benne tartalék.)
"Hát az XDRAM specifikációjából. Azonos mag freki mellett sávszélesség többszörözése együtt jár a késleltetés arányos növekedésével. Ugyanez a baja a DDR2-nek is. De az is igaz, hogy a stream jellegű műveleteknél kevésbbé hátrányos a késleltetés, és a Cell is ezekre van kihegyezve."
Na de a ps3-ban lévő XDRAM nem 4-600MHz-en megy, hanem több GHz-en... Így már lehet elég jó késleltetésben is. (Még ha nem is anyira, mintha egy több GHz-es DDR-ről lenne szó.)
"Matematikai számolásoknál természetesen jobb a vektorproci. De általános felhasználásra nem. Mondjuk program fordítás, optimalizálás és linkelés szerintem nem menne vektorprocival."
Ez igaz, de hányan fordítanak programokat, és hányan futtatnak játékokat, vágnak filmeket hobbiból, tömörítgetnek, stb.?... Így, jobb ma egy olyan gép, ami nagyon gyors az utóbbiakban, mint 5 év múlva egy olyan, ami bár mindenben gyors. (És esetleg fogyaszt 1000W-ot, és/vagy csak pár embernek van, mert túl drága.)
"Vagy inkább azért, mert a bonyolultabb programozás többe kerül, mint 10db x86-os szerver proci? A programozók bére elég sok, főleg, ha speciális területről van szó."
Ennek csak a fele igaz. A szuperszámítógépek programjait általában maga a vevő intézmény írja. És általában nem is vérprofi programozók írják a programokat, hanem kutatók. Tőlük tényleg nem várható, hogy megtanuljanak külön vektorprocikkal bánni.
Az általános szervereket ne keverjük ide, mert azonak alapvetően kizárólag általános feladatokban kell jeleskedniük, nem matematikai számításokban. A médiaszerveteknél (internetes pay-per-view TV-adások, stb.) esetleg már más lehet a helyzet (ha nem csak egyszerűen elosztani kell az adást, mint adatforgalom, beavatkozás nélkül).