• t_robert
    #4
    Nem biztos, hogy megfelel a célnak egy folding@home vagy egy distributed.net vagy boinc projekt szerű számítás megfelelő. Ezek túlságosan szét vannak aprózva egy nagyobb feldolgozandó adatmennyiség kisebb darabjainak számolására. Mondjuk elemzik a SETI keretében rögzitett rádióteleszkóp adatok több terrabájtját. Itt kap minden a közös feladatban szereplő gép egy adagnyi rögzített információt majd megpróbálja minden féle transzformációnak alá vetni a maga 91 másodpercét, hogy hátha sikerül máshogyan felbontani a rögzített rádió hullámok káoszát olyan egyedi hullámokra, amelyek hordoznak valamiféle mesterséges tartalomra utalást. Ilyenkor minden feldolgozó gép a saját pár CPU magjával a saját adatmennyiségét igyekszik feldolgozni. Egy szimuláció vagy tervezés esetén sokkal szorosabban kell összedolgozni a magoknak.