63
  • turul16
    #21
    Vagy a szabadalmak kellettek, voltak ?
  • turul16
    #20
    Vector szorzo az a fizikai proci ugyan úgy, mint a GPU, csak GPU-ban van még pár felesleges egység :)

    Ezért hülyeség, egy majdnem GPU-t pluszba berakni.

    Szerintem egyszerűen új mérnökök kellettek az Intelnek, és így könnyebb volt őket felvenni :)
  • dez
    #19
    Nem temettem én a Havokot, csak azt mondom, hogy esetleg kisajátíthatja az Intel. Ott hibádzik kicsit az érvelésed, hogy a Havok FX-et (csak ez a rész ismeri a GPU-s gyorsítást) egyelőre kevés játék támogatja. Nincs olyan sodra, ami elvinné az Intel hajóját is. Inkább az Intelnek kell majd komoly marketingtevékenységgel létrehoznia ezt a sodrást. Így majdnem olyan lesz ez a dolog, mintha a Havok FX egy új szoftvercsomag+API lenne, amit nem feltétlenül oszt meg egy cég a konkurenseivel. Legalábbis a mérleg mindkét serpenyőjében vannak érvek. Amik a kisajátítás mellett szólnak:
    1. Ha a Larrabee elég jó lesz, eladja az magát. Na meg az Intel marketinggépezete és piaci nyomásgyakorlási képessége.
    2. Az AMD és az Nvidia meg nekiállhat sajátot írni, ami évekbe telik.

    De az is lehet, hogy meghagyják az AMD/Nvidia támogatást, csak kicsit majd mostohán kezelik. :) Főleg ha már kellő piaci részesedést értek el, ahogy írtad. Amúgy már azzal, hogy a felvásárlás miatt ez potenciális veszély, eleve arra kényszerül az AMD és az Nvidia, hogy saját megoldások után nézzenek... Tehát ezzel valószínű eleve elrontotta az Intel a "közös nagy bulit", ahelyett, hogy diszkréten csatlakozott volna.

    Talán erre, plusz arra gondol Huang, hogy a puszta támogatás eléréséhez még nem kellett volna feltétlenül felvásárolniuk a céget.

    A Larrabee-vel egyébként a GPGPU fronton is nyomulni akar az Intel.

    Ja, az Intel jópár GPU fejlesztőt "vásárolt fel" innen-onnan... :)
  • Balumann
    #18
    Sztem nem ártana ha VGA -ba szerelnének fizikai gyorsítót is, akár a grafikai teljesítmény csökkenésének árán is. A prociknak meg megkéne hagyni az AI számításokat, vagy valami megosztást, márha lehetséges... legalábbis ez az én elképzelésem.
  • kvp
    #17
    Mar mashol leirtam mi a physx baja. A legnagyobb gond, hogy a fizikai gyorsitas messze van a grafikai megjelenitestol. A messze itt nagy kesleltetest jelent, mivel minden kepkockahoz eloszor a cpu-nak el kell kuldenie az adatokat a ppu fele, kivarnia amig kiszamolja az uj adatokat, majd a cpu visszahozza es elkuldi a gpu fele.

    Ezzel szemben a dx10 geometry shader-e pont erre (is) jo. Az elso lepesben a gpu kiszamolja az uj vertexeket (deformalodasok, ruhaanyagok, roncsolodas, reszecskek), majd kirajzolja oket, vegul kiszamolja a fizikat es vagy tovabbkuldi azokat a cpu fele (utkozesek) vagy visszairanyitja az elso lepes fele (reszecske effektek). Igy a cpu tenyleg csak a jateklogikat kezeli. Ennek primitiv 2d-s implementacioja volt a hardveres sprite utkozes kezelese a regi mikrogepeken. (pl. c64) Ez tunik a jo megoldasnak, es mindossze annyi kell, hogy a gpu kepes legyen uj vertexeket felvenni. Ezt a feature-t hivjak geometry shader-nek, es az osszes uj dx10-es jatek kepes lesz hasznalni, meghozza egyseges feluleten.

    Az intel larrabee-jenek egyebkent szurkolok, mert ha bevalik akkor egy nagyon konnyen programozhato es barmire alkalmas altalanos cpu tombot kapunk. Ha eleg sok van beloluk, akkor az utolso dedikalt hardveres egyseget is ki lehet dobni a gepekbol. Ilyen volt a xerox parc alto gepe is, ahol a videokartya csak egy ramdac-bol allt es minden grafikat a cpu egyik szala szamolt hyperthreading-ben valtogatva a feladatokat.

    Idezet a cpu leirasabol: (1972-bol!!!)
    "The Alto's CPU was a very innovative microcoded processor which used microcode for most of the I/O functions rather than hardware. The microcode machine had 16 tasks, one of which executed the normal instruction set (which was rather like a Data General Nova), with the others used for the display, memory refresh, disk, network, and other I/O functions. As an example, the bit map display controller was little more than a 16-bit shift register; microcode was used to fetch display refresh data from main memory and put it in the shift register."
  • aaaaa
    #16
    Porsche, Ferrari, és egyéb sportautók überLOL. Ki az az állat, aki ilyet vesz?
    Sokat fogyaszt, drága, kényelmetlen , kicsi, nem lehet bele pakolni rendesen, pattog a rosszminőségű úton, fennakad az úthibán, könnyen ellopják, drága a szervíze, ha elromlik, 10x annyiba kerül rá akár egy gumi is stb..... Különben is a városban csak 50-nel lehet menni. Semmi értelme.
    Értelmes célokra tizedéért van a legtöbb igényt kielégitő szintén akár 240-el is menni képes autó.
    Na és mégis veszik az emberek , de vicces... :)
  • shabba
    #15
    Azért ne temesd a Havokot, szerintem szó sincs erről. Az AMD és az Nvidiának természtesen nem teszik hogy az Intel meg akar jelenni egy olyan piacon ahol eddig nem volt ott és a két cég feloszthatta egymás között, persze hogy nem örülnek egy erős harmadik érkezésének. Az Intel idáig csak az office és mobil szegmensnek gyártott GPU-t, de most úgy tűnik idővel belevág a gémer szegmensbe is, először gyaníthatóan a közép kategóriát megcélozva később, talán a felsőbb kategóriában is megjelenve. Az Intel ezt nem felvásárlással éri el mint az AMD, hanem inkább saját fejlesztéssel, ami persze hosszabb idő, szóval 3-5 év biztos kell neki mire kifutja magát.

    "Igazából nem értem, miért vásárolták fel ezt a céget" - mondja az Nvidia vezérigazgató. Ugyan már ki hisz neki. Tökéletesen tisztában van azzal milyen tervek dédelget az Intel.

    A Havok tuti nem azért kell az Intelnek mert tönkre akarja tenni, egyszerűen nem érdeke, neki ez pont azért kell hogy piacra tudjon lépni. Gondolj bele ha az Intel kijön 2009-ben egy új hardwarrel, software támogatás nélkül akkor hogy lehet majd a gémer piacon eladni? Sehogy. De mivel új piaci belépő, ezért nem igazán fejleszt még rá senki, azért mert túl kicsi a piaci részesedése, azért nem éri meg a fejlesztőknek hogy rá építsenek. És ez 22-es csapda, hisz addig nem is tud kitörni amíg nincs szoftware támogatás és ez által a játékok sem támogatják a használatát.

    Az Intel ezért inkább megvette a Havokot, és mint tulaj nyomást tud gyakorolni a fejlesztőkre hogy tegyék bele a saját sokmagos procijainak és Larrabeejának támogatását akkor is ha annak még zéró piaci részesedése van a gémer szegmensben. És ezzel meg tudja alapozni a jővőt, hisz szoftwarrel már a hardware is jobban eladható, a nélkül viszont csak papírnehezék.

    Abban nem érdekelt az Intel hogy kivegye a Havokból a konkurens termékek támogatását, vagy hogy megszünetesse a terméket. Hisz ha ezt tenné és lenne egy software ami csak az ő hardwarét támogatja, ami még új piaci belépő, akkor szerinted hány játékba építenék be? Semennyibe, hisz nem igazán lenne eladható. Az Intelnek mint új piaci belépőnek az AMD és Nvidia farvizén kell behuznia a palettára a Larrabeet, olyan middlewaret kell írnia ami a már most támogatott konkurenseken kívül a saját termékét is támogatja, így esélye nyílhat arra hogy az ő terméke is beléphessen a piacra.

    Persze nagyon hossszú távon, amikor már az Intel terméke is hasonló részesedéssel bírna mint az AMD és az Nvidia, már előnyt kovácsolhatna abból hogy kirekesztené a konkurenseit. De ez még oly távol van, legalább egy évtized. Ráadásul addigra már szerintem nem is lesz szüksége az Intelnek a Havokra, neki csak addig kell amíg a piacra lépést ezzel meg tudja alapozni, utána már szerintem túl fog adni rajta.
  • sanner011
    #14
    Dez, a felvilágosító központ. Na most már minden vili, ugye? GPU folding, emberek, GPU folding! Csak egy példa arra, mi mindenre alkalmas egy videokari... :)))
  • dez
    #13
    Tisztázzuk: a Havok FX egy szoftver (volt?), egy fizikai motor, ami a GPU-t használta a számítások gyorsítására.
  • dez
    #12
    "A játékok 98% nem támogatja"

    Nem tudok róla, hogy külön támogatás kell minden játékba. A drivernek kell ismernie az adott játékot, és az optimális módot kiválasztani, stb. De tudtommal már kézzel is lehet csinálni profilokat.

    "akkor meg mit csináljon az egyszeri gamer egy gyorsítókártyával... tegyem be a gépbe csak azért, hogy még 1 ventilátor pörögjön. Bah, hagyjuk."

    Pl. az egyik kártyát be lehetne fogni a fizikára...
  • dez
    #11
    Nem lesz a GPU-n belül fizika-proci, hanem a GPU számoló egységei erre is be lesznek fogva. Már ha lesz hozzá szoftver, ugyanis az Intel éppen lenyúlta.
  • dez
    #10
    Kicsit mintha kevernéd.

    "Az AMD, NVIDIA -nál meg mi az az álszeteskedés , miért nem ünnepelnek, hogy nem lesz fiz. proci ?"
    Éppen hogy így nagyobb lesz az igény pl. a Physixra, ami számukra konkurencia, mert a GPU alapú fizikázás lehet most elgáncsolva egy időre.

    "Inkább attól félnek, hogy az Intel komoly GPU -t fejlesztet majd az így szerzett mérnökökkel :)"
    A Havoknál nem GPU tervezők dolgoztak. Az Intel Larrabee GPU-jától meg már eddig is lehetett tartani. Miért örülne annak az AMD és az Nvidia, hogy majd az Intel jól a Larrabee-re optimalizálja v. teszi kizárólagosan azon használhatóvá a Havok FX fizikai motort?

    "Vagy AMD,NVIDIA szerette volna, hogy mindenki felesleges fiz. karit akarjon ?.."
    Miért szerette volna?
  • dez
    #9
    "sokszoros SLI is überLOL. Ki az az állat, aki *csak játékra* ilyet vesz?"

    Akinek világszínvonalú fizetése van, és nem gond ennyit költeni a hobbijára.
    Mert pl. van egy jó nagy monitorja, és kicsit zavarja, hogy az újabb játékok fps-e le-le esik ilyen 10-re.

    "Értelmes célra természetesen használhatatlanok az ilyen gépszörnyek."
    GPGPU alkalmazásokra nagyszerű. Ha tudnád, mi az, ugye.
  • Tinman #8
    El vagy keveredve.
    Nem keresek sokat, mégis kettőt is vehetnék, ha akarnék bármikor... de minek???
    Felesleges, értelmetlen. A játékok 98% nem támogatja, akkor meg mit csináljon az egyszeri gamer egy gyorsítókártyával... tegyem be a gépbe csak azért, hogy még 1 ventilátor pörögjön. Bah, hagyjuk.
  • Csi9aa
    #7
    Hát, ha nincs más örömöd az életben, mint fölösleges kacatokra költeni... :)
    (csak azt ne mondd hogy kihasználod bármivel is)
  • Tinman #6
    "A cég éppen most csökkentette a kártyák árát 99 dollára, mivel a kereslet eddig elkeserítő volt."

    Max 5k-t adnék érte... mert minek? Jó lesz az a GPU-n belül.
  • formatuq
    #5
    hat jah :D
  • sanner011
    #4
    Nem hülyeség egyébként a fizika proci. Tehermentesíthetné a procit. Csak fele ennyit sem ér. De amúgy jó. Meg ha lenne esetleg támogatása. Meghát, a legtöbb ember aki gépet fejleszt, eléggé a pénze határán jár... Nem hiányzik hogy minden játék csak fiziksz karival menjen. :)
  • Godefroy
    #3
    Az az "állat" vesz ilyet aki megengedheti.
    Az meg aki nem annak marad az az ilyen hozzászólás írása mint a tied
  • turul16
    #2
    Külön fizikai processzor baromság. (kb. DAC nélküli 3D videó kártya)
    Az AMD, NVIDIA -nál meg mi az az álszeteskedés , miért nem ünnepelnek, hogy nem lesz fiz. proci ? Inkább attól félnek, hogy az Intel komoly GPU -t fejlesztet majd az így szerzett mérnökökkel :)
    Vagy AMD,NVIDIA szerette volna, hogy mindenki felesleges fiz. karit akarjon ?..
  • Csi9aa
    #1
    Talán nem kéne mesterségesen generált, fiktív, betegesen pazarló "igényekre" játszani, akkor nem buknának nagyokat.

    sokszoros SLI is überLOL. Ki az az állat, aki *csak játékra* ilyet vesz? Értelmes célra természetesen használhatatlanok az ilyen gépszörnyek.