103
  • arty
    #23
    nvidia majd szétszór némi pénzmagot és akkor nem dx11, meg tesszelácio lesz, hanem dx9 és fizix...

    ahogy eddig
  • Sanyix
    #22
    Meg drágább, meg veszteségesebb :DD
    (lehet hogy olyan szúnyogra ágyúval lövés féle lesz, mint a gtx-ek)
  • Sanyix
    #21
    Támogatni támogatja, de több eljárását csak emulálja -> nem lesz benne hűdegyors, így nekik tényleg nem lesz jó a dx11 bár támogatva van :)
  • nkmedve
    #20
    Az arhitektúrából látszik, hogy ez nem grafikára lett kifejlesztve, inkább Larabee ellenfél lesz mint Radeon-gyilkos. DX9-ben valószinűleg igy is brutális teljesitménye lesz, DX10-DX11-et még meglátjuk.

    Még ha nem is GPU, hanem inkább cGPU, várjuk szeretettel, hogy legyen egy kis verseny.

    readswift: flameelést be lehet fejezni
  • bnfront
    #19
    De szétprogramoznám XD
  • macseke
    #18
    "Természetesen képes támogatni a legújabb OpenGL és DirectX API-kat, de számos funkciót nem támogat hardveresen, így azokat emulálni kell. A legszembetűnőbb dolog, hogy a rendszer nem rendelkezik fix funkciós tesszellátorral, ami a DirectX 11 legnagyobb újítása. A teljes tesszellációs folyamatot a CUDA magok segítségével kivitelezik. A Microsoftot megkérdeztük a megoldással kapcsolatban. A redmondi óriáscég szóvivője elmondta, hogy nem beszélhetnek egy még meg nem jelent termék DirectX 11-es támogatásáról, de az API nem követeli meg a fix funkciós egységek jelenlétét, azaz a feldolgozó futószalag bármely részét lehet emulálni. Persze a sebesség szempontjából az emuláció viszonylag lassú megoldás, így nem optimális azt használni."

    prohardver cikk

    Ettől még a (feltételezett) brutális ereje miatt könnyen lehet, hogy így is gyorsabb lesz az Ati kártyájánál.
  • kicsizoz
    #17
    Véleményem szerint tavasznál előbb nem lesz kárty belőle, csak az esetleges ATI felé mutató vásárlási szándékot próbálják ezzel a bejelentéssel elodázni kicsit, de várjuk tisztelettel a megjelenését!
    Én mindig abban reménykedem, hogy 1x az egyik 1x a másik készít jobb/előremutatóbb kártyát, így megmarad a fejlődés!
  • kicsizoz
    #16
    Gyereke, ez nem a hétvégi UTE-Fradi meccs! ez csak két HW gyártó, ne legyetek már ennyire szánalmasak.... :)
    Még a végén azt is beírja valaki, hogy "stipi-stopi én láttam meg előbb!"
    Gondolkodjatok már egy kicsit!
    (akire ez nem vonatkozik, az úgyis érti...)
  • readswift
    #15
    nagyon nagy hibát követ el az AMD hogy bevette a DX11-et a FUSION-be, egy hirdetési felület, egy maszlag lett a FUSION.
  • readswift
    #14
    AMD HAS BEGUN a campaign to step up the adoption of a new physics engine. The company is working with software developer Pixelux Entertainment to sell developers on a combination of the Bullet Physics engine and OpenCL processing.

    ezt forditgasd le magadnak , aztán találd ki hogy labdába fog e rúgni :D
  • mcganyol
    #13
    "Ezzel Kb. agyonverte az ATI-t az nV"

    Azért szánj rá öt percet az életedből, hogy ezen kicsit eltöprengesz.
    Addig tedd félre kicsit az indulataidat.
    Ha ezután még mindíg tartod ezt a kijelentést, akkor lelked rajta.
  • readswift
    #12
    a szabvány dp fp miatt erre fognak elkészülni az egyetemeken a legújabb legelőremutatóbb dolgok, (ahogy eddig is) ennyi elég :))


    A Másik kedvenceim azok akik a larabit szellőztették hogy bekerül a playstation4-be. Szegény hülyék . Akárcsak a theinquirer charlie , az fényképes IDF beszámolójával, direktben az nvidia térdrekényszeritéséről
  • Mcsiv
    #11
    ezt pont te mondod...;D Mellesleg az atit nem olyan könnyű agyonverni
  • readswift
    #10
    hazugság, theinquirer-es dedikált nv utáló charlie től vette át a tizévesazEZSGÉ majd legközelebb megnézik milyen szarba nyúlnak.
  • readswift
    #9
    Ezzel Kb. agyonverte az ATI-t az nV, az ATi egy microsoft bérenc fog maradni és ...Vége a királyságnak ...

    Azért az alant emlitett hülyegyerekeknek még sok kártyát elad majd az ATi
  • readswift
    #8
    neked is, meg imremagdinak is, ha ennyi eszetek van amennyit bevallotok itt, hát ne irigylem a környezeteket _D Lássuk be , nektek már a shader model3 is sok volt, abszolút tök fölösleges magyarázni a többiről :DD
  • waterman
    #7
    az architektúrájának rugalmasságából adódóan a dx11-en is túlmutat. különben nem a dx gyors futtatására helyezték a hangsúlyt, hanem az általános nagy teljesítményre.
  • osztmivan
    #6
    hehe
    ez a kártya jól megcsavarja az ati tökeit, majd a szemétdombra irányítja
  • Imremagdi
    #5
    DX 10.1-et fogja támogatni?
  • ddt500
    #4
    Ez nem ugyan az a cucc ami két hete még 95%-os selejtaránnyal jött ki?
  • Szefmester
    #3
    hehh.. még hogy nem kell az a dx11 mert hülyeség.. akkor miért csinálnak olyat ami támogatja?

    segget csinálnak a szájukból.. jah hogy már megcsinálták párszor.. akkor most csak növesztik?
  • grebber
    #2
    A teljesítményért fizetni kell
  • Sanyix
    #1
    Ez is bazinagy, bazidrága chip lesz...