103
-
#23 nvidia majd szétszór némi pénzmagot és akkor nem dx11, meg tesszelácio lesz, hanem dx9 és fizix...
ahogy eddig -
#22 Meg drágább, meg veszteségesebb :DD
(lehet hogy olyan szúnyogra ágyúval lövés féle lesz, mint a gtx-ek) -
#21 Támogatni támogatja, de több eljárását csak emulálja -> nem lesz benne hűdegyors, így nekik tényleg nem lesz jó a dx11 bár támogatva van :) -
nkmedve #20 Az arhitektúrából látszik, hogy ez nem grafikára lett kifejlesztve, inkább Larabee ellenfél lesz mint Radeon-gyilkos. DX9-ben valószinűleg igy is brutális teljesitménye lesz, DX10-DX11-et még meglátjuk.
Még ha nem is GPU, hanem inkább cGPU, várjuk szeretettel, hogy legyen egy kis verseny.
readswift: flameelést be lehet fejezni -
bnfront #19 De szétprogramoznám XD -
macseke #18 "Természetesen képes támogatni a legújabb OpenGL és DirectX API-kat, de számos funkciót nem támogat hardveresen, így azokat emulálni kell. A legszembetűnőbb dolog, hogy a rendszer nem rendelkezik fix funkciós tesszellátorral, ami a DirectX 11 legnagyobb újítása. A teljes tesszellációs folyamatot a CUDA magok segítségével kivitelezik. A Microsoftot megkérdeztük a megoldással kapcsolatban. A redmondi óriáscég szóvivője elmondta, hogy nem beszélhetnek egy még meg nem jelent termék DirectX 11-es támogatásáról, de az API nem követeli meg a fix funkciós egységek jelenlétét, azaz a feldolgozó futószalag bármely részét lehet emulálni. Persze a sebesség szempontjából az emuláció viszonylag lassú megoldás, így nem optimális azt használni."
prohardver cikk
Ettől még a (feltételezett) brutális ereje miatt könnyen lehet, hogy így is gyorsabb lesz az Ati kártyájánál. -
kicsizoz #17 Véleményem szerint tavasznál előbb nem lesz kárty belőle, csak az esetleges ATI felé mutató vásárlási szándékot próbálják ezzel a bejelentéssel elodázni kicsit, de várjuk tisztelettel a megjelenését!
Én mindig abban reménykedem, hogy 1x az egyik 1x a másik készít jobb/előremutatóbb kártyát, így megmarad a fejlődés! -
kicsizoz #16 Gyereke, ez nem a hétvégi UTE-Fradi meccs! ez csak két HW gyártó, ne legyetek már ennyire szánalmasak.... :)
Még a végén azt is beírja valaki, hogy "stipi-stopi én láttam meg előbb!"
Gondolkodjatok már egy kicsit!
(akire ez nem vonatkozik, az úgyis érti...) -
readswift #15 nagyon nagy hibát követ el az AMD hogy bevette a DX11-et a FUSION-be, egy hirdetési felület, egy maszlag lett a FUSION. -
readswift #14 AMD HAS BEGUN a campaign to step up the adoption of a new physics engine. The company is working with software developer Pixelux Entertainment to sell developers on a combination of the Bullet Physics engine and OpenCL processing.
ezt forditgasd le magadnak , aztán találd ki hogy labdába fog e rúgni :D -
mcganyol #13 "Ezzel Kb. agyonverte az ATI-t az nV"
Azért szánj rá öt percet az életedből, hogy ezen kicsit eltöprengesz.
Addig tedd félre kicsit az indulataidat.
Ha ezután még mindíg tartod ezt a kijelentést, akkor lelked rajta.
-
readswift #12 a szabvány dp fp miatt erre fognak elkészülni az egyetemeken a legújabb legelőremutatóbb dolgok, (ahogy eddig is) ennyi elég :))
A Másik kedvenceim azok akik a larabit szellőztették hogy bekerül a playstation4-be. Szegény hülyék . Akárcsak a theinquirer charlie , az fényképes IDF beszámolójával, direktben az nvidia térdrekényszeritéséről -
Mcsiv #11 ezt pont te mondod...;D Mellesleg az atit nem olyan könnyű agyonverni -
readswift #10 hazugság, theinquirer-es dedikált nv utáló charlie től vette át a tizévesazEZSGÉ majd legközelebb megnézik milyen szarba nyúlnak. -
readswift #9 Ezzel Kb. agyonverte az ATI-t az nV, az ATi egy microsoft bérenc fog maradni és ...Vége a királyságnak ...
Azért az alant emlitett hülyegyerekeknek még sok kártyát elad majd az ATi -
readswift #8 neked is, meg imremagdinak is, ha ennyi eszetek van amennyit bevallotok itt, hát ne irigylem a környezeteket _D Lássuk be , nektek már a shader model3 is sok volt, abszolút tök fölösleges magyarázni a többiről :DD
-
waterman #7 az architektúrájának rugalmasságából adódóan a dx11-en is túlmutat. különben nem a dx gyors futtatására helyezték a hangsúlyt, hanem az általános nagy teljesítményre. -
osztmivan #6 hehe
ez a kártya jól megcsavarja az ati tökeit, majd a szemétdombra irányítja -
#5 DX 10.1-et fogja támogatni? -
ddt500 #4 Ez nem ugyan az a cucc ami két hete még 95%-os selejtaránnyal jött ki? -
Szefmester #3 hehh.. még hogy nem kell az a dx11 mert hülyeség.. akkor miért csinálnak olyat ami támogatja?
segget csinálnak a szájukból.. jah hogy már megcsinálták párszor.. akkor most csak növesztik? -
#2 A teljesítményért fizetni kell -
#1 Ez is bazinagy, bazidrága chip lesz...