107
  • waterman
    #27
    "elmondták, hogy egyáltalán nem tartják fontosnak a DirectX 11 technológia várható hatását, ez ugyanis közel sem viszi majd annyival előre a piacot, nem hajtja majd fel az új fejlesztések iránti keresletet, mint elődei. A hangsúly ehelyett az általános célú számításokra is használható grafikus vezérlőkön, illetve az ezt lehetővé tévő szoftveres megoldásokon lesz, így inkább saját fejlesztésükre koncentrálnak."

    már nem azért, de pont a dx11-es compute shader megvalósítása az ami gpgpu-vá tehetné a kártyáikat. ha erre mindenki rájönne, akkor nem kellene a francnak sem a cuda, meg a phisix, mert esetleg gyártófüggetlen kódokat lehetne írni? jézus, kinek lenne az jó? nvidiáéknak biztos nem..
  • cateran
    #26
    Isten ne adja,hogy védjem az Nvidiát,de miért is jók azok a DX10-es kártyák? Most öszintén....Bár talán a 2 kezem már nem lenne elég összeszámolni a DX10-es játékokat,de azért még mindig rohadt kevés van belőlük....
    DX11 se hinném hogy különb lenne majd..a következő 3-4 évben lesz majd 10 játék ami csillog-villog dx11-ben,meg 100 másik ami nem...megéri?(aztán ofc jön majd a DX12...)
  • Szefmester
    #25
    valamivel azért mentegetőzni kell..
  • item
    #24
    nVIDIA már megint rizsázik... A piacon egyedül ők vannak akik nem tartják a lépést a többi szereplővel. Még az aránylag kisteljesítményű kártyákat gyártó SIS és VIA is gyárt dx10-es chipeket. Szóval nem kell ide a rizsa,hanem tessék felzárkózni.
  • Szemjuel
    #23
    én nem, csak a szmájlik :D
  • torcipepe
    #22
    azért az nvidia is be fogja hozni mielőbb a dx11-es kártyákat, ha nem akarja elveszteni a vérpistikékből származó bevételt.
    ez egy rohadt ördögi kör.
  • Alwares
    #21
    És milyen jól mondja az NV! Mióta Dx10-es kártyám van. Öööö izé, igazából semmit se változott a dolog.
    Ha van is benne plusz kraft senki se fog plusz munkát fecérelni egy szétwarezolt pc verzióba...
  • _Vegeta_
    #20
    Inkább azzal foglalkoznának, hogy olyan kártyákat csináljanak, amik nem fűtik fel az egész lakást.
  • Zoli007
    #19
    Kötekecc???
  • Gascan #18
    szerintem csak az van hogy az Nvidia tobb penzt fektetett be a dx10be es nem hagyhatjak hogy szarabb ROIt produkaljon, mert akkor nem lesz meg a reszvenyesek akarata

    ATI mogott meg osszejott nemi toke, es volt eroforrasa fejleszteni
  • Szemjuel
    #17
  • readswift
    #16
    bámulatos hogy még mindig van akit a grafika érdekel és nyomatják itt a sélsz piccst . Igaza van az NV-nek , le vagytok szarva.
  • ratata22
    #15
    ui: én mondom ez az egész egy nagy parasztvakítás, és lobbi, hogy a trendeket befolyásolják, meg a sok barommal megvetessék a legújabb szarokat, holott már 15 éve léteztek olyan szoftverek amik sokkal de sokkal, de tényleg nagyságrendekkel szebb dolgokra voltak képesek, mint bármilyen DirectX meg Direct3D-s spádé...
  • MerlinW
    #14
    A nyári AMD DX11 techdemoból.
  • ratata22
    #13
    A Direct-X mint szabvány már eleve rossz irányba indult el... a poligonos felépítés és a renderelés helyett, már régesrégen a NURBS alapú megjelenítés (valós 3D görbék) és a real-time Ray-Trace technológiáknak kellene fejlődniük, mert túl azon, hogy ezek sokkal szebb megjelenést tesznek lehetővé, gyorsabb, egyszerűbb és ésszerűbb programozási keretek között válik lehetővé a grafika megjeleítése.

    Míg egy gömböt pl. legalább 1000 poligonnal és az azt tartalmazó 3D-s koordinátatáblázattal (a rácspontjainak tömbben, adatbázisban való tárolásával) lehet csak megjeleníteni a Direct-X szerint, addig a NURBS egyenletben a gömb a legegyszerűbb függvény mely nulla (azaz zéró) poligont tartalmaz, és az 1000 poligonos gömb meg sem közelíti a tökéletes, 3D görbék által határolt gömb felületet.

    Valahogy úgy, ahogy pl. ennek az objektumnak a forrása kizárólag 3D görbékből áll és így 169 kilobájtot foglal, viszont ugyanez az objektum poligonokká konvertálva máris sokkal csúnyább, látszik, hogy lapokból áll és 4,5 megát foglal.



    Szóval a Direct-3D már eleve tévúton jár és pontosan ezért én soha nem is kattogtam rajta, őszintén mondom, hogy vastagon fostam rá mindig is, és pl. a Hlaf Life (1) máig szerintem a legjobb valaha elkészült számítógépes játék (toronymagasan!), pedig egy Pentium-133-on is lehet vele játszani, mindenféle 3D gyorsítás NÉLKÜL.
  • Zoli007
    #12
    Miből van ez a kép?
  • Bence94
    #11
    nvidida nem tudom mi van vele egyre szánalmasabbak...(volt geforce-om...) geforce 8xxx szériánál elképesztően reklámozták a dx 10-et mindenféle kamu render videókkal meg crysisal...most, hogy lemaradtak hirtelen nem fontos a dx11.örülök hogy most minden fejlesztő ati-t választja.
  • kicsizoz
    #10
    A 3 vezető konzol közül 2-be ATI kártya van, de biztosan nincsen e téren tapasztalatuk és benézték, szemben az NV-vel.. :)
  • kicsizoz
    #9
    Ilyen kamu dumát akkor hallottam utoljára, amikor az Intel bizonygatta, hogy a "64bitnek nincs pillanatnyilag létjogosultsága mert..." :)

    Ezt gyakorlatilag vehetjük egy beismerésnek, hogy pillanatnyilag lemaradtak.
    Amint kijön az első kártyájuk rá, hirtelen lényeges lesz a 11-is :)
  • neoG
    #8
    Aha.Az elméleted szerint akkor nVidiáék majd a következő konzol generációig csak órajelet emelnek, meg átneveznek,mert minek fejleszteni."Ráérünk majd évek múlva, igaz, hogy addig az ATI már 2-3 generáción túl lesz, de mi lazán behozzuk."
    Amúgy meg,ha a DX10-nek sem volt értelme, akkor miért volt olyen nagy csinnadrattával beharangozva 8as gef sorozat?Akkor igazuk volt, csak most nem
  • mamo33
    #7
    Én is valami ilyesmit írtam volna, ha az nVidiával szimpatizálnék!
  • BIZ0906
    #6
    bla bla bla fosvidia ez beismerés, hogy be vannak szarva hulladék egy csapat ilyenkor már semmi nem fontos csak lefizetgetni a fejlesztőket mi?
    pffffff
  • ProGabe #5
    és mi értelme a dx10.1-nek? sőt, a 10-nek? mert lóf*sznyi sem. igaza van az nv-nek, itt nem a dx számít. viszont nem is a vidkari: egyértelműen a konzolok határozzák meg a piacot. amíg azokból nem jön új generáció, addig az Ati csinálgathatja az új kártyáit, kis túlzással elmondható róluk, hogy prototípusok lesznek, hiszen a next-gen konzolokban lévő lesz az igazi irányadó a PC-s hardvereket illetően

    tök mindegy, hogy az új Ati kártya majd kenterbe veri az nv-ét, és übermegabrutális teljesítményre képes, meg hihetetlen technikai bravúr, ha nem lesz mit érdemben futtatni rajta egy-két tech-demón kívül. egyik cég sem fog külön PC-re programozni, csak azért, mert a konzolok nagyon le vannak maradva hardver ügyileg. és le is lesznek, mert az új fáma úgy szól, hogy 4 évig nem jön a köv. generáció
  • Szefmester
    #4
    hmm és nemrég egy másik hírben arról dicsekedett hogy az új dx11es kártyájuk megveri majd az ATI 5870est sőt még az 5870x2-t is....

    fura..

    meg amennyire tudom nem éppen az új effektekről híres a dx11 hanem a többszálúsításról.. nah mindegy.. az NVnek az első drivercsalása óta nem hiszek..
    tudom akkor az ATI is csalt csak éppen nem 25%ot hanem 6ot.. szal kissebbik rossz:D
  • mujahedin
    #3
    OMG ugyanezt játszotta a dx10.1-el :D

    A gt300 legendájában reménykedő nv fanoknak ez ugyanazt jelenti mint akkor jelentett. Nem képesek megcsinálni, és a legenda legenda marad... vagy egy átnevezett g92-es :D
  • neoG
    #2
    nVidia aztán magyarázhatja a bizonyítványát, de akkor is le vannak maradva jelen pillanatban.
    Meg egy ilyen rutinos vállalat már tudhatná: vérpistike két dolgot néz egy videó kártya dobozán: hanyas direktX-et tud, meg mennyi a megabájt ram
    azt speciel majd jól leszarja, hogy az nVidia szerint a DX11 nem visz sehova.
  • kvp
    #1
    Egy altalanos matematikai gyorsitokent mukodo kartya kepes barmilyen directx-et emulalni, legfeljebb a teljesitmeny lesz valamivel gyengebb. Ha az nvida nem tud kihozni egy dx11-es kartyat annak tenyleg csak felreertelmezett marketing okai vannak, mert a hardveruk megvan hozza. Mar a gf8800-as is dx11 kompatibilis, csak dx11 alatt sokat veszitene a teljesitmenyebol (kb. a dx10-es 3/4-et), viszont menne minden hibatlanul.