2319
banner.jpg\"
  • davidka003
    #558
    Te vagy a kisebbség. Nyomod örökké, hogy a GTX 280 milyen jó, közben meg egy nagy szar elavult féltégla. Aki normálisan gondolkozik az most ATI-t vesz.
  • solo
    #557
    Oridzsinál reklám szöveg: D
  • davidka003
    #556
    "Hát akkor az olyan mint a DX9 a radeon 9200-ban. Van de minek? ~~"

    Olyan, mint a DX10 a 8400GS-ben. Van, de minek?
  • palm pilot
    #555
    Jó, hát vannak ilyen solten féle elbotultak, de azok a kisebbség.
  • palm pilot
    #554
    max. lassaban a shader teljesítmény kárára
    Hát akkor az olyan mint a DX9 a radeon 9200-ban. Van de minek? ~~
  • palm pilot
    #553
    Pedig de.
  • MaSzKa
    #552
    pedig nem így van

    mert vannak olyanok akik kimondottan csak 1 márkát hajlandóak venni

    pl nvida ha szar akkor is pl FX5200
  • Abu85
    #551
    A DX11 működéséről semmit nem lehet tudni ... így arra sem nagyon lehet válaszolni, hogy mi lesz kompatibilis a régebbi rendszerekkel.
    Alapvetően a DX10 megreformált alapja szerintem a teljes DX API történelmének utolsó ráncfelvarrása volt. A későbbiekben teljesen megváltoznak a dolgok. Bizonyos szinten visszatér a szoftveres renderelés (a next gen konzolok is erre mennek majd el - a köv. xBox-ba például egy AMD Fusion rendszert várnak az okosok). Egyszerűen az lesz, hogy a komolyabb szakemberek mint Sweeney vagy Carmack megírják a saját kis render rendszerűket ami a CPU és a GPGPU erőforrásait közösen használja majd a képkockaszámításhoz. A grafikus API-k jelentősége visszaszorul, persze még így is sokan fogják használni ezeket, de a top projectekre nem ez lesz jellemző.
  • Abu85
    #550
    De az nV más piacokra koncentrál. Azért nem adja le a G80 architektúrát, mert GPGPU-ba teljesen megfelel. Emellett az nV úgy rendezkedett be az elmúlt években, hogy a PC-s High-End VGA piac teljesen beáldozható lesz.
  • Inquisitor
    #549
    "Ezért nyomja mindegyik a csúcskategóriát"
    Na ez viszont most fog megváltozni. A gyártó oldaláról eszement pénzpazarlás.

    "A Windows7-tel meg jön a DX11, lehet elkezdeni arra gyúrni, a DX10 meg nemsoká mehet a lecsóba, aztán senkit se fog érdekelni hogy ki lett volna benne a jobb"
    Ha hihetünk azoknak akik ezzel foglalkoznak, akkor a DX11 inkább lehetne DX10.2, másrészt elvileg az összes DX10/10.1 kártyán menni fognak a "trükkjei", max. lassaban a shader teljesítmény kárára.
  • Inquisitor
    #548
    De sajnos így van. Ehhez hasonló idióta jelenség, hogy pl. alaplapot vagy procit sokan a "jóhíre" alapján veszik meg, ami meg egyenes arányban van a tuningolhatósággal, és ezzel az az egy baj, hogy aki így vásárol, azok 99%-a nem tuningol vagy azt se tudja mi az.
  • MaSzKa
    #547
    hanem a csúcskártyák teljesítménye alapján ítélnek a vásárlók


    ez nem így van
  • armageddon666
    #546
    Igen... csak nVidia mivel nem gyúr rá (sokak szerint nem tudnak), ezért a játékfejlesztők nem fejlesztenek rá, így nVidiának nem is kell rágyúrnia... Ez jó mindenkinek, kivéve nekünk, játékosoknak ^^ Hülyén nézne ki ha egy előző generációs ATI kártyával annyi FPS lenne egy valódi-DX10-s játékban az FPSünk mint mondjuk egy GTX260-nal... (durva példa, csak szemléltetés)
  • palm pilot
    #545
    Azért fontos, mert nem a középkategóriás, hanem a csúcskártyák teljesítménye alapján ítélnek a vásárlók. Nem olvassák el a tesztet hogy most a GT vagy GS jobb, meg hány MHz a core és mem, csak annyit hogy az egyik csúcskártya lenyomta a másikat, akkor biztos ugyanaz a felállás alsóbb szinteken is. Ezért nyomja mindegyik a csúcskategóriát.
  • palm pilot
    #544
    DX10 játékokban is jobb az nvidia, persze erre mindig jön a válasz hogy az nem is igazi DX10, de ati-s DX10 játékok meg valahogy nem nagyon léteznek. Tehát sokat nem veszt azzal az nvidia hogy nem támogat valóságban szinte nem is létező szabvámyokat. A Windows7-tel meg jön a DX11, lehet elkezdeni arra gyúrni, a DX10 meg nemsoká mehet a lecsóba, aztán senkit se fog érdekelni hogy ki lett volna benne a jobb.
  • armageddon666
    #543
    Arról nem beszélve hogy a csúcskártya nem feltétlen meghatározó. Minek vennél 200k-ért egy kártyát, mikor 10FPSsel kevesebbel elviszi a legkeményebb játékot is egy 50k-s? (feltéve ha játékra kell neked)

    Szerintem a középmezőny, esetleg a felsőközép sokkal fontosabb, és a bevételek nagyobb részét teszik ki mint a Hi-end cuccok :\ Én ha tehetem nVidiát veszek, de perpillanat ha nem 8800GT-m lenne, és vásárlás előtt állnék akkor HD4850/HD4870-t vennék.
  • armageddon666
    #542
    De mivel ATIAMD nem tud "kibekkelni", ezért rá vannak kényszerítve hogy kicsit odafigyeljenek... GTX 280 erősebb, de szerintem egyáltalán nem jobb... Egy elavult technológiát nyomatnak a végsőkig, ameddig bírja. És ők is látják hogy elkúrták... (ld. árcsökkenés, meg 1-2 gyártónál a visszatérítés vagy mi)
  • palm pilot
    #541
    Azonban az Nvidiának van pénze, ami nem mondható el az ati felvásárlásával kifulladt amd-ről. Ugyanúgy ki tudna bekkelni egy szar szériát mint az intel a p4-el, míg az amd ugyanebbe pikpak belenukna. És hiába a játék a %-okkal, az Nvidia csúcskártyája (G280) jobb, és több tartalék van benne mint az amd - így is csak a csaló béta driverekkel "optimalizált" - gyengébb kártyáiban, az amd csak dupla kártyás megoldásaival tudja tartani vele a lépést. Nem kell félteni az Nvidiát. ^^
  • Puhos
    #540
    Megjelent, árat itt találsz, igen van itthon is!
  • kemencebalázs
    #539
    ez a krtya mi jelenik meg, hány örakkor menyi ára lesz,van ithon is?
  • duracellmumus
    #538
    talán nv is rájön hogy magassak az árai.....
  • duracellmumus
    #537
    így már mindent értek!
    Amd egész jól taktikázik:" vegyél két 4850-st és tudja azt amit a 280,és még jobban is jársz, és esik az ára ami 280-ról nem mondható el egyenlőre..."
  • Abu85
    #536
    Az RV770 mérete 250mm^2 körül lehet. De sokkal lényegesebb, hogy egy waferről mennyi chip adható el.
    Mindkét cég 300mm-es waferrel dolgozik, ennek ára 5000 dollár körül van.
    Egy ilyen waferről kb. 100 darab G200-at, míg RV770-ből 250 darabot lehet gyártani. De a legyártott chipek egy bizonyos része hibás lesz így nem lehet eladni. A G200 65nm-en átlagban 30-35%-os kihozatallal készül azaz átlagosan 30-35 chip adható el egy 5000 dolcsis vafer-ből. Ergo egy eladható chip ára kb. 130-140 dolcsi. Az AMD 55nm-en 70%-os hatékonyságot is elér a kisebb méretek miatt, így kb. 25-30 dollár egy RV770 ára. Ezek mellett a G200 30%-al gyorsabb RV770-nél, gondolom látod mi a baja az nV-nek. A G200b csak egy időszakos megoldás, az 55nm a gyátás szempontjából több hibát eredményezhet, mint a 65nm, viszont kisebbek a chipek (kb. 400mm^2-esek) ezért több fér el a wafer-on. Mindent egybevetve a ki lehet hozni a waferból átlagosan 50 darab eladható chipet a G200b-vel ami 100 dolcsis árat eredményeznek egy chipen. Ez még mindig sok, de az irány az jó.
    Ez a GTX350 speckó azért nem lehet, mert a TSMC képességeinek is vannak határai, még akkor is ha övek a legfejlettebb gyártási üzem a piacon.
    A speckók alapján kb. reálisnak tűnik a 570mm^2-es érték a chipnek egy egy 5000 dolcsis wafer-ből megint 100 legyártható chipet eredményezne, viszont a selejtarány az 55nm-es technológia miatt megnő, így jó ha sikerül a wafer-ból 15-20 eladható chipet teremteni, így az egy chipre eső ár átlag 300 dolcsi lesz ami, durván feltételezi a 800-900 dolcsis végfelhasználói árat. Olyan ritka lenne a piaca a kártyának, hogy gyártani sem érné meg.

    Az Ati azért került vissza, mert most jött ki az R600 alapelvének előnye, ennek az a lényege, hogy minden szempontból egyenletes teljesítményt adjon le a kártya és a lehető leggazdaságosabb felépítéssel, kis befektetések árán lehessen növelni drasztikusan a teljesítményt. A G80 inkább időszakos rendszer, lényegében beáldozták az egyes eljárásokban elérhető sebességet (ugye a G8x/G9x-en a PipeGS és a sok Stream out adatot igényelő számítások elég mennek szarul), hogy az egyszerű számítások nagyon jól fussanak.
    Az AMD azért döntött jól az R600 architektúra mellett, mert a felépítése nagyságrendileg logikusabb és gazdaságosabb. Az RV770 másfél szeres tranyó többlettel megduplázta az RV670 teljesítményét. Ugyanerre a bravúrra az nV-nek meg kellett kétszerezni a tranyószámot. Gyártás szempontjából az architektúra most vált gazdaságtalanná az nV-nek. Amit anno "kispórolt" a G80-ból, most kell belepakolni, de a felépítés miatt aránytalanul nagy tranzisztortöbblettel jár ez az eljárás.
  • [HUN]FaTaL
    #535
    A kisebb chip kevesebbet fogyaszt, kevesebb hőt termel.

    Arról nem beszélve hogy jóval olcsóbb és nagyobb a kihozatali aránya :)
  • solo
    #534
    Hááááááát, azért, a 4850 az melegszik rendesen...Monnyuk 100% ra húzva a hűtőt egész elviselhető.
  • armageddon666
    #533
    Kisebb chip meg kevesebbet fogyaszt és kevesebb hőt termel, ezért nem kell annyira hűteni :P
  • solo
    #532
    Amúgymeg felesleges olyan kis chipeket gyártani.Nv jóltudja, hogy ha nagyobba chip nagyobb területen tudja eloszlatni a hőt, és ugye Így a hűtők nagyobb helyen veszik át a hőt.
    Értelemszerűen könnyebb hűteni.
  • armageddon666
    #531
    Amúgy ez a "Possible Specifications of the GeForce GTX 350" szvsz akkora kurvanagy hoax hogy nagyon :D GDDR5+512bit? :D meg nincs DX10.1? ... szal ez hihetetlennek tűnik számomra :\ ennyire nem lehetnek hülyék :P
  • MaSzKa
    #530
    és az új GT300-hoz hol van odaírva mekkora ez az fix érték

    mert az csak 576 sq.mm die area
    ezt emlegetik és messze van még a gyártástól

    ha az ati 570 akkor nem nagy az eltérés
  • solo
    #529
    LOL! MOst nézem, hogy ez nem is 380, csak 350 es nv :)
  • solo
    #528
    Naja, és az ember nemjátszok 24-22 órát.Szóval, az nv kevesebbet fogyaszt.
  • Abu85
    #527
    De az AMD nem 570mm^2-es chipeket gyártat. Ez nagyon sokat számít ám.
  • solo
    #526
    Naigen, itt megjelenik az amitől ez sokkal gyorsabb lesz a 4870 nél.Mert a 4870 nél kevés az az 256 bit a gddr5 mellé is .
    De majd meglátjuk milyen lesz az ati 5. széria.
  • armageddon666
    #525
    Én is úgy tudom hogy terhelve eléggé többet fogyaszt a GTX mint a 4xxx, 2Dben viszont pont fordítva van.
  • solo
    #524
    Dehogy fogyasztanak sokat: C
    Az ati is ~180 at eszik terhelve, 2d ben meg az vn ~20-30 at.
  • Abu85
    #523
    Beyond3D-re elég sok beavatott jár. Ott kell kapcsolatokat kialakítani. :)
  • MaSzKa
    #522
    pedig rég fel van

    * 55nm technology már fél éve gyártják az atikat vele
  • armageddon666
    #521
    Honnan kapod az ilyen füleseket ? O.o
  • Abu85
    #520
    Ez tuti kamu, a TSMC erre nincs felkészülve. Alig lenne 10-20 darab eladható chip egy 30centis wafer-ből. Ha keresni is akarnak vele akkor 800-900 dollár körül kell majd árulni.
  • Abu85
    #519
    Kaptam egy fülest, hogy az 55nm-es G200b lesz az utcsó nagy momolitikus chip amit kiadnak Desktop PC-be. Az ezt követő rendszer vélhetőleg kisebb chip lesz és az is elképzelhető, hogy lesz belőle GX2 változat. A DX11-ben pedig jön a Threaded Rendering szóval a skálázódás is meg lesz oldva. Ez elég reális elképzelés.
    Bár az lehet, hogy eredetileg nem így lett tervezve a dolog, de akkora árelőnye van az RV770-nek, hogy azt csak ilyen megoldással lehet leküzdeni.

    Kiszámolva az RV770 gyártási költsége negyede-ötöde a G200-nak. A G200b pedig csak arra lesz jó, hogy a chip gyártását 100 dolcsi alá nyomják. Ez még mindig a háromszorosa az RV770 árának.