2319
-
#558 Te vagy a kisebbség. Nyomod örökké, hogy a GTX 280 milyen jó, közben meg egy nagy szar elavult féltégla. Aki normálisan gondolkozik az most ATI-t vesz. -
#557 Oridzsinál reklám szöveg: D
-
#556 "Hát akkor az olyan mint a DX9 a radeon 9200-ban. Van de minek? ~~"
Olyan, mint a DX10 a 8400GS-ben. Van, de minek? -
palm pilot #555 Jó, hát vannak ilyen solten féle elbotultak, de azok a kisebbség. -
palm pilot #554 max. lassaban a shader teljesítmény kárára
Hát akkor az olyan mint a DX9 a radeon 9200-ban. Van de minek? ~~ -
palm pilot #553 Pedig de. -
#552 pedig nem így van
mert vannak olyanok akik kimondottan csak 1 márkát hajlandóak venni
pl nvida ha szar akkor is pl FX5200 -
Abu85 #551 A DX11 működéséről semmit nem lehet tudni ... így arra sem nagyon lehet válaszolni, hogy mi lesz kompatibilis a régebbi rendszerekkel.
Alapvetően a DX10 megreformált alapja szerintem a teljes DX API történelmének utolsó ráncfelvarrása volt. A későbbiekben teljesen megváltoznak a dolgok. Bizonyos szinten visszatér a szoftveres renderelés (a next gen konzolok is erre mennek majd el - a köv. xBox-ba például egy AMD Fusion rendszert várnak az okosok). Egyszerűen az lesz, hogy a komolyabb szakemberek mint Sweeney vagy Carmack megírják a saját kis render rendszerűket ami a CPU és a GPGPU erőforrásait közösen használja majd a képkockaszámításhoz. A grafikus API-k jelentősége visszaszorul, persze még így is sokan fogják használni ezeket, de a top projectekre nem ez lesz jellemző. -
Abu85 #550 De az nV más piacokra koncentrál. Azért nem adja le a G80 architektúrát, mert GPGPU-ba teljesen megfelel. Emellett az nV úgy rendezkedett be az elmúlt években, hogy a PC-s High-End VGA piac teljesen beáldozható lesz. -
Inquisitor #549 "Ezért nyomja mindegyik a csúcskategóriát"
Na ez viszont most fog megváltozni. A gyártó oldaláról eszement pénzpazarlás.
"A Windows7-tel meg jön a DX11, lehet elkezdeni arra gyúrni, a DX10 meg nemsoká mehet a lecsóba, aztán senkit se fog érdekelni hogy ki lett volna benne a jobb"
Ha hihetünk azoknak akik ezzel foglalkoznak, akkor a DX11 inkább lehetne DX10.2, másrészt elvileg az összes DX10/10.1 kártyán menni fognak a "trükkjei", max. lassaban a shader teljesítmény kárára. -
Inquisitor #548 De sajnos így van. Ehhez hasonló idióta jelenség, hogy pl. alaplapot vagy procit sokan a "jóhíre" alapján veszik meg, ami meg egyenes arányban van a tuningolhatósággal, és ezzel az az egy baj, hogy aki így vásárol, azok 99%-a nem tuningol vagy azt se tudja mi az. -
#547 hanem a csúcskártyák teljesítménye alapján ítélnek a vásárlók
ez nem így van -
#546 Igen... csak nVidia mivel nem gyúr rá (sokak szerint nem tudnak), ezért a játékfejlesztők nem fejlesztenek rá, így nVidiának nem is kell rágyúrnia... Ez jó mindenkinek, kivéve nekünk, játékosoknak ^^ Hülyén nézne ki ha egy előző generációs ATI kártyával annyi FPS lenne egy valódi-DX10-s játékban az FPSünk mint mondjuk egy GTX260-nal... (durva példa, csak szemléltetés) -
palm pilot #545 Azért fontos, mert nem a középkategóriás, hanem a csúcskártyák teljesítménye alapján ítélnek a vásárlók. Nem olvassák el a tesztet hogy most a GT vagy GS jobb, meg hány MHz a core és mem, csak annyit hogy az egyik csúcskártya lenyomta a másikat, akkor biztos ugyanaz a felállás alsóbb szinteken is. Ezért nyomja mindegyik a csúcskategóriát. -
palm pilot #544 DX10 játékokban is jobb az nvidia, persze erre mindig jön a válasz hogy az nem is igazi DX10, de ati-s DX10 játékok meg valahogy nem nagyon léteznek. Tehát sokat nem veszt azzal az nvidia hogy nem támogat valóságban szinte nem is létező szabvámyokat. A Windows7-tel meg jön a DX11, lehet elkezdeni arra gyúrni, a DX10 meg nemsoká mehet a lecsóba, aztán senkit se fog érdekelni hogy ki lett volna benne a jobb. -
#543 Arról nem beszélve hogy a csúcskártya nem feltétlen meghatározó. Minek vennél 200k-ért egy kártyát, mikor 10FPSsel kevesebbel elviszi a legkeményebb játékot is egy 50k-s? (feltéve ha játékra kell neked)
Szerintem a középmezőny, esetleg a felsőközép sokkal fontosabb, és a bevételek nagyobb részét teszik ki mint a Hi-end cuccok :\ Én ha tehetem nVidiát veszek, de perpillanat ha nem 8800GT-m lenne, és vásárlás előtt állnék akkor HD4850/HD4870-t vennék. -
#542 De mivel ATIAMD nem tud "kibekkelni", ezért rá vannak kényszerítve hogy kicsit odafigyeljenek... GTX 280 erősebb, de szerintem egyáltalán nem jobb... Egy elavult technológiát nyomatnak a végsőkig, ameddig bírja. És ők is látják hogy elkúrták... (ld. árcsökkenés, meg 1-2 gyártónál a visszatérítés vagy mi) -
palm pilot #541 Azonban az Nvidiának van pénze, ami nem mondható el az ati felvásárlásával kifulladt amd-ről. Ugyanúgy ki tudna bekkelni egy szar szériát mint az intel a p4-el, míg az amd ugyanebbe pikpak belenukna. És hiába a játék a %-okkal, az Nvidia csúcskártyája (G280) jobb, és több tartalék van benne mint az amd - így is csak a csaló béta driverekkel "optimalizált" - gyengébb kártyáiban, az amd csak dupla kártyás megoldásaival tudja tartani vele a lépést. Nem kell félteni az Nvidiát. ^^ -
Puhos #540 Megjelent, árat itt találsz, igen van itthon is! -
kemencebalázs #539 ez a krtya mi jelenik meg, hány örakkor menyi ára lesz,van ithon is? -
#538 talán nv is rájön hogy magassak az árai..... -
#537 így már mindent értek!
Amd egész jól taktikázik:" vegyél két 4850-st és tudja azt amit a 280,és még jobban is jársz, és esik az ára ami 280-ról nem mondható el egyenlőre..." -
Abu85 #536 Az RV770 mérete 250mm^2 körül lehet. De sokkal lényegesebb, hogy egy waferről mennyi chip adható el.
Mindkét cég 300mm-es waferrel dolgozik, ennek ára 5000 dollár körül van.
Egy ilyen waferről kb. 100 darab G200-at, míg RV770-ből 250 darabot lehet gyártani. De a legyártott chipek egy bizonyos része hibás lesz így nem lehet eladni. A G200 65nm-en átlagban 30-35%-os kihozatallal készül azaz átlagosan 30-35 chip adható el egy 5000 dolcsis vafer-ből. Ergo egy eladható chip ára kb. 130-140 dolcsi. Az AMD 55nm-en 70%-os hatékonyságot is elér a kisebb méretek miatt, így kb. 25-30 dollár egy RV770 ára. Ezek mellett a G200 30%-al gyorsabb RV770-nél, gondolom látod mi a baja az nV-nek. A G200b csak egy időszakos megoldás, az 55nm a gyátás szempontjából több hibát eredményezhet, mint a 65nm, viszont kisebbek a chipek (kb. 400mm^2-esek) ezért több fér el a wafer-on. Mindent egybevetve a ki lehet hozni a waferból átlagosan 50 darab eladható chipet a G200b-vel ami 100 dolcsis árat eredményeznek egy chipen. Ez még mindig sok, de az irány az jó.
Ez a GTX350 speckó azért nem lehet, mert a TSMC képességeinek is vannak határai, még akkor is ha övek a legfejlettebb gyártási üzem a piacon.
A speckók alapján kb. reálisnak tűnik a 570mm^2-es érték a chipnek egy egy 5000 dolcsis wafer-ből megint 100 legyártható chipet eredményezne, viszont a selejtarány az 55nm-es technológia miatt megnő, így jó ha sikerül a wafer-ból 15-20 eladható chipet teremteni, így az egy chipre eső ár átlag 300 dolcsi lesz ami, durván feltételezi a 800-900 dolcsis végfelhasználói árat. Olyan ritka lenne a piaca a kártyának, hogy gyártani sem érné meg.
Az Ati azért került vissza, mert most jött ki az R600 alapelvének előnye, ennek az a lényege, hogy minden szempontból egyenletes teljesítményt adjon le a kártya és a lehető leggazdaságosabb felépítéssel, kis befektetések árán lehessen növelni drasztikusan a teljesítményt. A G80 inkább időszakos rendszer, lényegében beáldozták az egyes eljárásokban elérhető sebességet (ugye a G8x/G9x-en a PipeGS és a sok Stream out adatot igényelő számítások elég mennek szarul), hogy az egyszerű számítások nagyon jól fussanak.
Az AMD azért döntött jól az R600 architektúra mellett, mert a felépítése nagyságrendileg logikusabb és gazdaságosabb. Az RV770 másfél szeres tranyó többlettel megduplázta az RV670 teljesítményét. Ugyanerre a bravúrra az nV-nek meg kellett kétszerezni a tranyószámot. Gyártás szempontjából az architektúra most vált gazdaságtalanná az nV-nek. Amit anno "kispórolt" a G80-ból, most kell belepakolni, de a felépítés miatt aránytalanul nagy tranzisztortöbblettel jár ez az eljárás. -
#535 A kisebb chip kevesebbet fogyaszt, kevesebb hőt termel.
Arról nem beszélve hogy jóval olcsóbb és nagyobb a kihozatali aránya :) -
#534 Hááááááát, azért, a 4850 az melegszik rendesen...Monnyuk 100% ra húzva a hűtőt egész elviselhető. -
#533 Kisebb chip meg kevesebbet fogyaszt és kevesebb hőt termel, ezért nem kell annyira hűteni :P -
#532 Amúgymeg felesleges olyan kis chipeket gyártani.Nv jóltudja, hogy ha nagyobba chip nagyobb területen tudja eloszlatni a hőt, és ugye Így a hűtők nagyobb helyen veszik át a hőt.
Értelemszerűen könnyebb hűteni. -
#531 Amúgy ez a "Possible Specifications of the GeForce GTX 350" szvsz akkora kurvanagy hoax hogy nagyon :D GDDR5+512bit? :D meg nincs DX10.1? ... szal ez hihetetlennek tűnik számomra :\ ennyire nem lehetnek hülyék :P -
#530 és az új GT300-hoz hol van odaírva mekkora ez az fix érték
mert az csak 576 sq.mm die area
ezt emlegetik és messze van még a gyártástól
ha az ati 570 akkor nem nagy az eltérés -
#529 LOL! MOst nézem, hogy ez nem is 380, csak 350 es nv :) -
#528 Naja, és az ember nemjátszok 24-22 órát.Szóval, az nv kevesebbet fogyaszt. -
Abu85 #527 De az AMD nem 570mm^2-es chipeket gyártat. Ez nagyon sokat számít ám. -
#526 Naigen, itt megjelenik az amitől ez sokkal gyorsabb lesz a 4870 nél.Mert a 4870 nél kevés az az 256 bit a gddr5 mellé is .
De majd meglátjuk milyen lesz az ati 5. széria. -
#525 Én is úgy tudom hogy terhelve eléggé többet fogyaszt a GTX mint a 4xxx, 2Dben viszont pont fordítva van. -
#524 Dehogy fogyasztanak sokat: C
Az ati is ~180 at eszik terhelve, 2d ben meg az vn ~20-30 at. -
Abu85 #523 Beyond3D-re elég sok beavatott jár. Ott kell kapcsolatokat kialakítani. :) -
#522 pedig rég fel van
* 55nm technology már fél éve gyártják az atikat vele -
#521 Honnan kapod az ilyen füleseket ? O.o -
Abu85 #520 Ez tuti kamu, a TSMC erre nincs felkészülve. Alig lenne 10-20 darab eladható chip egy 30centis wafer-ből. Ha keresni is akarnak vele akkor 800-900 dollár körül kell majd árulni. -
Abu85 #519 Kaptam egy fülest, hogy az 55nm-es G200b lesz az utcsó nagy momolitikus chip amit kiadnak Desktop PC-be. Az ezt követő rendszer vélhetőleg kisebb chip lesz és az is elképzelhető, hogy lesz belőle GX2 változat. A DX11-ben pedig jön a Threaded Rendering szóval a skálázódás is meg lesz oldva. Ez elég reális elképzelés.
Bár az lehet, hogy eredetileg nem így lett tervezve a dolog, de akkora árelőnye van az RV770-nek, hogy azt csak ilyen megoldással lehet leküzdeni.
Kiszámolva az RV770 gyártási költsége negyede-ötöde a G200-nak. A G200b pedig csak arra lesz jó, hogy a chip gyártását 100 dolcsi alá nyomják. Ez még mindig a háromszorosa az RV770 árának.