41
-
mamo33 #41 ja! A memóriád szaladgál annyin maximum, nem a gpu core! Ne beszélj már hülyeségeket! -
mamo33 #40 Na az a hülyeség! Nálam minden fullra van állítva és akadás nélkül fut! Phenom II 940 3.4 ghz-n 4 gb kingston hyper x 1066mhz-n és egy sapphire toxic 4870 oc kártyával! -
#39 örülök is :) paradicsomos szecsó ami van előttem, nemá hogy ne örüjjek. órajelük is nagyon faja, bár a sajtnak kicsit több pár %-kal!
viccet félretéve, igen, rosszul értelmeztem. core clock miatt. nem fikázom én se az atit, se az adnrist se a csabit! győzzön a jobbik vagy a balik (nem politikai szlogen, de hát kisajatították már a nyelvet is maguknak a tolvajok... ) -
#38 más is bekerül, csak azok is fognak menni dx10.1-en, mint ahogy a compute shader is... -
#37 valahogy úgy. -
Vanek úr #36 Vagy csak jövőre. Pletykák kezdtek elterjedni először az NVIDIA GT300-as késéséről, majd most már az AMD/ATI-féle RV870-es késéséről is. Mindkettőnél azt írják, hogy idén nem várható, mert a TSMC-nél valami gyártásbeli gondok lehetnek. -
#35 nem jön nyáron, majd csak ősszel -
hol9672 #34 Nyáron jön a directx 11-es ATI, ami sokkal jobb lesz, szóval a legdrágábbat most biztos hoy nem érdemes megvenni. -
cateran #33 Mivel Core orajelrol szol a cikk,nem igazan ertem mit akarsz villogni a shaderrel....de orujjel nyugodtan...
(legalabbis a linkelt Atomic a Core-ra irja az 1 Ghz-et) -
wednes #32 Persze, hogy más a felépítése a 2 kártyának. Ezért is furcsa, hogy a Radeon GPU órajelét hasonlítod össze a Geforce shader órajelével.
Lehet, hogy neked a címmel volt bajod, hogy elérte az ATI az 1GHz-es határt, nem tudom. De GPU szinten azért 1GHz azért akkor se lebecsülendő. Persze nem világmegváltás, de nem is egy helyben topogás. Mivel a 4890 nem is új generáció, ahogy a nevében is benne van.
Az ATI fikázást az aláhúzott megjegyzésedből következtettem, ezek szerint tévesen ha nem annak szántad. -
tomcsa4 #31 Te keversz valamit. Radeonoknál a shaderek a GPU órajelein mennek. Azaz a cikkben 1 GHz-es shader órajel azt jelenti, hogy 1 GHz-es GPU lesz rajta. Ilyen nincs az NV-nél, sőt máshol sem.
Az, ohgy az NV a shadereit a GPU 2,5x-én hajtja, egy dolog. Nem a shaderről van szó a cikkben, hanem a GPU-ról. -
waterman #30 plussz a compute shader is bekerül az api-ba, hogy általános célú kódrészleteket is lehessen a gpu-n futtatni (gondolom azért lesznek megszorítások). -
#29 bocs, azthittem két emberke vagy. ugyhogy kicsit hülyén jött ki a válasz, de sztem letudod szűrni mit akartam kimakogni. ezt benéztem, vak voltam. bocs!
de attól még áll amit mondtam. -
#28 mondon shader órajel. nézzzé má utánna baszki. mivel atinál a GPU az az egész GPU-ra értendő, az NV-nél van a GPU clock (ropok, mag) meg van a shader clock. azt más órajelen hajtják (1,4-1,8ghz között általában). http://www.bfgtech.com/BFGR96512GTOC2E.aspx ilyenem van. (egyébként messze legjobb gyártó és pöpec). nézd meg: detailed specs: shader clock. 1750.
wednes: ne fikázon atit, hol fikáztam? csak annyit hogy azért ez nem olyan forradalmi újítás, már várható volt. -
wednes #27 Jaaj, tudom már mivel keverted a stream procik órajelével. Hát az teljesen más dolog ne keverd a GPU órajelével.
Úgyhogy ezt az ATI fikázást most erősen bebuktad. :P -
wednes #26 1750Mhz???
Hát ne haragudj de ezt nem tudom elhinni. A 750 hihetőbb. Lehet kevered a memória órajelével. Az ennél a kártyánál 4400Mhz. -
Lowosan #25 A Stalker is mocskosul leszívja a gépet -
tomcsa4 #24 DX10.1 a tesszelláció kivételével teljesen kompatibilis a Dx 11-el, legalábbis én így informálódtam. Szóval annyira nem fognak elavulni, mint a GF-ok. -
tomcsa4 #23 Fognak még fejlődni. Majd beindul a szerkezet.
Én inkább most arra vagyok kíváncsi, hogy a GT300 MIMD processzorai mennyivel lesznek jobbak, mint az Ati féle SIMD.
GeForce-ok nagyon sávszélesség-függők. Felépítésük miatt, ahogy lent is írták már. Ha most 512 bites memóriavezérlőkkel operálnának a Radeonokon, leeht nem lenen akkora teljesítménytöbblet, mint amennyivel megdrágítaná a fejlesztést. Biztos tudják ott a mérnökök, nem kell őket félteni. Ráadásul nem tervezik hosszú életűre a HD4-es már, most az a fontos, hogy a GDDR3+256 bites kártyákat lecserélik GDDR5+128 bitesre. Ezért van annyiféle Radeon, mint a szemét. De ez nem is baj. -
#22 gyerekek...most még bőven megéri egy 4870est megvenni...minek egy 4890? azé' hogy a f*s gétéá 4 jól fusson rajta...vagy hogy a krájzisz? és? több játékot nem is tudok ami úgy nagyon meghajtaná a gépeket... :) -
#21 szerintem meg azért felesleges összehasonlítani, mert a GPU egy céleszköz, grafikára van ráhegyezve, a CPU feladatait nehez(ebb)en hajtja végre és vica-versa.
a kavntum/biokémiai gépeket kell várni, azok lesznek még nagydurranások, bár egy darabig nem lehet majd krajzisz alá megvenni -
#20 ez miért olyan nagy cucc? az én húzott 9600GT-m 1750mhz-en szaladgál. mi olyan nagy forradalmi ebben az áttörésben? az NV meg külön órajelet lő be a magtól a gpu-inak, más a felépítése. MAXIMUM a radeonoknál nagy előrelépés az 1gigás határ, de az ipar számára semmiképp!
tomcsa4: ez így igaz, de azért mire bejönnek az új technológiák (igazi DX10/11-es játékok) a mai kártyákat dobhatod ki. mint ahogy larrabbee is elvileg raytracinges lesz, de mire RT-s gammák jönnek ki, larrabbee szart se fog érni. -
kvp #19 "egy gpu egy csöppet bonyolultabb mint egy fosp4 vagy az ibm kamufejlesztései"
Sokkal egyszerubb, csak tobb magot pakolnak egy szelet szilicumra. A gpu-k pont azert jobbak, mert egyszerubb szerkezettel, de tobb maggal rendelkeznek. A jelenlegi technologiai maximum egy risc-es vliw mag eseten (ilyenek vannak a gpu-kban is) 10 Ghz koruli. A P4-ek eseten pont az x86-os bonolultsaga tett be, amivel egy gpu eseten nem kell bajlodni. Az ibm fele cpu-k pedig jelenleg a mai konzolokat vezerlik, ahol 3.2 Ghz az alap es a power csaladban 8 Ghz korul van a maximum. Az intel eseteben most 3-4 Ghz korul vannak a core7-esek, de egyszerubb aramkorokat (pl. alu-kat) mar ok is tudnak 8 Ghz-es valtozatban gyartani, amit a p4-ek idejen meg is tettek. (nem ez tett be a csaladnak, hanem netburst hasznalata)
Egy gpu ma elvileg gond nelkul tudna 4 Ghz-en jarni, csak a hotermelest kellene visszafogni, ami a kisebb csikszelesseg miatt megdragitana az eloallitast. A kisebb csikszelesseg hasznalatara jelenleg csak a cpu gyartok hajlandoak. (pedig csak max. 40-50%-al vinne feljebb az arakat)
A jo hir az, hogy technologiailag a gpu-knak meg van hova fejlodni, csak kereslet es penz kerdese az egesz. -
#18 Csak nehogy terroristák kezébe kerüljön! -
Rexhawk #17 azért mert, az 512 bites adatbusz sokkal bonyolultabb, mint 256 bites és akkár kétszer ugynannyiba is kerülhet ráadásul úgy optimalizálják hogy a lehető legnagyobb sávszéllegéggel rendelkezzen, mert hiába lesz 249,6 GB/s-os adatátvitel a 4890es kártyádon nem lesz sokkal gyorsabb -
cipike #16 nah, egy sima mezei átlag felhasználónak aztán nagy szüksége van ilyen karira... főleg ha azt sem tudja, hogy az meg mi... -
Dany007 #15 Ja így már van benne valami ahogy mondod.
9 szériában csak az x2 nek van 512, de gondoloma az 2x256... 2:0 oda : P Legalább elismerem :)
Azt még mindig nem értem, ha már egyszer kész az 512-es technológia, akkor mért nem építik bele még azt is? Még nagyobb teljesítményt érnének el vele. Az h drágább egy dolog. Akinek mostanában van pénz egy 130-150 ezres csúcskártyára, annak 170 ezer is van rá. Már ha ekkora különbséget okozna a nagyobb memória interfész beépítése. -
#14 ez az agymenés hogy jött ide? egy gpu egy csöppet bonyolultabb mint egy fosp4 vagy az ibm kamufejlesztései... -
tomcsa4 #13 Igazából az NV mai játékoknak csinál kártyát, AMD meg a jövőnek. De az NV-k sincsenek még kifuttatva. Akármennyire utálom az NV-t, az a GTX 260-as jól sikerült (emelt shaderrel), de aki HD TV-hez vesz, vegyen inkább 20 ezerért Radeont, mint 150 ezerért NV-t, mivel az Atik 7.1-es hangot viszik a DVI-on kresztül, míg az NV-hez külön kábel kell, ráadásul csak 2.0-át tud. -
Riddick #12 Nekem 4830 am van. Hihetetlen jó kari! Első Ati-m,de a többi is az lesz tuti! 830on megy meghúzva speckó hűtéssel,és nagyon gyors! -
wednes #11 2 db 4890 CF-be már elviszi a Crysist is max grafikán 1080p felbontásba. Átlag 32FPS, valószínű azért befigyel jó párszor frame esés a minimum FPS miatt.
De a Cysis meg GTA miatt (amihez inkább CPU kell) gépet fejleszteni(szerintem) felesleges hiszen az 1 millás konfigon is csinálhatnak anomáliákat.
A fennmaradó játékokat meg 1db 4890 elviszi full HD-be. -
wednes #10 Van értelme, mert a memória sávszél a memóriabusz és az órajel szorzatából jön ki.
Pont a magasabb órajelekkel lehet ellensúlyozni a kisebb busz szélességet. Nem mellesleg ez az olcsóbb megoldás.
Memória sávszélesség 4890(alap)= 124800 MB/s 256bites busz
Memória sávszélesség GeForce GTX 260+= 111888 MB/s 448bites busz
Ezért van létjogosultsága a 128bites 4770-nek is.
(9-es szériából úgy tom nincs 512bites, csak 8-asból meg 200-asból) -
kissssss #9 van nem is egy pl:Crysis kiváló tech demo de ott van még a gta4 is -
kvp #8 A memoria 260 Mhz-en fut. A memoriabusz mar ennel 4-szer gyorsabban. A buszmeretet azert vettek kisebbre, mert a jelenlegi orajelen kepes annyi adatot atvinni mint egy ketszer olyan szeles, de fele akkora orajelu. A gpu belso orejele pedig most mar igazan elerheti az 1Ghz-et, amikor 10 Ghz a technologia maximuma (ibm) es meg az intel is kepes volt 8 Ghz-es chipeket gyartani. (a P4 alu egysegek a 4 Ghz-es kulso orajel duplajaval jartak) Ezek utan a gpu-k igazan hozhatnak a 2 Ghz-es alap orajelet, kulonosebb melegedes nelkul.
ps: Hogy mire jo? Peldaul tudomanyos szamitasokra, mint amilyenek a legtobb modern jatek fizikai motorjaban vannak. -
#7 nincs butítva... az ati kártyáknak teljesen más memóriakezelése van. 256bittel nagyobb átvitelre képesek mint egy gf 512bitessel. -
#6 De azért nem is érdemes erőművet építeni ;) -
who am I 7 #5 Igen, van Crysis, de azért nincs értelme erőművet építeni mert egy fos -
MrTressy #4 Pl Crysis, még pár évig nem lesz gép amivel teljes részletességel lehet futtatni -
#3 Lehet hogy egy kicsit elmaradott vagyok, de van olyan játék a piacon amiért igazán érdemes egy ilyen erőművet építeni ? -
turul16 #2 Memory Clock 1050MHz (4.2Gbps)
Nincs itt semmi 4200 Mhz csak Quad Data Rate.