46
-
Telpapa #46 "A grafikus kártya piac felét akarja az AMD"
Azt még talán,mert a proci piacon,ahoz hogy első legyen kell neki vagy 20 év...
Mellesleg amennyire elszurta az NV az utobbi 9 honapabban meg is értem az AMD álláspontját. -
dez #45 Nem a több "mag" volt ott a gáz, hanem hogy egy idő után nem újítottak rajtuk, csak a számukat növelték. -
dez #44 Aha, addig, amíg be nem jön jobban a fizika. :)
Nvidia - Physix... Talán hallottál róla. ATI kártyákon is megy, de nem hivatalosan, így Xbox360-on sem. Amúgy is erősen terheli a CPU-t is a GPU-s megoldásban (Cellen viszont szépen megy).
Az AMD az Intellel együtt inkább a Havok Physics-et támogatja, ami alapvetően CPU-ra alapozott cucc (*), nem csoda, hogy az Intel inkább ezt újította be a Larrabee-hez (ami egy CPU tömb, adott esetben GPU szerepben). Az AMD meg vélhetően a performance szegmensű Fusion, ill. a későbbi SSE5-ös CPU-ikhoz szánja. Hogy a GPU-ikon hogy megy, az kérdéses. Az meg főleg, hogy a Xenos-on.
* Nem keverendő a Havok FX-szel, ami direkt GPU-s gyorsítású volt, azonban erősen butított változatban. Egy ideje nincs is róla semmi hír. -
morden #43 Nem is olyan régen talán az sg.hu-n fórumoztak sokan arról , hogy az amd csődbe megy és minden az nvidiáé lesz és minden drága lesz , nagy szerencsénkre nem így lett ( ezt az üzenetet amd csipszettes amd procis amd vga segítségével gépeltem :D ) -
Xmas76 #42 A többmagost a Voodoo kezdte el erőltetni, majd halálakor szőröstül-bőröstül felvásárolta az nVidia. A T-buffer technológiákat is, amelyek az első moziélményszerű lehetőségeket biztosították az asztali szegmensben. Mégsem hozakodtak elő vele egyhamar, csak mikor már az ATi is hozta a saját változatait. -
Xmas76 #41 Az elfelejtettek és nincs idejük két külön fogalom. Gyakorlatilag a szoftverfejlesztés is már csak egy termelési iparág. Relative gyorsan kell elkészülj, optimalizációra egyszerűen nincs projekt keret sem idő, sem pénz tekintetében. -
Xmas76 #40 A visszafelé kompatibilitás egy egészen másik fogalom. Ne használjuk már buta helyeken... -
#39 x360 max a bluray hiánya miatt lesz bajban :) -
#38 3dfx is ugyanezt csinálta anno... nem volt rossz a hasonlat. és mellesleg akkor is az ati tört be a piacra :))) -
Gaboca76 #37 "ATI-ra váltottam: joggal! Az NVIDIA kezd voodoosodni. Leáldozóban csillaguk."
Valamilyen szinten igazad van!De ha csip félépítését nézed akkor tévedsz bandee1
mert a többmagos GPU az AMD-ATI kezdte el erőltetni de ők jól csinálják ez a különbség a két cég között én is egy ideig Nvidiás voltam de már a második kártyám hűtésével sz***k t***m kivan velük.Én csak az elhízott disznó effektus ként jellemzem ha már megszedtük magunkat nem kel gondolkodni tegyünk bele mindenből többet és agyuk el vadi új fejlesztés ként pedig csak a régit dupláztuk....Remélem lentebb engednek az arc bol! Nvidia -
dez #36 Nyilván nem mond semmit neked az, hogy RV770. -
GG #35 akarni a vécén kell, a valóvilágban, tenni is kellene valamit érte... :S -
bandee1 #34 Mindig is NVIDIA párti voltam, szinte az összes szériához volt szerencsém. Azonban Geforce 7 széria után már nem 8-ra, hanem ATI-ra váltottam: joggal! Az NVIDIA kezd voodoosodni. Leáldozóban csillaguk. -
chronos75 #33 ebből a notis gpu halálból (g84,g86) lesz még cirkusz.. bármennyire is tagadja az nvidia de ebből komoly anyagi és presztizsveszteséget lesz kénytelen elkönyvelni.. -
KasztnerTokman #32 Most nem azért de kitörölte ki a hozzászólásomat?
Nah ennyit az sg.hu-n ról én égetem magam itt hogy egyáltalán beirok a forumba. -
2504 #31 Most már tudom eddig csak körül belülre tudtam de már tom 100% mi van a boxban:D -
2504 #30 oké -
dez #29 pontosabban R7x0 -
dez #28 Szerinted már 3 éve kész volt az R700 (55nm-en ráadásul), ami csak most jött ki? Elvileg R500 a kódja, ami az R600 elődje (sokkal inkább, mint az R520, ami akkoriban PC-s vonalra jött).
Mint írtam, a PS3 RSX nevű GPU-jának alapja a 7900GT (G71@550MHz). (7800 = G70, ami még nagyobb csíkszélességgel készült, stb.) -
dez #27 Csak a felső kategóriások.
De amúgy is rossz ez az összehasonlítás, illetve esetleg a multiplatform cuccoknál van értelme. -
2504 #26 ha jól tom az X360 ban R700 alapu GPU van(az meg a 48xx sorozatú ati VGA alapú)
PS 3 meg tényleg egy 7800 GTX van de azt is nézni kell hogy nem PC VGA van a konzolokban:D -
#25 Az nem hozzá, sokkal gyorsabb is. Az x2xxx-es szériások is. -
Kovász #24 Ott van a kb. jel előtte.
De a lényeg, hogy egy ma már középkategóriásnak számító kártya (már egy HD3870-es is csak 25 ropi) hozza ezeknek a teljesítményét. -
#23 "ami x360-ba ill. PS3-ba van (ati ~HD 3650 ill. nv 7800GTX"
ezeket meg honnan vetted...? -
dez #22 PS3 esetén meg 7900GT. Nem olyan rossz azért ez sem, pár paraméterét a mai középkategória sem éri el.
Egy sima 2-magoson meg csak azok a játékok mennek, amik nem használják ki a Cellt.
Igaz, a multiplatformosok ilyenek -- legalábbis amíg el nem kezdik használni a Physix-et v. a Havokos fizikát, amik portolva vannak PS3-ra is. (Akkor az Xbox360 bajban is lesz.)
Bár a Physix most már megy GPU-s gyorsítással is, de a hírek szerint csak részben számol a GPU, a CPU-t is alaposan beterheli. -
#21 Ennél jobb már csak az lenne ,ha az AMD-nek sikerülni ugyanilyen meglepetést okoznia a cpu piacon is. Össze tudna ütni jobb áramkört 45 nm en mint a nahelem, akkor megint egyenesbe jöhetne a cég.
A cég mindig pulzált az életútján, időközönként mindig sikerül nagyot alkotnia, de már csak akkor ha halálfélelmei vannak a mérnökeinek,hogy meg fog szűnni a munkahelyük, akkor kapcsolnak rá csak. :(( Aztán évekig döglődnek :( -
Abu85 #20 Hát ha megnézzük, hogy milyen időtávra választotta ezt a kártyát akkor jó döntés volt, mert a Dynamic Branching miatt az x1600 már hozza a GF7900 teljesítményét is az új programokban (főleg Unreal Engine 3). Persze az tény, hogy ma már ez is kevés. -
#19 next gen konzolos vasra butítanak... ezt a hd 3650-et honnan vetted? Hol volt akkor még az... max x1000sorozat elődje -
Kovász #18 Optimalizálnak ők, csak a next-gen konzolos vasra:) Szal ha van olyan vidkarid, ami x360-ba ill. PS3-ba van (ati ~HD 3650 ill. nv 7800GTX), meg min. 2 magos procid, akkor simán mennek a játékok:) -
#17 erről beszélek. ez NEM optimalizáció -.- -
Gaboca76 #16 Hát ami a gép fejlesztést illeti kb 3-5 évente nem probléma ,szerintem a nagy átlagnak.Kb ennyi idő kel egy gép le amortizálódásának.Ezért aki a fejlesztést ésszel csinálja az egy sokáig használható gépet kap. -
Szefmester #15 nem felejtettek el optimalizálni csak éppen szerintük felesleges.. elkezdik megcsinálni x hardverre, mondván majd fél év és addigra lesz hozzá gép is -
#14 de sajnos kötelező, mert a csúnya programozó bácsik elfelejtettek az elmúlt években optimalizálni. minek, amikor úgyis pár hónap alatt elavul a legdurvább csúcskártya is? -
atomkrumpli #13 ha nem akarsz nem cserélsz, kivársz -
mcganyol #12 nem kötelező kártyát cserélni csak azért, mert elérhető nagyobb teljesítmény!
visszafelé azért ezek viszonylag kompatibilisek...szóval elvileg még egy jó darabig mindent elfuttathatsz rajta. egyébként az x1600 már akkor is gyenge kártyának számított amikor kijött. az hogy akkoriban nem 6600gt v 7300gt(ddr3) - t vettél, ugyanannyi pénzen csak magadra vethetsz :) -
feamatar #11 waaaaghhh, ne ijesztgess ilyenekkel, hogy gyorsabb legyen a fejlődés... örülök, hogy még a két éves x1600pro épp hozza a minimumot-mediumot közepesen, a fene akar olyan gyorsan kártyát cserélni. -
#10 Kiváló hír! Nagyon fontos, hogy erős konkurencia legyen! A 4850 pedig jelenleg kötelezően ajánlott választás.
-
dez #9 Tedd le az egeret, nem telefon. -
Gaboca76 #6 Nvidia elpuhult röfi ami jól megszedte magát és ellustult.
Remélem az AMD-ATI jó oda sóz neki hogy gyorsabb legyen a fejlődés!
Meg persze kevesebbéért adja a kártyáit!
Amúgy nvidiával nagyon elszaladt a ló!!Ez mutatja az árazása is...
Ellen példa az AMD-ATI ott viszonylag olcsón legalább olyan erős kártyákat gyártanak fele annyiért!! -
FlyingV #4 a helyesírásod megmutatja, mennyire mérvadó a véleményed.
hogy az aláírásodról már ne is beszéljünk.