Tovább csúszhatnak az AMD Phenomjai
Jelentkezz be a hozzászóláshoz.
#26
Ez rendben van, és most is ati-m van (1950pro), és jobb választás volt szerintem mint a 7900GS...annak idején.VISZONT:amiket néztem játékokban, ott a gt volt a jobb...és amiket játszanék abban is.Most azért mert majd 1-2 csiricsáré játék ami absolute dx10-es lesz, jobban fog futni valamivel...Meg ez is érdekes kérdés számomra.Milyen sebességet fog produkálni egy 3870 komolyabb dx10-es játékokkal?30-40 fps 1920ban?Kétlem..fõleg, hogy még mindig NINCSENNEK komoly full dx10es gamék, arról nem is beszélve, hogy egyre több a szar, csak a grafikára mennek rá.krizissel pl 1 órát játszottam aztán delete.Meguntam ennyi.egy kupac kaki,cserébe szép..Szóval, nekem nem csak azt kell, figyelni, hogy mit tömködnek bele technikailag, hanem a gyakorlati hasznát is...és most abban a 8800GT a jobb.HA viszont jön a köv. generáció, és tényleg az ATI-é a kiforrottabb, jobban dx10hez alkalmazkodó technológia akkor õket választom..talán a köv. generációs kártyákon, futni fog normálisan a dx10 is..szerintem ezeken a 3870on meg 8800akon inkább csak, "demo" jellegû a dolog..Persze, maximális részletességre gondolok.Mert Low-ban 1024-ben gondolom, menni fognak jól.
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
#22
az TÉNY, hogy az nVIDIA támogatja azokat a fejlesztõket, akik direkt optimalizálnak az õ kártyáikra a sebességen..
Blackmail the Universe
#21
mellesleg még mindig van ATI kártyás Mac ;)
Blackmail the Universe
#20
és abban mi van?:)
Blackmail the Universe
#19
Ezek nem kifogások, pusztán segítek felfogni a jelenlegi helyzetet. Engem közel sem érdekel melyik VGA-t veszed, pusztán közlöm melyik a jobb technika. Egy átleg júzernél talán többet értek hozzá, így még számíthat is valamennyire a véleményem.
Jatékoknál meg ven jópár ellenpélda is. Ott Call Of Juarez DX10. Az támogatja a legjobban az új API elveit, rögtön nem ezek az eredmények, és még csak a töredékét használták a fejlesztõk a DX10-nek.
Vagy ott a Hellgate London, annak a játéknak a fejlesztésébõl teljesen kizárták az AMD-t. Én röhögtem a legnagyobbat itthon amikor láttam, hogy a 3870-en jobban fut a játék, mint a 8800GT-n amire gyakorlatilag optimalizálva van.
Lehet optimalizálni egy-egy hardverre de ha a GF8 stiklijei elõjönnek, onnantól kezdve semmi nem ment meg a teljesítmény drasztikus esésétõl.
Az sem mellékes, hogy a Microsoft sincs kényelmes helyzetben. Elsõdlegesen õ a célpont azokért a problémákért ami mostanában (pl.: a Crysis gépigénye kapcsán) elõjött. Szar az API? ... Rosszak az irányvonalak? ... Egyik sem nyerõ feltételezés. Kivételesen nem Bill-ék rontották el a dolgokat. Az nV nem követte azokat az elveket amiket a DX10 letett. Az AMD/Ati sok rosszat nem csinált pusztán elõállt egy nem csak papíron DX10-es hardverrel. Azóta nV sikeresen meggyõzte a fejlesztõket (az hogy most pénzzel vagy anélkül, lényegtelen) az õ kártyáik támogatásáról, és kész a baj. A DX10 elvei ugyanis nem azért olyanok amilyenek, tökéletesen tudták az API kidolgozói, hogy csak az új elvek támogatásával lesznek egykártyás rendszereken játszhatók az olyan grafikájú programok, mint a Crysis.
A DX10.1 is olyan dolgokat vezet be amik rákényszerítik az nV-t az architektúra változtatására. Lehet kiindulási alap a G80 architektúra, de át kell gondolni, hogyan legyen hatékonyan tárolni a Stream output (a Cube map tömbök kezelése lesz az érdekes, ez már tényleg képtelenség a G80-on, gyakorlatilag a TCP-nek már egy mûködõ Stream proci mellett is memóriát kell használnia). Kicsit olyan dolog ez, mint a Dynamic Branching GF6-7 architektúrán (sokkal durvább formában), tudni tudja csak hát használhatatlan.
Az is kérdés még, hogy a Gather4 miatt mennyi textúraszûrõt kell majd feláldozni.
Jatékoknál meg ven jópár ellenpélda is. Ott Call Of Juarez DX10. Az támogatja a legjobban az új API elveit, rögtön nem ezek az eredmények, és még csak a töredékét használták a fejlesztõk a DX10-nek.
Vagy ott a Hellgate London, annak a játéknak a fejlesztésébõl teljesen kizárták az AMD-t. Én röhögtem a legnagyobbat itthon amikor láttam, hogy a 3870-en jobban fut a játék, mint a 8800GT-n amire gyakorlatilag optimalizálva van.
Lehet optimalizálni egy-egy hardverre de ha a GF8 stiklijei elõjönnek, onnantól kezdve semmi nem ment meg a teljesítmény drasztikus esésétõl.
Az sem mellékes, hogy a Microsoft sincs kényelmes helyzetben. Elsõdlegesen õ a célpont azokért a problémákért ami mostanában (pl.: a Crysis gépigénye kapcsán) elõjött. Szar az API? ... Rosszak az irányvonalak? ... Egyik sem nyerõ feltételezés. Kivételesen nem Bill-ék rontották el a dolgokat. Az nV nem követte azokat az elveket amiket a DX10 letett. Az AMD/Ati sok rosszat nem csinált pusztán elõállt egy nem csak papíron DX10-es hardverrel. Azóta nV sikeresen meggyõzte a fejlesztõket (az hogy most pénzzel vagy anélkül, lényegtelen) az õ kártyáik támogatásáról, és kész a baj. A DX10 elvei ugyanis nem azért olyanok amilyenek, tökéletesen tudták az API kidolgozói, hogy csak az új elvek támogatásával lesznek egykártyás rendszereken játszhatók az olyan grafikájú programok, mint a Crysis.
A DX10.1 is olyan dolgokat vezet be amik rákényszerítik az nV-t az architektúra változtatására. Lehet kiindulási alap a G80 architektúra, de át kell gondolni, hogyan legyen hatékonyan tárolni a Stream output (a Cube map tömbök kezelése lesz az érdekes, ez már tényleg képtelenség a G80-on, gyakorlatilag a TCP-nek már egy mûködõ Stream proci mellett is memóriát kell használnia). Kicsit olyan dolog ez, mint a Dynamic Branching GF6-7 architektúrán (sokkal durvább formában), tudni tudja csak hát használhatatlan.
Az is kérdés még, hogy a Gather4 miatt mennyi textúraszûrõt kell majd feláldozni.
#18
"Megfelelõ anyagi ellenszolgáltatás fejében én is elhiszem, hogy jobb a GF8."
Jah kérem, önigazolást és ideológiákat, akár összeesküvés elméletet látom, lehet ám bõszen gyártani a hõn bálványozott hardverekhez.
Csak a gyakorlatban csúnyán bukhat az egész elmélet. Ráadásul nagggyon csúnyán.
Jah kérem, önigazolást és ideológiákat, akár összeesküvés elméletet látom, lehet ám bõszen gyártani a hõn bálványozott hardverekhez.
Csak a gyakorlatban csúnyán bukhat az egész elmélet. Ráadásul nagggyon csúnyán.
#17
És akkor majd az összes játékra lesz ilyen kifogásod abu?Végülis az amd kúrva gyórs lenne, csak GYAKORLATILAG nem így van....Mi az istennek vegyek HD radírt?Azért mert AMÚGY qva gyórs lenne?Csak most épp ezé meg azé a gt sokkal gyorsabb omg ..jah, igen.
FX6300 4.5G " GTX1070 " DDR3 2000 CL9 " CTG 550W80P
#16
Úgy vontál le következtetést, hogy nem tudod az okát, miért ilyen az AMD eredménye.
Az GOW-ban valamivel alacsonyabb az Alu:Tex arány, mint a Bioshockban, ez nincs pozitív hatással a Radeonra. A DX10-es Bioshock eredménynek pedig az az oka, hogy a fejlesztõk a textúrázásnál, többcsatornás Int16 formátumot használtak, ami nagyon tetszik a GF-nek, de nagyon nem szereti a Radeon (a Lost Planet-nél is ez van). Ez némiképp magyarázza, hogy miért jó a Radeon a Dx9-es módban a fenti két proginál, ugye ilyenkor nincs int16 formátumra lehetõség, szóval marad az Int8. Pénzzel bármire rávehetõk az emberek, fõleg egy olyan projekt-nél ami eszi a lét.
Megfelelõ anyagi ellenszolgáltatás fejében én is elhiszem, hogy jobb a GF8. Azt viszont nehezen fogom elhinni, hogy az uralkodó formátum a D3D10-nél az Int16 lesz, fõleg látva a karik FP16/32-es teljesítményét.
Az GOW-ban valamivel alacsonyabb az Alu:Tex arány, mint a Bioshockban, ez nincs pozitív hatással a Radeonra. A DX10-es Bioshock eredménynek pedig az az oka, hogy a fejlesztõk a textúrázásnál, többcsatornás Int16 formátumot használtak, ami nagyon tetszik a GF-nek, de nagyon nem szereti a Radeon (a Lost Planet-nél is ez van). Ez némiképp magyarázza, hogy miért jó a Radeon a Dx9-es módban a fenti két proginál, ugye ilyenkor nincs int16 formátumra lehetõség, szóval marad az Int8. Pénzzel bármire rávehetõk az emberek, fõleg egy olyan projekt-nél ami eszi a lét.
Megfelelõ anyagi ellenszolgáltatás fejében én is elhiszem, hogy jobb a GF8. Azt viszont nehezen fogom elhinni, hogy az uralkodó formátum a D3D10-nél az Int16 lesz, fõleg látva a karik FP16/32-es teljesítményét.
#14
Az összes többmagos processzor 64 bites (kivéve a CoreDuo-t).
"hozzáteszem én intel-t és nvidia-t fogok venni az új gépembe" "Venni", "gépedbe"? Azt hittem Apple fan vagy, ott meg nem is igazán van beleszólásod a dolgokba...
"hozzáteszem én intel-t és nvidia-t fogok venni az új gépembe" "Venni", "gépedbe"? Azt hittem Apple fan vagy, ott meg nem is igazán van beleszólásod a dolgokba...
/*WTF?!*/
#13
Ha az AMD becsodol, akkor az Intel megszivja. Kap egy antitroszt pert, es feldaraboljak.
Az intelnek az a jo, ha van AMD de csak olyan 20%os reszesedessel.
Az intelnek az a jo, ha van AMD de csak olyan 20%os reszesedessel.
Save yourself a penny for the ferryman Save yourself and let them suffer
#12
A HD Radeonokkal nincs semmi probléma, kegyetlen erõsek, fõleg a D3D10-es programokban.
#11
Szerintem csak az Opteronoknál szükséges javítani a felfedezet TLB-re vonatkozó hibát. Az asztali szegmens lényegtelen ebbõl a szempontból, fõleg úgy, hogy a K10-nek még normális dokumentációja sincs.
Az új procik hemzsegnek a hasonló hibáktól, a Core 2-nek és a K8-nak is volt rengeteg.
Az új procik hemzsegnek a hasonló hibáktól, a Core 2-nek és a K8-nak is volt rengeteg.
#10
Mi a baj az amd-vel ? Most ne azt mondjátok hogy 2fps-vel lassabb a quake-ben.
#9
A csõdöt azért nem fogadnám le, bárhogy alakul is a következõ 2 év.
Voltak már jópár éves veszteséges idõszakai a cégnek. Ahhoz képest most még jól is állnak.
Voltak már jópár éves veszteséges idõszakai a cégnek. Ahhoz képest most még jól is állnak.
#8
az intel quad core 64 bites?
AMD: az elkövetkezendõ 2 évben dõl el, hogy megáll-e az informatikai forradalom=becsõdöl-e az AMD, avagy sem.. hozzáteszem én intel-t és nvidia-t fogok venni az új gépembe.. annyira nem jók az AMD cuccai, hogy az valami szörnyû, pedig nagy atis/amds voltam (vagyok), de ... :(
AMD: az elkövetkezendõ 2 évben dõl el, hogy megáll-e az informatikai forradalom=becsõdöl-e az AMD, avagy sem.. hozzáteszem én intel-t és nvidia-t fogok venni az új gépembe.. annyira nem jók az AMD cuccai, hogy az valami szörnyû, pedig nagy atis/amds voltam (vagyok), de ... :(
Blackmail the Universe
ez így igaz. Én meg nem tudom, hogy hol vannak most azok, akik eddig arról ugattak, hogy de bezzeg az intel quad-jai csak összehegesztett 2 magos szarok és nem nativ 4 magos procik. Ha ez igy megy tovább, hamarabb lesznek elérhetõek az intel 4 magosai.
#6
Amire az AMD feltornázza a négymagosok teljesítményét az Intel már minden fronton rájuk ver egy kört. Épp most néztem az árakat és a készleteket, négymagos Xeon-okkal és Quad Core-okkal tömve van a piac, Phenom és Opteron hiánycikk.
#4
Már lassan az az érzésem, hogy nem is akarják behozni az Intelt.
A múltkori hír után, hogy az Intel új procijai csúsznak, azt hittem kicsit hozhat rajtuk az AMD...
A múltkori hír után, hogy az Intel új procijai csúsznak, azt hittem kicsit hozhat rajtuk az AMD...
#3
:)
Remélem lesz valami abból árcsökkentésbõl és talán 40k körül is hozzá lehet jutni nemsokára egy Phenom 9500-hoz. Csak így lenne versenyképes. TLB bugtól meg pc-ben nem kell parázni annyira. 2.2V ram fesznél nagyobbat nem szabad állítani, mert kampec a phenomnak. Ha ezt az idõszakot valahogy átvészelik, 45nm-en már jobb lesz a helyzet, utána meg jönnek az újabb amd cpu-k.
Remélem lesz valami abból árcsökkentésbõl és talán 40k körül is hozzá lehet jutni nemsokára egy Phenom 9500-hoz. Csak így lenne versenyképes. TLB bugtól meg pc-ben nem kell parázni annyira. 2.2V ram fesznél nagyobbat nem szabad állítani, mert kampec a phenomnak. Ha ezt az idõszakot valahogy átvészelik, 45nm-en már jobb lesz a helyzet, utána meg jönnek az újabb amd cpu-k.
#2
Állítólag Duke Nukem Forever-t is adnak majd hozzájuk :)
#1
Az AMD már megint maga alatt vágja a fát. Az Intel meg lassan átviszi a kétmagosokat az alsó kategóriába.