94
-
#94 Az ember szeméjisége talán viták közben bontakozik ki legjobban, és előbb utóbb a legtöbb ilyen hírhez elfogy az értelmes okosság (hisz a hír nagy része is találgatás és feltételezés), így nem marad más, mint ugyanazt 5-6X végigvitatni. Tudja mindenki, hogy semmi értelme, de valamilyen szinten ez is szórakozás. -
sniper #85 Te most komolyan gondoltad hogy ennek van vmi koze a gf4hez vagy az opengl jatekokhoz? -
sniper #84 "#73: Doom3, mint OpenGL?... minden nap megtudok valami alapveto igazsagot
MegaLOL, bakker :D"
Epp ideje volt felvilagosulnod. Az IDSoft mindigis OpenGLt hasznalt a jatekaihoz, nehez lehetett elkerulnod ezeket... -
#82 Hát pedig én is úgy emlékszem, hogy az! -
#81 szerintem meg ezek a dolgok abszolut lenyegtelenek
nem fogok 100e folott kolteni grafgkartyara, akar dx9-es is lehet tolem, a Far Cry-t meg ki nem szarja le
ebbol a penzbol annyi mas, ertlmes dolgot lehet venni
vegul: nem a jatek grafikaja donti el, jo-e egy jatek vagy sem. -
sniper #73 Tokmind1 hany d3d-s jatek van, amig opengl-ben olyanok jonnek mint a doom3, addig akkor is fontos tenyezo marad ha 1edul lesz (nem lesz).
Nem erdekes hogy az fx ujabb mint a gf4, csak az hogy melyik a jobb. -
Power #71 Közben megint kiderül, hogy 16 tulajdonképp csak 8x2 :) -
#70 Valaki már biztos nagyon rá lehetett izgulva az új cuccra, hogy elsők közt rakhatja majd be a gépébe, és annyira kapkodhatott hogy véletlenül úgy próbálta a helyére erőltetni a gépben, hogy félrecsúszott, és elhajolt. Csórikám nem jött rá, hogy talán fel kellett volna tenni a szemüveget, és szépen a helyére igazítani. De gondolom nem volt szüksége arra, hogy bekapcsolja a gépet, mielőtt írt róla valahova egy szép kis 2 oldalas fennkölt ódát valamelyik újságnak, hogy mekkora isten, és mire végzett a gépeléssel, már vissza is kellett adnia, és nem volt ideje kikalapálni a garázsban. (na most előre is bocs a tesztelőktől!) Vagy egyszerűen csak így csusszant le a gyártósorról, de lehet, hogy leejtette valaki nagy izgalmmában, van utálatában. -
#68 Jöjjenek ezek a kareszok minél elöbb!
Legalább lejjebbmennek az árak! -
sniper #63 Mellesleg gf4rol volt szo, nem gf fxrol. -
sniper #62 Legalabbis DirectXben. OpenGLben viszont nem. -
sniper #56 Ugyanezt mondta a 3dfx a 32 bitre. Aztan csodbe ment. -
sniper #55 Most neztem az apronetet, 19 rongyert volt egy gf4 ti4200, es ugyanennyiert egy radeon 9600se. Asszem nem 2seges melyiket veszi az ember... -
sniper #54 "Az egyedüli valóban DX9 progi jeleneg a FarCry."
Akkor mirol is beszelunk? 1 epphogy megjelent jatek miatt veri a sok ATI fan a DX9-re magat mar vagy 1 eve? -
sniper #53 ...kiegeszitve azzal hogy mi a kulonbseg a pixel + vertex shader 2.0 es 3.0 kozt. -
sniper #52 "Hiába fogja például az NV40 a ps3.0-t támogatni, mire azt használni fogja valami program, addigra az NV40 _teljesítménye_ viszont már nem lesz elegendő. Ezért felesleges feature ez egy mostani kártyába."
Ugyanez van most a DirectX 9-el es a radeonokkal! De azert veri mindenki a nyalat a DX9 jatekokra... -
sniper #51 Akkor meg nem kellett volna eddig verni a nyalat az ATI kartyakra, nem gondolod? 1szer szamit a technika, masszor meg nem? Nehogymar a markanevhez igazitsuk a szeljarast... -
#49 inkabb meggyozo ps/vs 2.0 teljesitmeny, mint ki sem hasznalt ps/vs 3.0. Egyebkent meg aki utanaolvas, meg fogja latni, h azok az effektek, melyekhez ps/vs3.0 kell a mostaniaknal 5x gyorsabb hardveren sem eleg gyorsak, h rendesen hasznalhatoak legyenek. Majd 1-2 generacio mulva ... ez olyan, h inditsd el a farcry t geforce3mason, az is dx8, de .... :)
siman eleg lesz, ha a jovo tavasszal megjeleni RV5xx tudni fogja ... -
Borg #46 A hw fórumban több infót fogsz találni ehhez (pl videokártyák erősorrendje), de leginkább egy 9600-as radeonnal jársz jól, ennyi pénzért. Ha a 30-35 netto, akkor akár PRO is lehet belőle. -
#45 Helló!
Szerintetek 30-35 ezer Ft-ból milyen VK-t érdemes venni? Mivel az időm többségét nem a játék tölti ki, de néha azért kipróbálnék egy-egy újabb játékot is, de ettől több pénzt meg egyenesen sajnálok kiadni egy VK-ra (most is csak egy GF2 Ti 64 (TV-out-os) van a gépben. Szóval a TV kimenet is számít. Tudom, sokat ne várjak ennyi pénzért, de kíváncsi lennék szerintetek melyik a legjobb ár/telejsítmény arányú kari.
Jelenlegi konf: AMD Atlon XP 2500+@3200+ (Barton), 2 * 256 DDR RAM 400MHz Dual CH, Gigabyte 7N400-L deszka, 120GB IBM (Hitachi) HD, + a fenti VK -
Borg #43 :DD
Az underground SEM DX9.
Az egyedüli valóban DX9 progi jeleneg a FarCry. És ebben nagyonis észrevenni a különbséget a DX8 és DX9 kártyák között.
DX8 kártyákon a highest opció egész más grafikát jelent, mint DX9-eseken.
Egyébként nem tudom mire vered itt most magad, senki nem mondta hogy a dx8 kártyák bárhol is csődöt mondanának. A maguk kategóriájában biztosan nem. Az már más kérdés, hogy egy dx9 hw sokkal többet tud náluk. Pont.
-
Borg #41 Te tényleg egy komoj ember vagy hallod...
lol
COD mint ősrégi Q3 motorra épülő, legjobb esetben is dx8 program persze hogy nem fog neked újat mutatni DX9 kártyán...ehh... -
Borg #38 Röhej komolyan, hogy egyesek a legnagyobb komolysággal mekkora hülyeségeket tudnak irni itt:)
Ideje lesz már egy olyan cikknek az SG-n, ami elmagyarázza mi is a különbség dx8 és dx9 kártya között pl... -
#34 a másodi kkéápen meg 1 tök 1*ű 486 cooler van! uhhogy nem egészen uaz a hűtés mint a fos 5800-5900-akon van -
#33 Ive=éve -
#32 hát elég szar ez a verseny ahol már másfél lve nyerő uaz a kártya! -
Csatti #27 Egyrészt csak a nevesebb fejlesztők kaphatnak prototípust, ráadásul azokat sem olyan hamar (max egy évvel később kijövő kártyákét), egy normális játék fejlesztési ideje kb. 2-3 év és vhol el kell kezdeni. -
#23 pl. nem tudták eléggé letesztelni a fejlesztés során stb
Játékfejlesztők nem a boltban kapható kártyákkal kell hogy ügyeskedjenek szerintem. Biztos küldenek a nagyobb cégeknek a gyártók protipusokat ilyen célokra. -
BlackRose #22 az ATI lehet, hogy jatszani jobb (ezen nem vitatkoznak mert nem szoktam jatszani), de ami a profi alkalmazasokat illeti ott az nVidia sokkal jobb. Az ATI lehet, hogy egy picit gyorsabb, de pl. a 3D csomagokban (3ds max, maya, xsi) sokkal lemarad az nVidia mogott, sot sokszor hibassan mutatja a kepet. Volt alkalmam 4-5 fajta ATI, es majdnem minden nVidia kartyat kiprobalnom (beleertve a Quadro-t is), es amikor profi alkalmazasrol van szo, jelenleg gondolkodas nelkul az nVidiat valasztom. Na de ha kijon az R420-as akkor persze utannanezek, mert engem nem erdekel ki csinalja, hanem melyik a jobb... Jelenleg GF FX 5900XT-t hasznalok, mert ezert a penzert 100%-ban megalja a helyet, szinte konkurencia nelkul. -
Csatti #20 Viszont ha nem tennék bele az ilyen új feature-ket, akkor lehet, hogy a későbbi játékok nem támogatnák mert még nem eléggé "bejáratott" technológia. pl. nem tudták eléggé letesztelni a fejlesztés során stb. -
Borg #19 Ez egy kicsit ellentmondás nem?:)
Ha nincs pénzed havonta lecserélni, akkor most sem lesz pénzed arra, hogy a 110e ft-os csúcskártyát megvedd. Ami 1,5-2 év múlva úgyis már csak középkategóriás lesz max.
Hiába fogja például az NV40 a ps3.0-t támogatni, mire azt használni fogja valami program, addigra az NV40 _teljesítménye_ viszont már nem lesz elegendő. Ezért felesleges feature ez egy mostani kártyába.
Most már 1+ éves a termékciklus, és ha a köv évi kártyák is ekkora teljesítménytöbbletet hoznak, akkor majd azokban lesz értelme már TALÁN az új shadereknek. -
#18 Na jó, de ha én mondjuk valami időt álló kártyát akarok, mert nincs pénzem minden hónapban lecserélni, akkor 2 év múlva nem fog rosszul jönni, hogy a kártyám támogatja azokat a technológiákat, amiket azok már kihasználnak. -
Borg #17 javaslom a nootropilt, serkenti az agyműködést :/ -
Borg #16 A pixel shader 2.0 másfél éve piacon van, és még csak most kezdenek megjelenni a DX9 játékok (farcry pl).
Szóval ettől egyátalán nem kell félni.
A pixel shader 3.0 még jó 2 évig nem lesz kihasználva, mostantól kezdve. Szimplán parasztvakítás, sokkal fontosabb fejlesztésekre van szükség. -
#15 Hát igen, mintha az ATI-sak mondták volna az NV-ről, hogy átverik a népet azzal, hogy a kártyáik gyorsan elavulnak, vagyis nem támogatják az új szabványokat... -
#14 Ja látom, kb. június.
Na akkor a véleményem:
Mi van akkor, ha valaki plussz optióként el kezi használni az új technikákat valami istencsászár játékban? Akkor az ATI legalább akkora bajban lesz, mint most az nVidia van... -
#13 Utana szerinetm masfel honap!! -
#12 Ez mit jelent?
Úgy értem, hogy mikorra várható, hogy ezek után megjelenik a magyar boltokban? -
#11 Amúgy a fenti képen nem látom azt a beígért 2db tápcsatlakozót, csak az egyiket. És érdekes, hogy miután sokan túl nagynak mondták a FlowFx-et, ezeken a radeonokon is igen csak nagy ventilátor, és még nagyobb borda van. Ezt a díszes dekorációt (4. kép) rányomják a sorozatgyártmányokra is, vagy csak kinézetre is verni próbálják a FlowFX-et? -
Borg #10 Még.
De az új kártyák kapcsán még nem dőlt el...