94
  • janos666 #94
    Az ember szeméjisége talán viták közben bontakozik ki legjobban, és előbb utóbb a legtöbb ilyen hírhez elfogy az értelmes okosság (hisz a hír nagy része is találgatás és feltételezés), így nem marad más, mint ugyanazt 5-6X végigvitatni. Tudja mindenki, hogy semmi értelme, de valamilyen szinten ez is szórakozás.
  • sniper
    #85
    Te most komolyan gondoltad hogy ennek van vmi koze a gf4hez vagy az opengl jatekokhoz?
  • sniper
    #84
    "#73: Doom3, mint OpenGL?... minden nap megtudok valami alapveto igazsagot

    MegaLOL, bakker :D"
    Epp ideje volt felvilagosulnod. Az IDSoft mindigis OpenGLt hasznalt a jatekaihoz, nehez lehetett elkerulnod ezeket...
  • janos666 #82
    Hát pedig én is úgy emlékszem, hogy az!
  • Mike at home
    #81
    szerintem meg ezek a dolgok abszolut lenyegtelenek

    nem fogok 100e folott kolteni grafgkartyara, akar dx9-es is lehet tolem, a Far Cry-t meg ki nem szarja le

    ebbol a penzbol annyi mas, ertlmes dolgot lehet venni

    vegul: nem a jatek grafikaja donti el, jo-e egy jatek vagy sem.
  • sniper
    #73
    Tokmind1 hany d3d-s jatek van, amig opengl-ben olyanok jonnek mint a doom3, addig akkor is fontos tenyezo marad ha 1edul lesz (nem lesz).

    Nem erdekes hogy az fx ujabb mint a gf4, csak az hogy melyik a jobb.
  • Power
    #71
    Közben megint kiderül, hogy 16 tulajdonképp csak 8x2 :)
  • janos666 #70
    Valaki már biztos nagyon rá lehetett izgulva az új cuccra, hogy elsők közt rakhatja majd be a gépébe, és annyira kapkodhatott hogy véletlenül úgy próbálta a helyére erőltetni a gépben, hogy félrecsúszott, és elhajolt. Csórikám nem jött rá, hogy talán fel kellett volna tenni a szemüveget, és szépen a helyére igazítani. De gondolom nem volt szüksége arra, hogy bekapcsolja a gépet, mielőtt írt róla valahova egy szép kis 2 oldalas fennkölt ódát valamelyik újságnak, hogy mekkora isten, és mire végzett a gépeléssel, már vissza is kellett adnia, és nem volt ideje kikalapálni a garázsban. (na most előre is bocs a tesztelőktől!) Vagy egyszerűen csak így csusszant le a gyártósorról, de lehet, hogy leejtette valaki nagy izgalmmában, van utálatában.
  • MaSzKa
    #68
    Jöjjenek ezek a kareszok minél elöbb!
    Legalább lejjebbmennek az árak!
  • sniper
    #63
    Mellesleg gf4rol volt szo, nem gf fxrol.
  • sniper
    #62
    Legalabbis DirectXben. OpenGLben viszont nem.
  • sniper
    #56
    Ugyanezt mondta a 3dfx a 32 bitre. Aztan csodbe ment.
  • sniper
    #55
    Most neztem az apronetet, 19 rongyert volt egy gf4 ti4200, es ugyanennyiert egy radeon 9600se. Asszem nem 2seges melyiket veszi az ember...
  • sniper
    #54
    "Az egyedüli valóban DX9 progi jeleneg a FarCry."
    Akkor mirol is beszelunk? 1 epphogy megjelent jatek miatt veri a sok ATI fan a DX9-re magat mar vagy 1 eve?
  • sniper
    #53
    ...kiegeszitve azzal hogy mi a kulonbseg a pixel + vertex shader 2.0 es 3.0 kozt.
  • sniper
    #52
    "Hiába fogja például az NV40 a ps3.0-t támogatni, mire azt használni fogja valami program, addigra az NV40 _teljesítménye_ viszont már nem lesz elegendő. Ezért felesleges feature ez egy mostani kártyába."
    Ugyanez van most a DirectX 9-el es a radeonokkal! De azert veri mindenki a nyalat a DX9 jatekokra...
  • sniper
    #51
    Akkor meg nem kellett volna eddig verni a nyalat az ATI kartyakra, nem gondolod? 1szer szamit a technika, masszor meg nem? Nehogymar a markanevhez igazitsuk a szeljarast...
  • arty
    #49
    inkabb meggyozo ps/vs 2.0 teljesitmeny, mint ki sem hasznalt ps/vs 3.0. Egyebkent meg aki utanaolvas, meg fogja latni, h azok az effektek, melyekhez ps/vs3.0 kell a mostaniaknal 5x gyorsabb hardveren sem eleg gyorsak, h rendesen hasznalhatoak legyenek. Majd 1-2 generacio mulva ... ez olyan, h inditsd el a farcry t geforce3mason, az is dx8, de .... :)

    siman eleg lesz, ha a jovo tavasszal megjeleni RV5xx tudni fogja ...
  • Borg
    #46
    A hw fórumban több infót fogsz találni ehhez (pl videokártyák erősorrendje), de leginkább egy 9600-as radeonnal jársz jól, ennyi pénzért. Ha a 30-35 netto, akkor akár PRO is lehet belőle.
  • AL7
    #45
    Helló!

    Szerintetek 30-35 ezer Ft-ból milyen VK-t érdemes venni? Mivel az időm többségét nem a játék tölti ki, de néha azért kipróbálnék egy-egy újabb játékot is, de ettől több pénzt meg egyenesen sajnálok kiadni egy VK-ra (most is csak egy GF2 Ti 64 (TV-out-os) van a gépben. Szóval a TV kimenet is számít. Tudom, sokat ne várjak ennyi pénzért, de kíváncsi lennék szerintetek melyik a legjobb ár/telejsítmény arányú kari.
    Jelenlegi konf: AMD Atlon XP 2500+@3200+ (Barton), 2 * 256 DDR RAM 400MHz Dual CH, Gigabyte 7N400-L deszka, 120GB IBM (Hitachi) HD, + a fenti VK
  • Borg
    #43
    :DD

    Az underground SEM DX9.

    Az egyedüli valóban DX9 progi jeleneg a FarCry. És ebben nagyonis észrevenni a különbséget a DX8 és DX9 kártyák között.
    DX8 kártyákon a highest opció egész más grafikát jelent, mint DX9-eseken.

    Egyébként nem tudom mire vered itt most magad, senki nem mondta hogy a dx8 kártyák bárhol is csődöt mondanának. A maguk kategóriájában biztosan nem. Az már más kérdés, hogy egy dx9 hw sokkal többet tud náluk. Pont.
  • Borg
    #41
    Te tényleg egy komoj ember vagy hallod...
    lol
    COD mint ősrégi Q3 motorra épülő, legjobb esetben is dx8 program persze hogy nem fog neked újat mutatni DX9 kártyán...ehh...
  • Borg
    #38
    Röhej komolyan, hogy egyesek a legnagyobb komolysággal mekkora hülyeségeket tudnak irni itt:)
    Ideje lesz már egy olyan cikknek az SG-n, ami elmagyarázza mi is a különbség dx8 és dx9 kártya között pl...
  • Benedekco
    #34
    a másodi kkéápen meg 1 tök 1*ű 486 cooler van! uhhogy nem egészen uaz a hűtés mint a fos 5800-5900-akon van
  • Benedekco
    #33
    Ive=éve
  • Benedekco
    #32
    hát elég szar ez a verseny ahol már másfél lve nyerő uaz a kártya!
  • Csatti
    #27
    Egyrészt csak a nevesebb fejlesztők kaphatnak prototípust, ráadásul azokat sem olyan hamar (max egy évvel később kijövő kártyákét), egy normális játék fejlesztési ideje kb. 2-3 év és vhol el kell kezdeni.
  • SoDI---
    #23
    pl. nem tudták eléggé letesztelni a fejlesztés során stb

    Játékfejlesztők nem a boltban kapható kártyákkal kell hogy ügyeskedjenek szerintem. Biztos küldenek a nagyobb cégeknek a gyártók protipusokat ilyen célokra.
  • BlackRose
    #22
    az ATI lehet, hogy jatszani jobb (ezen nem vitatkoznak mert nem szoktam jatszani), de ami a profi alkalmazasokat illeti ott az nVidia sokkal jobb. Az ATI lehet, hogy egy picit gyorsabb, de pl. a 3D csomagokban (3ds max, maya, xsi) sokkal lemarad az nVidia mogott, sot sokszor hibassan mutatja a kepet. Volt alkalmam 4-5 fajta ATI, es majdnem minden nVidia kartyat kiprobalnom (beleertve a Quadro-t is), es amikor profi alkalmazasrol van szo, jelenleg gondolkodas nelkul az nVidiat valasztom. Na de ha kijon az R420-as akkor persze utannanezek, mert engem nem erdekel ki csinalja, hanem melyik a jobb... Jelenleg GF FX 5900XT-t hasznalok, mert ezert a penzert 100%-ban megalja a helyet, szinte konkurencia nelkul.
  • Csatti
    #20
    Viszont ha nem tennék bele az ilyen új feature-ket, akkor lehet, hogy a későbbi játékok nem támogatnák mert még nem eléggé "bejáratott" technológia. pl. nem tudták eléggé letesztelni a fejlesztés során stb.
  • Borg
    #19
    Ez egy kicsit ellentmondás nem?:)
    Ha nincs pénzed havonta lecserélni, akkor most sem lesz pénzed arra, hogy a 110e ft-os csúcskártyát megvedd. Ami 1,5-2 év múlva úgyis már csak középkategóriás lesz max.

    Hiába fogja például az NV40 a ps3.0-t támogatni, mire azt használni fogja valami program, addigra az NV40 _teljesítménye_ viszont már nem lesz elegendő. Ezért felesleges feature ez egy mostani kártyába.
    Most már 1+ éves a termékciklus, és ha a köv évi kártyák is ekkora teljesítménytöbbletet hoznak, akkor majd azokban lesz értelme már TALÁN az új shadereknek.
  • SoDI---
    #18
    Na jó, de ha én mondjuk valami időt álló kártyát akarok, mert nincs pénzem minden hónapban lecserélni, akkor 2 év múlva nem fog rosszul jönni, hogy a kártyám támogatja azokat a technológiákat, amiket azok már kihasználnak.
  • Borg
    #17
    javaslom a nootropilt, serkenti az agyműködést :/
  • Borg
    #16
    A pixel shader 2.0 másfél éve piacon van, és még csak most kezdenek megjelenni a DX9 játékok (farcry pl).
    Szóval ettől egyátalán nem kell félni.

    A pixel shader 3.0 még jó 2 évig nem lesz kihasználva, mostantól kezdve. Szimplán parasztvakítás, sokkal fontosabb fejlesztésekre van szükség.
  • janos666 #15
    Hát igen, mintha az ATI-sak mondták volna az NV-ről, hogy átverik a népet azzal, hogy a kártyáik gyorsan elavulnak, vagyis nem támogatják az új szabványokat...
  • SoDI---
    #14
    Ja látom, kb. június.

    Na akkor a véleményem:
    Mi van akkor, ha valaki plussz optióként el kezi használni az új technikákat valami istencsászár játékban? Akkor az ATI legalább akkora bajban lesz, mint most az nVidia van...
  • Ombika
    #13
    Utana szerinetm masfel honap!!
  • SoDI---
    #12
    Ez mit jelent?
    Úgy értem, hogy mikorra várható, hogy ezek után megjelenik a magyar boltokban?
  • janos666 #11
    Amúgy a fenti képen nem látom azt a beígért 2db tápcsatlakozót, csak az egyiket. És érdekes, hogy miután sokan túl nagynak mondták a FlowFx-et, ezeken a radeonokon is igen csak nagy ventilátor, és még nagyobb borda van. Ezt a díszes dekorációt (4. kép) rányomják a sorozatgyártmányokra is, vagy csak kinézetre is verni próbálják a FlowFX-et?
  • Borg
    #10
    Még.
    De az új kártyák kapcsán még nem dőlt el...