75
  • gabeei
    #75
    Hát öcsém, mennyi hardwarelayoutos szakember van itt a fórumon, azokkal karöltve egy cégben mindenkit le lehetne mosni...
  • BiroAndras
    #74
    "Ja, ma. De meddig tart ez a "ma"? Jópár jéték még alacsonyabb felbontáson is alig megy 100fps fölé, a proci miatt, pedig még bőven lehetne mivel terhelni szegényt. Így amíg nem lesz legalább a játékosok többségének dual-core procija, nem érdemes fejlettebb, összetettebb játékmotorokkal próbálkozni PC-n."

    1-2 év múlva már alap lesz a dualcore. Addig is meg lehet írni a játékokat úgy, hogy a második magon csak az extra fícsörök fussanak. De szerintem már az is épp elég, ha a render külön szálon megy.

    "Úgy értettem, amikor letöltöd az új drivert, nem olvasod el a hozzá való release notest, hogy mégis mit javítottak, stb.?"

    Nem.
  • dez
    #73
    "Nem én fejlesztem a 3D motort, úgyhogy részleteket nem tudok, de gyakran hallok ilyen bugokról."

    Úgy értettem, amikor letöltöd az új drivert, nem olvasod el a hozzá való release notest, hogy mégis mit javítottak, stb.? :p
  • dez
    #72
    "Nem a mai játékokra gondoltam, hanem általában. Az a kijelentés, hogy "már nem kell gyorsabb GPU" erős túlzás. Annyit lehet max. mondani, hogy ma még nem kell."

    Ja, ma. De meddig tart ez a "ma"? Jópár jéték még alacsonyabb felbontáson is alig megy 100fps fölé, a proci miatt, pedig még bőven lehetne mivel terhelni szegényt. Így amíg nem lesz legalább a játékosok többségének dual-core procija, nem érdemes fejlettebb, összetettebb játékmotorokkal próbálkozni PC-n.
  • Xcentric
    #71
    Pardon,látom a videót már belinkelték páran.Sorry
  • Xcentric
    #70
    A hírek szerint a Crytek engine következő változata,valóban DX10-re épül.Ki is adtak egy rövidke kis bemutatót sajna csak kis felbontású kézikamerás felvételt találtam pl itt: http://www.gamestar.hu/kommentek.php?sid=18377
    Meglehetősen meggyőző.Megjegyzem nem olvastam konkrét híreket azzal kapcsolatban hogy az Xbox2 Dx10-es lenne ,persze az tény hogy több van benne Dx9-nél.Ha valaki látott ilyen specifikációt linkelje be ide plíz.
  • BiroAndras
    #69
    "A többmagos prociké a jövő, de jelenleg zéró támogatásuk van a játékok alatt, ha a drivereket megoldják, akkor is sokára lesznek kihasználva."

    Szerintem nem olyan sokára. Az új játékoknál nem túl nagy munkával kihasználhatók. Főleg a renderelésre. De már akár a régebbieknél is segíthet, ha a render külön szálon megy (tudom, a tesztek szerint szinte sehol nincs így).
  • BiroAndras
    #68
    "Te nem szoktál GPU-driver release notest olvasni? Ezeket a hibákat szinte mindíg ők javítják. Az egy kérdés, kinek a hibája (eleve rossz volt a driver, vagy a játékfejlesztő csinál valamit rosszul)."

    Nem én fejlesztem a 3D motort, úgyhogy részleteket nem tudok, de gyakran hallok ilyen bugokról.
  • BiroAndras
    #67
    "A legtöbb mai játékkal min. 1600x1200-ban, vagy még ott sem..."

    Nem a mai játékokra gondoltam, hanem általában. Az a kijelentés, hogy "már nem kell gyorsabb GPU" erős túlzás. Annyit lehet max. mondani, hogy ma még nem kell.
  • [Jakuza]
    #66
    Jaj milyen butasagokat olvasok itt.Foleg az olyanok tetszenek, hogy az FX szeria azert lett rossz, mert az Xboxra fejlesztett kozben az Nvidia. LOL
    Nos hogy tisztan lassanak ezek a "szakertok"
    Az FX sorozatot az Nvidia a Taiwan Semiconductor Manufacturing Co.-ra bizta, aki a 90 nanometeres atalasert volt felelos.
    Kozben kiderult, hogy a technologia nem eleg kiforott es egy 350millio tranzisztort tartalmazo chipnel kulonbozo problemakba utkoztek.
    Ezert az Nvidia a kovetkezo sorozatoknal visszaallt a 110nm-re.
    Az is kiderult, hogy nem a gyartoban keresendo a hiba, hanem a technologiaban, mert az IBM is az NV40es chipeknel belesetalt ugyenezen hibakba (tul magas fogyaztasz,alacsony kihozatal)
    Nos az Nvidia inkabb visszatert a 110nanometeres technologiara inkabb es a 7800as chipeket is inkabb igy gyartja.
    Nezzuk mi tortent ATIeknal, ahol egy ismeros tunik fel a szinen, aki nem mas, mint a Taiwan Semiconductor Manufacturing Co., aki az ATItol ugyanazt a feladatot kapta, mint anno az Nvidiatol, hogy a o hajtsa vegre a 90nanometeres gyartast az ATI reszere, mert az ATI is eltervezte az atallast.
    S lam milyen egyszeru az elet, ugyanazokba a hibakba beleszaladt o is mint mar regebben az Nvidia.
    Ha profan az elet es ez latszik a legvaloszinubbnek, akkor a mostani ATI VGA generacio nem lesz olyan jo, viszont a kovetkezo generacio ezzel szemben mint a konkurencianal egy sokkal jobb konstrukcio lesz.
    De azok az irasok, hogy Xbox, meg hogy felvasarolja az ATI-t az Nvidia akkora blodsegek, hogy az ember kopni nyelni nem tud mar a rohogestol.
  • Inquisitor
    #65
    Meglehet :)
  • Davidus
    #64
    vagy X360 devkiten:)
  • hispan2
    #63
    érdekes...
  • dez
    #62
    Na persze ami itt olvasható, azt a cikkben nem írta le. :)
  • dez
    #61
    Ez már a cikk elején is világosan le volt írva. És az is, hogy azért nem hívták meg őket, mert korábban leközöltek néhány az ATI számára kényes cikket... Persze azt nem írják, hogy ezért most akkor ők bosszút állnak, csak hogy ha már egyszer nem kellett NDA-t aláírniuk, akkor nem is fogják vissza magukat, és leírják a kártyagyártóktól származó információkat. (Ez persze alibiszövegnek is jó.)
  • RpPRO
    #60
    Nah, akit erdekel, egy igen nagy ATI hal, Andrzej Bania (PR & marketing manager), par ertekes gondolatot leirt a beyond3d foruman, melynek a lenyege.

    A fenti 'cikk' szerzoje (Sandler Sassen) bosszuhadjaratot inditott, mellyel le akartja jaratni az erkezo vid.kartya generaciot, mivel nem hivtak meg az r520-rol szolo sajtotalalkozora. Ez tokeletesen igazalhato a koztuk tortent email valtasokkal.

    A 'teszteredmenyek' semmilyen hasonlosagot nem mutatnak az ATI altal mert adatokkal.

    A teljes hozzaszolast ITT talaljatok meg. Erdemes elolvasni.
  • Inquisitor
    #59
    "Kiváncsian vátom mi lesz a far cry utódja...
    CryTek Engine v2"
    Nos kapaszkodjatok, több helyen feltünt info )bár lehet kamu), hogy a CryTek Engine v2 DirectX 10!!! alá készült. Persze felmerült, hogy akkor vagy teljesen szoftveresen fut (hiszen nincs kész DX10 GPU) vagy valamelyik gyáró egy prototípúsán futott ...
    (R580? R600? G80? G90?)
  • Inquisitor
    #58
    "Van egyáltalán használható kártya 20-30000 Ft-ért?"
    Öszinte válaszom: Nincs.
    A 30-50.000 közötti kategóriában inkább. Hosszútávra meg egyik se :)
  • Inquisitor
    #57
    "Azért ki lehet hajtani azokat a kártyákat. Teljesítményből sosem elég."
    Ez nem igaz, soha nem is volt. Az éppen aktuális csúcs kártyákat (TNT2, GeForce2, GeForce 4 - 4600 Radeon 9700, GeForce 6800, GeForce 7800) a megjelenésekor nem, csak sokkal késöbb lehetett kihajtani mert NEM volt alájuk proci!
    Az Intel eredetileg 2003 végére, majd késöbb 2004 elejére tervezte be a 4GHz procit, és 1 éven belül 5GHz körül kellett volna lenniük. De nem sikerült nekik!
    Most gondolj bele a 9800Pro-t és anála gyorsabb kártyákat már egy 2,8-as proci SE hajtja ki. A totális kihajtáshoz a procikat 4GHz fölé kellett tuningolni. A mostani csúcskártyáknak meg sokkal nagyobb teljesítmény kell!
    A többmagos prociké a jövő, de jelenleg zéró támogatásuk van a játékok alatt, ha a drivereket megoldják, akkor is sokára lesznek kihasználva.
  • Riker87
    #56
    Hát igen, most már annyira nem szörnyedek el hogy ha X1800-asokra gondolok, de azért még minidig a sírógörcs kerülget, hogy ha arra kell gondolnom, hogy ATi régebbi kijelentése szerint: "Az új generációs kártyák felülmúlhatatlan teljesítményről tesznek majd tanubizonyságot" :'( Sajnos már azt kell mondanom, hogy gratula Nvidia, Ati meg húzzá' bele :)
  • stukov
    #55
    Kicsit elszálltak az árak, nem? Van egyáltalán használható kártya 20-30000 Ft-ért? vagy itt mindenk x850xt vesz?
  • dez
    #54
    "Szerinted mekkora esélye lenne egy játéknak a piacon, ha mondjuk R9600-on egyáltalán nem megy, és GeF6600-on meg nem látszik a víz? (ezek nem kitalált problémák)"

    Te nem szoktál GPU-driver release notest olvasni? Ezeket a hibákat szinte mindíg ők javítják. Az egy kérdés, kinek a hibája (eleve rossz volt a driver, vagy a játékfejlesztő csinál valamit rosszul).
  • dez
    #53
    "Azért ki lehet hajtani azokat a kártyákat."

    A legtöbb mai játékkal min. 1600x1200-ban, vagy még ott sem...

    "Teljesítményből sosem elég."

    Aham, lehet még pakolni több és hosszabb shadert a játékokba, már szinte csak azért, hogy legyen min dolgoznia, de ott van még a több poligon problémája, és mostmár ideje lenne a nem-grafikai dolgokkal is többet törődni... Részletesebb modellek, nagyobb város, amiben összetettebb események zajlanak, jobb AI, fizika, stb. (Jó, majd egyszer jön a fizikai gyorsító chip >50e-ért, ez egy dolog.) Ezekhez már nagyon kevés a proci...

    "A CPU-k meg most nagyot ugranak a több maggal."

    Hát, nagy ugrás az x86-nak, de kis lépés a játékiparnak... :) Perpill 2 mag ugyanazon a buszon, aminek a sávszélessége töredéke a Cellének? Ha duplázzák is majd ezt, az is kevés. Max. 2-3x-os (2/4 maggal) sebességnövekedés? Amikor a Cell számítási teljesítményben is 30x gyorsabb? Ráadásul brutális ára van még a dual-magosoknak is, így a piac kis részében van csak jelen.
  • MacrosTheBlack
    #52
    "Nyilván van olyan játék ami csak pc-re jelenik meg és ott szebb"
    Miért, lehet csúnyább is önmagánál?
  • tehen_m
    #51
    Ne hogy azt hidd hogy a konzolra most megjelenő játékok ki tudják maximálisan használni a hw-t.
    Pl.: MGS4 MEGJELENÉS: 2007 -hoppá (két év ...)

    Vagy nézzünk egy nemsokára megjelenő játékot:
    tgs-ről egy kép
    fck

    Ne értsél félre nem mondom hogy szar a nextgen konzol csak azt hogy előbb várjuk meg a megjelenést és hogy mit tud, nem pedig már már elképzelhetetlen grafikát tulajdonítani neki...


    Kiváncsian vátom mi lesz a far cry utódja...
    crytek engine v2
  • wfefe
    #50
    Sziasztok!

    Szerintem ez a VGA dolog ugyan olyan, mint az gigás LAN, hiába van egy gigabit ha a lap nem tud annyi adatot feldolgozni adott idő alatt. Szóval szerintem hiába az atom erős VGA meg proci, ha a a vinyó lassú és a lap sem képes feldolgozni a kapott információkat. Ezért tartanak a konzolok ott ahol tartanak. Szerintem.
    Bár ez csak az én véleményem.
    Én pl. nem érzek különbséget a mostani PCI-E-s 6600GT és az elöző AGP-s 9600XT-m között, pedig a lap NEO2-ről NEO4-re cserélődött ami azért sokkal jobb, de érezhető különbség nincs.

    Sorry a hosszért, meg ha butaságokat írtam volna.
  • BiroAndras
    #49
    "De szerintem nem kell hogy a nyakukba vegyék és szerintem nem is veszik a nyakukba a fejlesztők a kompatibilitás problémáját."

    Nem tehetik meg, hogy szarnak a kompatibilitásra.
    Szerinted mekkora esélye lenne egy játéknak a piacon, ha mondjuk R9600-on egyáltalán nem megy, és GeF6600-on meg nem látszik a víz? (ezek nem kitalált problémák)
  • BiroAndras
    #48
    "Processzor ua mindenkinek a gépében, a directx dettó!"

    Sajnos ez nem egészen igaz.
    - Nem ugyanaz a proci, mert minimum a sebesség változik erősen.
    - Nem ugyanaz a DX, mert belekavar a kártya drivere, és a hardveres megvalósítás is. Sok szopás van ezekkel.
  • BiroAndras
    #47
    "Még annyit, hogy sok értelmét nem látom a nagyobb karinak, inkább a processzor (CPU ), ami nem teljesít annyira."

    Azért ki lehet hajtani azokat a kártyákat. Teljesítményből sosem elég.
    A CPU-k meg most nagyot ugranak a több maggal.
  • NEXUS6
    #46
    Így van!

    Ha a kiadó a kanzolon többet keres az nem azt jelenti hogy negatív okokat kell arra találni, hogy a PC-re kiadott játékokon meg miért keres kevesebbet.
    Talán csak tudomásul kell venni, hogy ez kisebb piac és kész.
  • NEXUS6
    #45
    A warez télleg olyan mumus, amivel a kiadók szeretik riogatni az embereket, bár az hogy menyire valós veszély az megkérdőjelezhető.

    A kompatibilitás megint csak urban legendnek tűnik. Processzor ua mindenkinek a gépében, a directx dettó!
    Persze Murphy nem alszik. De szerintem nem kell hogy a nyakukba vegyék és szerintem nem is veszik a nyakukba a fejlesztők a kompatibilitás problémáját. Egy szar GFX kártya drivert a játékfejlesztő nem fog megyógyítani!
    Viszont ez egy jó kifogás a késésekre.
  • zidder
    #44
    Itt nem arról van szó hogy melyiket könnyebb másolni!!! Egyszerűen arról van szó, hogy már nem igazán éri meg számítógépre játékot kiadni.
  • Csukii
    #43
    Teljesen igazat adok az előttem szólónak.

    Még annyit, hogy sok értelmét nem látom a nagyobb karinak, inkább a processzor (CPU ), ami nem teljesít annyira.
  • Cobra.
    #42
    Hogy az eredeti témához is szóljak: nem tudom Mo-on hány ember várja az 520-ast, én biztos nem, engem sokkal jobban érdekel, hogy az 530-as milyen lesz. És azt se felejtsük el, hogy talán az 5.9-es, de inkább az 5.10-es driverben lesz benne ezeknek a kártyáknak a megfelelő támogatása. Addig meg felesleges teszteredményeket közölni egy mintakártyáról.
  • Cobra.
    #41
    Konzolos játékot se olyan nehéz másolni, bár valóban csak a megjelenés után kis idővel lesz warezon, meg nem mindenki meri átalakíttatni a konzolját, de attól még ott is van bőven másolt játék, szóval ez nem indok.
    Egyszerűen azért hanyagolják el a PC-s játékokat, mert többet kell dolgozni rajtuk (kompatibilitás) és nem kérhetnek annyit érte, mint egy konzolos játékért, mert akkor tényleg csak warezben terjedne (ki adna ki PC-s játékért 15-16 ezret?)
  • zidder
    #40
    Én szivesen megmagyarázom neked NEXUS... egyszerűen megint csak a számok beszélnek.
    Ez a kalózkodásról szól...

    Számítógépeken a játékok 90%a már megjelenés napokkal néha hetekkel előbb letölthető... kinek éri ez meg? A kiadónak biztos nem, akkor meg minek adja ki?
  • NEXUS6
    #39
    Az bitzos!;)

    De mire kijön, a PC még mindíg 2-3 évre lesz attól, hogy ua GFX-et elérje. Pedig 2-3 év múlva már milyen GFX karik lesznek!!!! Ahogy inquisitor is írta.

    Ha kijön egy új konzol a fejlesztők pár hónap allatt felszívják magukat és csilivili játékokat írnak az új, teljesen más hardwerre.
    A PC-n hiába van evolúciós fejlődés, hiába adják ki már hónapokkal korábban ua GFX hardvert mint ami a kanzolban ketyeg, a játékok még is akár éveket késnek!!!!!!!
    Na ezt magyarázza meg nekem valaki.
  • tehen_m
    #38
    Hát az a ps3 se holnap jelenik meg ...
  • tehen_m
    #37
    Épp ezaz az hogy nem igazán adhatja olcsóbban.
    Hála a selejtaránynak. (ez viszont tény és nem kamu)
  • Inquisitor
    #36
    Ja, mellékesen meg a fenti hírről napok óta tudni, hogy kamu. Másrészt olyan rohadt nagy teljesítmény különbségeket se láttam, ami miatt temetni kéne az ATI-t ha igaz is lenne, max. ólcsobban adják.
    Anno a GF4 helyett is R8500-öt vettem, és nem érzem úgy hogy rosszabul jártm, csak mert picit lasabb volt ;)