24
  • dez
    #24
    ("a (desktop) procik ramelérése 64 bites" -> mondjuk a 2 csatornás memóriavezérlővel rendelkezőknél 128 bites, de valójában nem tudják ezt teljesen kihasználni.)
  • BiroAndras
    #23
    "Újraírni a graf motorokat? Na bumm. ID nem folyton azt csinálja?"

    Nem csak a grafikát, hanem minden mást is. És nem csak újra kell írni, de át is kell tervezni teljesen új szempontok alapján. Régi jól bevált technikákat kell kidobni, és teljesen újakat kell kitalálni. Ráadásul ez időigényes dolog, az idő pedig pénz (az informatikában ez ráadásul hatványozottan igaz).
  • dez
    #22
    (Mondjuk ha összeadjuk AMD-nél a memória-busz és a HT buszok sávszélét, némileg több jön ki, de mindegy.)
  • JTBM
    #21
    A mai CPU-k teljes busz sebessége kb. 8GB/s (intel és AMD is), a csúcs GPU-ké pedig 100-140 GB/s...
  • dez
    #20
    Én sem érezném túl nagy problémának, de egy aktív játékfejlesztő erről győzködött nemrégiben. Mondjuk valami pörgős FPS-nél bizonyára többet számít, mint máshol.

    A proci csak a koordinátákat küldi, aztán azokkal vagy 1000x annyi műveletet kell végeznie a GPU-nak, hogy kép legyen belőle... :) Elég, ha arra gondolsz, hogy a (desktop) procik ramelérése 64 bites, miközben ez ma már az abszolút alsó kategória a videokártyáknál, 128 bit az alsó-közép, 256 lesz hamarosan a közép, és 320-512 a felső...

    Van már kb. 2-3 játék, ami kihasználja a több magot - az egyik akár négyet is.
  • dronkZero
    #19
    "1 frame 50fps-nél 20ms többlet, amit állítólag a gyakorlottabb gamerek már megéreznek."

    Szerintem aki ilyet állít, az festi magát... 20ms a multiplayer játékokban átlag 40-60ms pingnél tökmindegy. Egyjátékos módban meg aztán pláne nem számít.
    De egyébként abszolút nem érzem problémának.

    Technikai részleteket kénytelen vagyok neked elhinni, lusta vagyok utánanézni... :) De az komoly, hogy egy videokártyának nagyobb a sávszélessége (tehát több adatot fogad és küld), mint a processzor? Nem a proci küldi azokat az adatokat?

    De most ez mindegy is, az lenne a lényegi kérdésem, hogy nem jobb egy rosszul kihasznált második mag, mint egy kihasználatlan? Vagy legyen nekem elég, hogy az oprendszer, meg a háttérben futó hülyeségek menjenek az egyik magon, a játék meg a másikon? És mi lesz a négy, vagy még több magos procikkal? Megvetetik velem jó sok HUF-ért, aztán nem használja majd semmi?
    Előbb-utóbb csak előnybe kerülnek azok, akik hajlandóak újraítni az engine-jüket.
  • dez
    #18
    (Egyelőre duplapontos lebegőpontos számításokban a CPU a jobb, mert hogy a GPU-k nem is támogatják ezt, de ez valószínű a GPU-k köv. generációjával megváltozik, és játékokban nem is nagyon használatos.)
  • dez
    #17
    A fixpontos nem ugyanaz, mint a fixed function. Az előbbi az integer alapműveletek speciális alkalmazása, az utóbbi meg valamilyen "bedrótozott", összetett grafikai, vagy egyéb művelet (ami adott esetben sok meghatározott elemi műveletből áll). Nos mindkettőben ugyancsak a GPU-k a jobbak, bár fixpontos számításokban nem annyival, mint lebegőpontosban. A CPU akkor jó, ha pl. sok ugrást tartalmazó kódot kell végrehajtani, és/vagy kevés adattal kell sok műveletet végezni (befér az egész a cache-ekbe, amikből a GPU-kban kevés van), stb.

    Az újabb motorok sok alapfunkciója megegyezik a régebbiekével. A párhuzamosításhoz viszont az alapoktól kell újratervezni a dolgokat.

    1 frame 50fps-nél 20ms többlet, amit állítólag a gyakorlottabb gamerek már megéreznek.

    A nem-interaktív fizikának végülis mindegy, hogy real-time számítják v. tárolt. Mármint a végeredmény szempontjából - adatban a tárolt sok tárhelybe kerül.

    Egy autó mozgása kiszámításával - nem full élethű szimulációnál - egy CPU is bőven elboldogul. Ahol már segítségre van szüksége: ha sok apró darabka mozgásának fizikáják kell kiszámolni... Tehát amikor darabokra esik valami, és így omlik össze, robban fel, stb.

    "csak át kéne őket tenni a másik magra" - hát ez az, ami bajos, mert jön az egy frémes késés... Persze csak akkor, ha olyan sok számítást kell végezni, hogy nem fér bele az aktuálisba, még a grafikai számítások előtt.

    A Physix hasonló, mint a GPU-k shader egységeinek tömbje. Szóval az is többszörösen párhuzamosított, plusz vélhetően nagy memóriasávszéllel rendelkezik. Így szintén lekőrözi a CPU-t FLOPS-ban és sávszélben.
  • dronkZero
    #16
    Hm, ja, ezek szerint nem vágom a témát. Mondjuk annyira nem is érdekel, csak csinálják. Ő dolguk... :)
    De ha már itt tartunk, akkor miért kell két különböző számítási mód? Értem itt a fix és lebegőpontos műveletek közti hardveres különbséget. Mert fixpontosban meg a proci a keményebb. Vagy ezt sem tudom jól? :) Kb a graf kártyák második generációja magasságában foglalkoztam utoljára ezzel a témával...

    Újraírni a graf motorokat? Na bumm. ID nem folyton azt csinálja? Vagy ők sem előről kezdik az új motorokat? Na meg időről-időre tűnnek fel újabb motorok. Hát akkor kezdjenek neki a többbmagos optimalizációnak! Épp ideje lenne. Pl a Crysis állítólag majd támogatja a több magot. Ők nem sírnak. Na mindegy.

    1 frame sztem nem a világ, tekintve hogy kell másodpercenként vagy 50 a folyamatosnak látszó grafikához...
    De nekem az a verzió is tetszett, (asszem Ghost Recon?), hogy a játék előre kiszámolja a fizikai történéseket, aztán amikor triggereli valami az eseményt, akkor lejátsza, mint kvázi videót. De 3D-ben, meg alkalmanként más lefolyásával az eseménynek. Pl el tudnék képzelni egy időzített bombával felrobbantott épületet. A pléjer elhelyezi a bombáit, 5 perc visszaszámlálás, addig kiszámolódik az esemény(másik magon), aztán bumm, leomlik. Kezdetnek megtenné szerintem.

    De ezen felül mi az, amire fizika hat a játékban, és a játékos idézi elő? Lelőtt ellenség ragdollja, tárgyak rugdosása, meglőtt cuccok mozgása, járművek... Ezek mind vannak már, csak át kéne őket tenni a másik magra. Mihez kell még realtime fizika? Növényzet taposása? Szél?(ahhoz nem)

    Na de nem is ez a lényeg. Miért jobb a physx, mint egy másik mag?
  • dez
    #15
    No és mi alapján vagy olyan biztos benne? Súgják az ösztöneid, vagy mi? ;) Nos eléggé félre súgnak:
    CPU-k: 2-4 mag, 10-20 GFLOPS, ~10 GB/s memsávszél.
    GPU-k (közép, felső kat.): 64-320 mini-mag (shader-programok futtatására), további speciális egységek grafikára, többszáz GFLOPS, 50-100 GB/s memsávszél.
    Ugye nem kell tovább ragozni? :)

    Azért rinyálnak a programozók, mert a korábbi játékmotorokat lehet kidobni, és lehet elölről kezdeni őket. A PS3 miatt is rinyálnak, ugyanemiatt. Meg egyébként az Xbox360 miatt is, mert ott is 6 szállal kell dolgozni (csak ott legalább egyformákkal).

    Mehet párhuzamosan a grafika és a fizika, csakhogy akkor is előre kell számolni a fizikát, azaz először ki kell számolni a fizika miatti módosulásokat, majd azt megjeleníteni. Tehát legalább 1 frémmel előre kell számolni. Ez még nem is lenne baj, ha valami háttérben zajló dologról van szó. Azonban ha a játékos cselekedeteitől függő fizikai történésekről van szó, ez már érezhető késleltetést jelent...
  • dronkZero
    #14
    Én majdnem biztos vagyok benne, hogy nem lenne szükség már a GPU-kra. Ha hamarabb terjedtek volna el a többmagos procik, akkor szvsz nem nőtt volna ki egy külön iparág a videokártyákra.

    Ezt a párhuzamosítást, mint érvet nem értem (talán mert nem vagyok programozó). Folyton ezért rinyálnak, hogy nehéz. Hát jah, nekem is nehéz megterveznem egy hidat, meg a vécésnéninek is nehéz levakarnia a szart, de asszem ezért kapja az ember a pénzét. Hogy elvégezze a munkáját. Ha nehéz, akkor nehéz. Pont.

    Egyébként mintha a Playstationöknek alapból sokmagos procijuk van, ami meg milyen hűdejó. Azt nem nehéz párhuzamosítani?

    De egyébként meg a fizika nem egyidejűleg számolódik a grafikával, AI-val? Akkor most miért is megy a rinya, miért nem fogják meg, és párhuzamosítják? Értem én, hogy célhardverrel könnyebb, de egy rossz hatásfokkal működő második mag is jobb, mint egy kihasználatlan.

    De ha valamit rosszul látok, kérlek világosíts meg!
  • Tinman #13
    Én... főleg kalandjátékokat, de elmenne rajta komolyabb is /SM 3.0-át tudó, különálló 256 MB VGA rammal rendelkező X1600-as Ati Mobility Radeon/.
    Far Cry röccenés nélkül szalad rajta.
  • Molnibalage
    #12
    Ki az az állat aki laptopon játszik???
  • dez
    #11
    Ilyesmire törekszik az AMD a Torrenzával (olyan többutas Opteronos rendszer, melyben egy v. több Opteron helyén, szabvány foglalatban valamilyen célchip csücsül). Bár inkább ipari/tudományos területen lesz ez alkalmazva, semmint desktopon. Desktopra a Fusionnal kerülhet le, annak is egytokos változatával (a kéttokos a Torrenza keretei között valósul meg először), ahol egy tokban lesz egy CPU és egy GPU, valószínűleg szintén HT-s kommunikációban (mivel az biztosítja a leggyorsabb és legközvetlenebb kapcsolatot). Nos, ez a GPU már valószínű minden eddiginél rugalmasabbra lesz megtervezve, hogy minnél szélesebb körűen alkalmazható legyen. (Bár eleve a gyors kommunikáció a CPU-val is sokat segít: amit a CPU csinál a legjobban, azt az csinálja, amit meg a másik, azt a másik, és közben gyakran cserélhetnek adatokat.)
  • Abu85
    #10
    El kellene szakadni a CPU-PPU-GPU számítási sorrendtől. Ez a mai rendszerek hátránya, nincs kommunikációra lehetőség (illetve van csak mire ledumálják a dolgot egyedül is megcsinálja a feladatot a CPU). Jó kis CPU-PPU összekötés kellene HT3 linkkel, az már jó volna, komolyabb feladatokra is.
  • dez
    #9
    Na ez már rekord, hogy minden mondatod téves vagy hibás...
    A (mai) GPU-kkal nem valósítható meg egy játét teljes fizikája. Pl. az egész Havok fizikai csomagból csak a HavokFX futhat rajtuk, ami csak egyes elkülönült effekteket ismer - a többi a CPU dolga marad itt. Továbbá, vannak már játékok, amikhez a 8800-asok is kezdenek kevesek lenni már "közepes" bontásokban is, nem hogy még a fizika is azon legyen (különben sem lehet azon az egész). Egyetlen shaderben meg olyannyira nem kerül minden, hogy csak a grafika is sok különálló shaderből van megvalósítva. Meg ilyen alapon az SLI/CF-nek is annyi lenne. A (játék)motorok meg nem csak pl. a GPU-n futnak, hanem a proci és a GPU-k közös munkája.
  • dez
    #8
    + lee56-nak is
    Ilyen alapon a GPU-kra sincs szükség egy dualcore procinál... A fizikához hasonlóan sok - jó részt párhuzamosítható - számítás kell, mint a 3D grafikához, így a CPU-k nem optimálisak erre. Ez a Physix meg olyan a fizikában, mint a GPU-k a 3D-ben. Van némi átjárás a kettő között, de nem 100%-os az átfedés. Azaz van értelme a dolognak, de mint PLaci írta, ennyiért nem éri meg a nagyközönségnek.
  • kvp
    #7
    Egy gf8800-as de meg egy gf8600-as is boven tulteljesiti a physx-et. Lassan erdemesebb lesz venni a 8800 melle egy 8600-ast csak fizikai gyorsitasra, mert kezd olcsobb lenni mint a physx. Es aki nem 2048x1200-ban jatszik, annak egy gf8800-as is boven eleg es meg marad ero a fizikara is. (az uj microsoft dx10.1 egyebkent lehetove teszi a fizikai es a render motor egyetlen shader-be pakolasat, tehat innentol nem is lehet majd kulon kartyara bizni az adatokat) Ilyen osszevont fizikai-grafikus motorral futott pl. annak idejen a neocron mmorpg is, bar az meg szoftverbol csinalta mindezt dx7 es glide alatt.
  • lee56
    #6
    Mert ők el szeretnék adni :)

    Amugy ilyen áron tényleg abszolut nincs értelme, mert aki megengedhetné magának hogy ilyet vegyen, annak valószinüleg nem celeron proci csücsül az alaplapjában, és valahogy kétlem, hogy egy 4magos (meg lesz majd az 8 is) csucsprocival + egy (neaggyisten 2) felsőkategóriás videokártyával felszerelt gépen rohadt sokat gyorsitana ez a "gyorsítókártya"...
  • dronkZero
    #5
    Azt árulja már el nekem valaki, hogy miért gondolják, hogy ez bárkinek kell? Amíg a kétmagos procik másik magja a tökét vakargatja a játékok 99.9%-ában, addig minek vennénk "processzorkártyát" a gépbe?
  • PLaci #4
    60-80 ezerért egyszerűen nem éri meg....
  • Zro
    #3
    Mobil szegmensben sikeresebb lehet szerintem, mivel a mobil gpu-k jóval vérszegényebbek asztali társaiknál, így rájuk fér egy kis támogatás :)
  • Gerygrey
    #2
    Ez a PhysX még létezik? Azt hittem már eltűnt a süllyesztőben...
  • Sanyix
    #1
    loál