65
  • Akuma
    #65
    "ám az igazi kérdés, hogy lesz-e rá valós igény."

    Hogy a viharba ne lenne?? Végre a szomszéd wifi kódját ki lehetne iktatni aprópénzzel... :D
    Viccet félretéve, mérnököknek sosem lesz elég a processzor teljesítmény. És akkor még a NASA-ról nem is beszéltem.
    Végeselemes szoftverek végtelennek tűnő véges elemszámmal, komplex összeállítások, analízisek, megoldásuk 5 percen belül. Kiértékelés, módosítás és újrafuttatás.
    Mindenképp kell az egyre bivajabb gép...
  • sirpalee
    #64
    A technikai és programozási részleteknél oly sok sebből vérzik a mondókát, és oly nagy tudatlanságra vall, hogy sikerült alaposan megmosolyogtatnod engem, és pár ismerősömet akiknek bemásoltam a hszedet :) .

    Hev fán, és tanulj még sok-sok dolgot ;) , hogy legközelebb ne azért idézzenek mert vicces, hanem mert okosat mondasz.
  • sanyicks
    #63
    hát én konkrétan egy pisikszes játékhoz configoltam füstöt, ott bizony minden részecske egy alpha channeles textúrás lap volt, ami random forgott, és sok darab volt belőle, így lett meg a füst effekt.
  • philcsy
    #62
    "Egyrészt, textúrázva vannak a folyadékok is néhol"
    Én a tűznél találkoztam olyan techdemoval amiben a részecskéket (lángnyelveket) textúrázták. Igy jóval kevesebb részecskét kellett használni. Viszont az a tűz csak szimplán égett. A láng keletkezésénél a lobbanást, vagy a láng elfújását ezekkel nehéz szépen megoldani.

    "és ez a lényeg, nem az hogy fizikailag korrekt legyen valami, hanem hogy JÓL nézzen ki"
    Ebben teljesen igazad van. Egyrészt ezért nincs értelme csak részecskemodellezést használni. Másrészt ha a grafikusod egy olyan világot álmodik meg amely fizikailag nem korrekt, esetleg paradox, akkor azt egy fizikai szimuláción alapuló megjelenítéssel nehezen fogja megcsinálni. (Pl.: végtelen önmagába záródó lépcsőn lepattogó labda.)

    "intelnek sincsenek akkora trükkjei ami nvidiának ne lenne ;)" Azért van: megfelelő méretű cache, összetett vezérlőlogika. Persze van a fermiben cache, de mennyi is? Kevesebb mint 2MB összesen, magonként ez 4kB. Mennyi van egy intel prociban? Magonként 2MB. Na ez az a "trükk" amivel az intel automatikusan legyőzi a latencyt, anélkül hogy a programozó bármit is tudna.
    Ha GPU-t akarsz programozni akkor ezt felejtsd el, ott soha nem lesz magonként 2MB, mert annyi áramköri elemből inkább csinálnak plusz X db magot. A problémát pedig oldja meg a programozó.

    "Ami egy komolyabb jelenetnél 20-30 giga. (mivel előre nem tudjuk megmondani mire lesz szükségünk."
    4 db Tesla C2070 kártyán van összesen 24GB memóra. Ez egy gépbe belemegy, mellé lehet még rakni legalább ugyanennyi rendszer memóriát. Persze egy GPU nem látja az egészet, de ez ütemezésel megoldható.

    "és ott az előadások, tréningek nagy része arról szól, hogyan küzdjünk meg az architektúrával, és hogy varázsoljuk elő a számítási kapacitás kemény 10%-át" A probléma szerintem az hogy a programozás (és a programozók nagy része) az utóbbi időkben eltávolodott az architektúrától, és itt nem csak a java-ra gondolok. A CPU vezérlőlogikája és a fordító megoldott helyettük minden proglémát. Aztán amikor találkoznak egy GPU-val rájönnek hogy mi is az a regiszter, latency, öszefüggő memóriaolvasás.

    A memóriasebesség problémákat pedig a csipbe épített optikai komunikációval meg lehet oldani. Persze nem ma, hanem amikor majd ezek a problémák kezelhetetlenül elhatalmasodnak.
  • Komolytalan
    #61
    Sok mindent leírtál, alapvetően a következő típusú problémákat vonultattál fel:
    1. Nem megfelelő az architektúra, hw. Erről én is beszéltem lentebb, hogy a sok mag jelenlegi memória architektúrával semmit se ér. Amíg ez a gond nem oldódik meg, addig eleve nem lesznek millió magos procik, mert nem sokat érünk 1 millió 2kHz-s órajelű maggal.
    2. Nincsenek megfelelő fejlesztői eszközök (ki rajzolja meg). Én úgy tudom a jelenlegi textúrázott polygonokat se úgy rajzolják meg, hogy beírják a csúcsok koordinátáit input mezőkbe. Vagyis ha lesz képesség a megjelenítésre, majd készítenek eszközöket is. És amivel több idő egy kart vagy egy lábat összerakni úgy, hogy ez csont anyag, ez meg izom anyag, és függőlegesen erősebb a kötés (úgy vannak a rostok) mint vízszintesen, itt meg vannak a szalagok, stb, annyival kevesebb idő lesz megcsinálni a fizikáját.
    Szóval persze, igazad van, most nincs ennek realitása. Ahogy az 1000 magos procinak sincs. De nem is erről beszélt senki se.
  • sirpalee
    #60
    Mindegy, röviden összefoglalva a sok mag nem ad önmagában egyszerű megoldást... Főleg nem renderelésben... Erre a témára meg különösen harapok, mivel itt az átlag fórumozók majmolnak 3-4 mondatot, és mindenki tényként fogadja el, közben meg fingja sincs az egészről ;)
  • sirpalee
    #59
    Tervbe volt véve a válasz, de mással foglalkoztam eddig...

    Egyrészt, textúrázva vannak a folyadékok is néhol, persze legtöbbször procedurális textúrákkal, de textúrázva vannak / lehetnek. (pl nálunk inkább kitolják nagyobb felbontásba a folyadékokat - mint tűz, füst, vér stb - de nem textúrázzák, de az is egy lehetséges megoldás lenne)

    Igen a hszetekből itélve nincs rálátásotok erre a problémára, de ha tévedtem győzzetek meg róla ;) (hint - shaderprogramozással is foglalkozok)

    A felmerülő probléma... Igaz, hogy a fizikai shadelésnek iszonyú előnyei vannak, nehéz túllőni az anyagokat, nehezebb idióta beállításokat kreálni, kevesebb AOV (kevésbé van megterhelve a pipeline...), kevesebb beállítás magán az anyagokon... Ez baromi jó, csak mire ezt elfogadtatod egy grafikussal, kétszer kihullik a hajad. Ilyeneken ügyködök 2 hete (ünnepeket kivéve ofc), hogy a klasszikus össze-vissza tweakelhető shader fizikai alapú megoldásra legyen lecserélve, és a legnagyobb ellenállás a shaderezőktől jön, mert hogy megszokták a régi módszert, nem lesz nukeba elég pass stb... Én meg tépem a hajam, hogy ezt kéne, nem a régit...

    Ez egy jó párhuzam a textúrára... Hiába van neked egy baromi jól működő, baromi jó fizikai alapú anyagod, ami össze-vissza töri meg szórja a fényt, ha az nem igazán állítható... Mondjuk van x mért anyagod, azokat tudod beállítani, és? Pont arra lesz szükséged ami hiányzik... És ha ilyen komplex fizikai modelleket valaki kézzel állítgat, akkor szinte lehetetlen olyan kinézetet létrehozni amit a művész szeretne (és ez a lényeg, nem az hogy fizikailag korrekt legyen valami, hanem hogy JÓL nézzen ki). Ebből a szempontból a textúrázás kilövőse agyhalál az összes art directornak...

    Effektíve amit te mondtál, az is arról szól, hogy a voxelek (maradok ennél a terminológiánál, érthetőbb) tartalmazzák a szineket is (ezért írtam a 3d-s textúra kifejezést), de hol találsz olyan embert aki ezt megfesti neked belátható időn belül? Persze nem mondom, hogy nem lehet, de egyelőre az ehhez kellő eszközök is hiányoznak.

    A technikai problémákra visszatérve... Látszik, hogy nincs programozási háttér, mert mindenki arra gondol, óh szuper 1000 mag, 250szer gyorsabb (4 maghoz képest), de a valóságban az a helyzet, hogy a memória alrendszer megöl mindent... Pl a videókártyákat nem a számítási teljesítmény fogja vissza, hanem a memória rendszer (nyilván nem játékokról beszélek, ahol elég speciális trükkök vannak). A kártyákba rakott 170G/s-es memória sem elég mindig, iszonyatos latencykkel dolgoznak a shader procik... És gyakorlatilag azért, hogy el tudd tüntetni ezeket, sokszor annyi threadot kell futtatnod, ahány tényleges proci van. Valószínűleg hasonló helyzet állna fenn egy sokszáz magos procinál is, intelnek sincsenek akkora trükkjei ami nvidiának ne lenne ;) .

    Ekkor meg már fellép az a probléma, oké futtassunk raytracet, de ledöglik az egész, mert önmagában ahhoz, hogy elinduljon a render lefoglalunk 5-6 giga memet (vagy még többet... hint - stack... esetleg még ha ügyködünk valami stackless módszeren is, akkor is baromi nehezen oldható meg, hogy tetszőleges shader futtathasson a render - ez pedig egy produkciós renderelőnél elsődleges dolog...)

    Aztán pedig előjön egy halom szinkronizációs probléma... Ez abban az esetben oldódhat meg, ha van elég memóriánk betölteni minden textúrát és minden adatot statikusan a membe, hogy mindenki onnan olvasgasson. Ami egy komolyabb jelenetnél 20-30 giga. (mivel előre nem tudjuk megmondani mire lesz szükségünk, és ha több ezer szál között elkezdünk lockolni az ronda lesz...). És ilyenkor szépen várunk perceket mire végigpörgeti a vinyót a gép... (vagy rosszabb esetben a hálózatot, és minden lerohad)

    Ezzel nem azt akarom mondani, hogy szar a sokmag, sőt jöjjön nyugodtan. De a szokásos tévhittel ellentétben, ez nem úgy megy, hogy x szálon futtassuk akkor a proginkat, még ha az csúcsszuperül is van megírva. Egy bizonyos mennyiség felett, már a cpuk is hasonlóan viselkednének mint a gpu-k, és ott az előadások, tréningek nagy része arról szól, hogyan küzdjünk meg az architektúrával, és hogy varázsoljuk elő a számítási kapacitás kemény 10%-át (nyilván sarkítok kicsit, de remélem érthető a példa)...
  • philcsy
    #58
    Vártam hogy válaszolj, de...

    "Mindenhol, minden model textúrázva van."
    Csak a merev és a rugalmas testeket. A folyadékok (ide sorolva a képlékeny anyagokat is) és a légnemű anyagok (ide sorolva a ködöt és a füstöt) valamint a láng élethű modellezésénél részecskemodellt használak. És a részecskéket nem textúrázzák.

    Ezek után a "csak a hszekből itélve egyikőtöknek sincs fogalma arról" mondatod elég vicces. :)
  • Komolytalan
    #57
    Szerintem az megteszi gyakorlati problémának, hogy nincsenek millió magos gépek kéznél. Amíg meg eszköz nincs, addig a fejlesztés is nyögvenyelős ugyebár. Egy nem létező architektúrára nem fognak algoritmusokat implementálni, meg arra optimalizálni.
    Szerintem azt lehet kimondani bizonyosan, hogy a textúrázott felületű papírlapokból álló világ egy vicc, a valós, fizikai tulajdonságokkal részecskékből álló világhoz képest. Vagyis csak azért mert te vagy én vagy per pill mindenki megoldhatatlannak látszó korlátokba ütközik, azért nem kéne elvetni az ötletet. Mert ugye a levegőnél nehezebb tárgyak se tudnak repülni.
  • philcsy
    #56
    Mond már el hogy a részecske alapú modellezésnél milyen nem technikai jellegű problémákra gondolsz?
  • sirpalee
    #55
    Az elmélet szép és jó, ebben nem mond hülyeséget, csak a hszekből itélve egyikőtöknek sincs fogalma arról, hogy egy ilyen rendszer milyen gyakorlati problémákba ütközne. És ehhez nem elég az 1000 max, vagy az xsok mag.

    Ki lehet mondani, hogy voxel így úgy (effektíve az sem más, mint 3ds textúra...), de ahhoz, hogy bármi ilyesmit éles helyzetben lehessen használni, a technikai problémák megoldása, csak a jéghegy csúcsa... A csúnya dolgok alatta kezdődnek...
  • Komolytalan
    #54
    Pedig nem beszél hülyeséget ám a srác. A jelenlegi modellezés a tárgyak felületét modellezi, ezért kell a textúra. De ez a módszer sokkal gyengébb, mintha a tárgyak "részecskéi" lennének modellezve, most itt egy részecske nem feltétlen 1 atom, de mondjuk 0.1 mm3-as kis kocka. Mert ez esetben valóban azok jönnének be amit ír, hogy a fizikai és képi modell egyesülne, a tárgyaknak nem csak felületi tulajdonságai lehetnének - a textúra ennyit tud - de minden egyes kis töredékének valós fizikai tulajdonságai (szín, tömeg, kötési erő a szomszédos elemekhez (szilárdság), fényvisszaverés, fényáteresztés, fénytörés, stb). És ezzel lehetne valós törést csinálni.
    A gond csak az, hogy egy 10x10cm-es tárgy ha 0.1mm pontossággal dolgozunk akkor 1 millió részecskéből állna, amit mind külön kellene számolni, és a fizika miatt azokat is számolni kéne valamennyire, amik nem látszanak. 10x10cm-es világ meg elég kicsi...
  • sirpalee
    #53
    Lol ezeket honnan vetted te? Textúra nélküli renderelés? Sehol sem használják ezt :) . Mindenhol, minden model textúrázva van.

    Valós tükröződések? Egyedül a rendermannal dolgozó studiók vannak kissé hátrányban (mivel ott a raytrace baromi drága), de bárki más nincsenek arra kényszerülve (pl Sony).

    Minden pixel külön magon? Van fogalmad a renderelés menetéről? Mert innen nézve nincsen...
  • passatgt
    #52
    2005-ös hír:
    "Elindultunk a többmagúság felé, ami ugye először kettő, majd négy, de úgy számítunk, hogy viszonylag hamar, a 2010-es évek elejére sokmagúvá alakul. A sokmagúság egyes szakértők szerint lehet akár 128 is."
  • kvp
    #51
    "nembaj majd egymilliárdszor egymilliárd pixeles textúrája lesz a lágyan lengedező százmillió polygonos fűszálnak"

    Ha olyan nagy szamitasi kapacitas van, akkor at lehet terni a raytracing-re es a fixikai modellre alapulo szimulaciora, tehat mar nem textura es polygon van hanem 3D-s tomor targyak es valos turkozodesek. Manapsag meg csak a filmtrukkok kisebbik reszet keszitik igy, de par ezer procival mar talan kis felbontasban meg lehet csinalni hasznalhato sebesseggel valos idoben, de tobb szazezer mag jobb lenne. Es az egeszben az a jo, hogy raytrace-nel ugyanaz a primitiv program fut minden magon, csak nagyon sok iteracio kell, ezert a legjobb ha minden pixelnek van sajat magja. Tehat egy jo programozo mar most ki tudna hasznalni egy 2 megacore-os gpu-t. (2 millio magost) Ha ezt megoldjak, akkor a kornyezet atalakithatova valik, tehat pl. eltorheto egy targy es nem egy elore kezzel gyartott szabvanyos 'torott' modell kerul a helyere, hanem pl. egy tukor egy nyilvesszo becsapodasi helye szerint reped meg es a fenyvisszavero tulajdonsagai is e szerint valtoznak meg. Vagy egymas melle rakott kristalypoharakkal el lehet terinteni az ablakon beszurodo feny utjat, ami a prizma hatas miatt szabalyosan bomlik komponenseire. Es az algoritmus mar kesz van hozza tobb millio magra is, csak nincs olyan hardver ami elbirja valos idoben. Szoval en nem aggodnek a miatt hogy nem fogjak ertelmes modon kihasznalni az akar 1 millioszor nagyobb kapacitast is.
  • Merces
    #50
    ....nembaj majd egymilliárdszor egymilliárd pixeles textúrája lesz a lágyan lengedező százmillió polygonos fűszálnak , amiböl persze francot nem veszel észre,
    de jól fogja a gépet
  • andersh
    #49
    Ez eddig is így volt. Eddig sem tudták tartani az iramot.
    Mivel előbb a hardvernek kell kijönnie hogy el tudjanak kezdeni programozni rá.
  • Crane
    #48
    Talán a gyártósorok tudják majd tartani az iramot, de vajon a programozók, és az alkalmazások fejlesztői fogják tudni? Erősen kétlem.
  • Rapid81
    #47
    Ja, és persze ugyanúgy rakhatsz Windowst és Linux-ot is a Mac-ekre, ebből kifolyólag. Csak persze 4-5x annyiba kerül egy alap Mac, mint egy PC...

    Valamint fordítva is megy, vagyis ugyanígy rakhatsz OsX-et PC-re.
  • Rapid81
    #46
    Látom a nagy fanatizmusod közepette még nem jutott el a tudatodig, hogy a Mac-ekben Intel proci ketyeg már pár éve. :D Ekkora égést...
  • Desiderata #45
    én a kvantumszámítógépeket várom már :)
  • byzhouse
    #44
    ja csak mac 4szer annyiba kerül és nem is lehet rajta játszani ^^
  • pasi29uk
    #43
    Az erős proci választás nem elég. Legalább ennyire fontos, hogy milyen az alaplap illetve milyen RAMot teszel mellé!
  • Komolytalan
    #42
    Az energia forrása és amiben tárolod az energiát sokszor elkülönül, és gyakran mindkettő szennyező. Pl: elektromos autó, hőerőmű. De a belső égésű az mindenképpen szennyezni fog, az elektromosnál meg van arra esély, hogy ne hőerőműben termeld meg hozzá az áramot, hanem mondjuk atomerőműben. Azért az mégse lenne jó, ha autókba nukleáris reaktorokat raknának:-)
  • Komolytalan
    #41
    Lehet félreérthető voltam - napi szinten 3 nyelvet használok, és ebből egyik se gépi kódra fordít. Egyszerűen azért, mert ezekkel lehet hatékonyan (értsd kevés idő alatt) megoldani a problémákat, amiket meg kell oldanom. Persze a végeredmény ezeknél lesz leglassabb, de hát ezt fizetik meg...
    Viszont én még valamilyen szinten képben vagyok - akkor is ha 10 éve foglalkoztam a témával behatóbban - azzal, hogy mi zajlik a processzorban, és nem úgy állok hozzá, hogy "felveszek még 100 threadet, és kipróbálom mi lesz a virtuális szerveren".
  • DontKillMe
    #40
    Mondott az intel ennél nagyobb baromságot is már.
  • farxis
    #39
    szar pécé akkorra a macekben már 10000 magos lesz és mind 8ghz-n fog futni, ugyanis az apple a leginnovatívebb fantasztikus cég.
  • [HUN]FaTaL
    #38
    "3. a szoftverek által megoldandó problémákra igaz, hogy elméletben jelentős része nem párhuzamosítható, ám gyakorlatban szinte bármi, amit egy windows-ban láttok párhuzamosítható"

    Persze, minden párhuzamosítható csak a szálak szinkronizálása miatt marhára nem biztos, hogy gyorsabb is lesz.
  • B0nFire
    #37
    "sziasztok!
    nem tudom jó helyre teszem fel a kérdésem, de kerestem egy Intellel foglalkozó fórumot..."


    Nem jó helyre tetted fel a kérdésed. Ez nem az a topic. A világ legnagyobb bunkóságba, beesni valahová, és a legelső utunkba kerülő helyre beböfögni a problémánkat.

    Van itt az SG-n kismillió+ gamer pc-vel foglalkozó topic, keress egyet a keresővel, és oda írd be a kérdésed. Ez egy, az oldalon megjelent hírnek a topicja. Itten nem építünk gépet.
  • uikka
    #36
    sziasztok!
    nem tudom jó helyre teszem fel a kérdésem, de kerestem egy Intellel foglalkozó fórumot...
    Na szóval. Már nagyon kicsi a processzorom az új játékokhoz, meg már öreg is és nem olyan fürge mint fénykorában...
    Szeretnék venni egy újat, csak az a kérdés, hogy szerintetek melyik a jobb.
    Egy pl: Intel Core i5 (2,0-2,4 GHz) (2 magos), vagy egy Intel Core i3 (2,4-3,0 Ghz) (4 magos)...
    Szeretnék jó procit (gyors,erős...) inkább játékra használom...
    Max.:30.000-40.000 Ft-ot szeretnék szánni rá...
    Kérlek segítsetek
    Adhattok tippeket is, hogy milyen lenne jó...
    Ja igen és: szerintetek mi számít jobban a magok száma, vagy a GHz?
  • Ender Wiggin #35
    A hardver eléggé a játékok előtt jár, így most sem kell évente gépet cserélni. 3 éves hardveren is jól fut a Crysis Warhead. Az más kérdés, hogy 2011-ben mondjuk a Crysis 2 is megmozdul-e rajta. De ettől még tény marad, hogy 2007 óta nem kellet semmit venni, és minden játék futott. Így a rókabőr lehúzás kissé sántít. A természetes progresszió, hogy amint van valami új egyből dobják is.
  • MsUser
    #34
    Ez a sűrített levegős autó témába vág, de a levegő sűrítéséhez használt energiát miből nyerik, már a levegőn kívül :) Ez a módszer se nem környezet barát, se nem ésszerű, mivel energiát pazarolnak a sűrítéshez aztán az így nyert nyomást mozgási energiává alakítva triciklit hajtanak!?! Vagy talán nagy nyomású lelőhelyeket találtak a föld minden pontján???
  • Doktor Kotász
    #33
    Ez egy teljesen értelmetlen interjun alapuló cikk mégértelmetlenebb átvétele volt. Szeneslapáttal kell agyonvágni azokat az embereket, akik ilyen semmitmondó foschsal lopják a napot.
  • Buzzword
    #32
    Miért érzek az interpretált nyelvekkel/enterprise fejlesztőkkel szembeni ellenérzéseket a kommentjeidben, kolléga?
    (Adott problémakörben az ellenérzés amúgy jogos :D)
  • Wearwolfff
    #31
    Én a magam részéről örülnék, ha kijönne akármilyen teljesítménnyel, mert én mindig jó tíz évvel később tudok hozzájutni mindenhez. Szal, ha ez 2020ban köztudatra kerül, akkor végre tudok venni magamnak egy négymagost bagóért.
  • gere1
    #30
    "-sűrített levegővel működő autó"

    kb 5 eve van. franciak csinaltak, aztan megvette a TATA
    http://www.mdi.lu/english/

    egyebkent 60 eve is volt mar.
  • gere1
    #29
    nem az a kerdes h kell e 10 ev mulva 1000 magos proci.

    Az a kerdes, h ha 2020ra 1000magos proci lesz, akkor mi lesz 2050ben, 2070ben vagy 2120ban (esetleg 2320ban?) ?

  • MsUser
    #28
    Hát a memóriáknak is kell fejlődés hogy ki is lehessen használni, igazi gyorsulás a busz rendszer, memória, és a sok magos CPU-val együtt hozza el a változás szelét.
    Majd mikor az alkalmazások is meg kívánjak az 1000 magot akkor használjuk majd őket és az elavult Quad Core CPU-s rendszereket kidobjuk, vagy a kávéfőzőbe, hűtőbe, TV-be, integráljuk. Vagy az óránkba :)
  • johnsmitheger
    #27
    Nem minden feladat párhuzamosítható és nem csak a procik határozzák meg egy alkalmazás sebességét, így az 1000 proc nem 1000* gyorsabb... A raytrace viszont tipikusan ilyen cucc, és jó lenne már látni egy realtime raytrace game-t.
  • Molnibalage
    #26
    Szobahőmérsékeleten szupravezető....? Linkeld már!