24
-
readswift #24 raytracing, intel azalia hd audio , microsoft , direct audio , creative labs csak gratulálni tudok mindenkinek akinek ők jelentik a mércét -
readswift #23 az általad olyan nagyon tisztelt ms még usb2 audio class támogatást sem tudott bepakolni a win7-be, dehát tökmindegy mert normális usb audio chipset sincs. Ha valamit akkor ezeket a villogó techdemókat utálom , meg a +20% látványelemet...... Te is leirtad hogy akit érdekelt ez a pszeudorandom , algoritmikus generálás az eddig is használta. Nem lesz itt semmi különös, neked van egy fantazmagóriád amiben minden egyesül , nadehát ilyen meg végképp nem lesz. -
kvp #22 "hát elragadó ötlet, főleg ha magának az ördögnek dolgozol (~amerikai hadsereg ), akkor akár még tényleges felhasználást is lehetne neki találni, egyébként nem hiszem."
A microsoft, aki mint nehany linux kozeli troll-tol tudjuk maga az ordog pont ezzel foglalkozik. Az uj 'natal' nevu vezerlojuk pont ezt probalja. Sztereokepbol csinal full body motion capture-t es a concept demo-ban kepes a jatekos bizonyos valos vilag beli targyait beolvasni a jatekba, amik ezutan hasznalhato tagyakkent jelennek meg (a videon egy gordeszkaval csinaljak ezt meg). A masik vicces resz amikor egy gyerek mozgasat alakitja at egy szorny mozgasava. A kerdeses cikk valamikor mostanaban kerult fel az sg.hu-ra...
"Mert egy kicseszett sárkányt, lekell modellezni bizony, méghozzá pontosan olyan részletgazdagon, ahogy a táj is, meg a többi dolog is megvan."
Ahogy eddig. Fog az ember egy muveszt, megcsinaltatja vele agyagbol/fabol/gipszbol/ragogumibol es beolvastatja a geppel. Ez ma mar a lezeres scanner-ek idejen eleg egyszeru feladat. A masik megoldas legyartatni egy algoritmussal. Az oblivion fait es a spore szornyeit nem emberek alkottak, hanem egy algortimus kesziti oket egy megadott dns szeru adatbazis alapjan, majd automatikusan felcsontozza oket es adaptiv modon kigeneralja a legvaloszinubb mozgasi mintakat. Ami igy keszul az lehet akar teljesen egyedi is es mivel a generalo kod alapadatait taroljuk ezert sokkal kevesebb helyen elfer mint egy modell. Igy egy vilagban akar minden egyes eloleny eltero lehet es nem csak at vannak szinezve es meretezve mint a wow x+1-edik szornyei. (algoritmikusan tarolt terkepet en eloszor a dune2-ben lattam, ott a terkepekbol csak a random seed-et mentettek es a palyatervezo altal utolag felrakott emberi epitmenyeket es jarmuveket) A technika adott es szepen lassan elkezdjuk hasznalni. Lattam olyan robotot ami megnezte, hogy az emberek hogyan hasznalnak bizonyos targyakat, majd ebbol magatol epitett egy kinetikus modellt es kesobb kepes volt e szerint mozogni es meg azt is kezelte amikor megvaltoztattak a kornyezetet, egyszeruen ujraepitette a sajat 3d-s modelljet viszont megtartotta a tanult cselekvesi mintakat. Mindezt par japan diak keszitette egy versenyre, tehat a state of the art ennel mar joval fejlettebb.
ps: Ai gyorsitas gpu-val mar eddig is letezett, pl. shader alapu utvonalkereso kodok mar nagyon regen vannak, csak eddig nem erte meg hasznalni oket. Most mar sokkal kisebb a szamitasi koltsege egy ilyen muveletnek.
-
#21 Ez a cím talán azzal kiegészítve lehetne igaz, hogy "A játékosok gépeiben..." Mert a PC nagy százalékát nem játékra vagy komoly grafikai programok futtatására használják, hanem szimpla irodai munkára. Windows+Office+net. Erre a combóra minek kéne 2 GPU, mikor azt az egy integráltat se használja ki? 2 év baromi kevés arra, hogy a PC állomány felét lecseréljék! -
readswift #20 ontopic:
http://www.custompc.co.uk/news/605389/nvidia-and-amd-to-accelerate-gaming-ai-on-gpus/page1.html -
readswift #19 hát elragadó ötlet, főleg ha magának az ördögnek dolgozol (~amerikai hadsereg ), akkor akár még tényleges felhasználást is lehetne neki találni, egyébként nem hiszem. -
readswift #18 "Jó, de azt nem fogják fel sokan szerintem, hogy hiába tudod fotorealisztikusan "beolvasni" a valóságot, ha nincs valóság amit beolvasol? Pl honnan veszel mintát a WoW-ba pl? Mert egy kicseszett sárkányt, lekell modellezni bizony, méghozzá pontosan olyan részletgazdagon, ahogy a táj is, meg a többi dolog is megvan."
elfelejted hogy ő azt mondta hogy sztereoszkopikus videóról olvasná be :D
azér render van egy pár és onnan kilopná :D
WOW-osokat szerintem meg nem a sárkány érdekli hanem a sárkánybélben tapicskolás (ehez egy disznóvágás is megteszi) meg a LOOOOOOOT
Számomra a Mass Effect jelenti a mércét. Ha valaki a Mass EFFECT játékmenetén javit , az a világon javit -
AranyKéz #17 > na ez az amit én úgy hivok hogy borderline bullshit
MIIII
Már egyetlen fotóból is ki lehet nyerni elég jó pontossággal a depth mapet, kettővel meg már esztelen sokra lehet menni, amit az emberi látás is bizonyít.
-
Ahoy #16 Jó, de azt nem fogják fel sokan szerintem, hogy hiába tudod fotorealisztikusan "beolvasni" a valóságot, ha nincs valóság amit beolvasol? Pl honnan veszel mintát a WoW-ba pl? Mert egy kicseszett sárkányt, lekell modellezni bizony, méghozzá pontosan olyan részletgazdagon, ahogy a táj is, meg a többi dolog is megvan.
Amellett ittvan pl a filmek 3d animációja, ami azért nemsemmi szinten van. Ismerek srácokat egy ilyen cégnél - hónapokat dolgoznak egy 10 másodperces jeleneten, ami fotorealisztikus. Ott nincs ám realtime! Nemcsak azért mert nincs alatta akkora vas, hanem mert egy fotorealiszkikus realtime modell megépítése elképesztő bonyolult, azonkívül animálás egyszerű? Egy játékban milliónyi mozgásfajta van, főleg ha valósághű. Minimum egy rohadt bonyolult A.I.-t kell alá írni, felvértezve minden alapvető mozgással, érzelemmel, cselekvésekkel stb. Ilyen támogató eszközök egyelőre nincsenek. Ismétlem, a teljesen filmszerű valósághű játékra gondolok, akár atomi szinten - ha lenne alá 1000 Ghz-es proci.
Mai tudásunk szerint, hihetetlen sok idő és ember, no meg pénz kell hozzá. A haldokló játékipar, meg a konzolipar ami rohadtul visszahúzza az egész fejlődést az statikus hardverével... Nagyon nem ezirányba megyünk.
Látható, hogy alig fejlődik a játékok grafikája, mondjuk crysis óta. -
readswift #15 Raytracing pl Audio-ra totálisan alkalmatlan (legfeljebb magas frekvenciákra jó) . Én a jelenlegi rasterizer látvánnyal tökéletesen elégedett vagyok. Pisicset amibe nagyon akartak rakni , raktak eddig is . Ai-t úgyszintén. Remélem kapunk audiot meg AI-t a bónusz 20% látványelem helyett. És simán veszek még egy kártyát ha azon múlik. -
readswift #14 de ez egy autonóm, zárt control loop amiről te irsz, nem pedig egy "creation toolset" könyörgöm. -
kvp #13 "Mar most is vannak olyan probalkozasok, hogy sztereo videokepekbol valos idoben 3d-s modelleket keszitsenek."
na ez az amit én úgy hivok hogy borderline bullshit."
Masok meg depth map-nek hivjak es pl. a darpa autos versenyein ezzel navigaltak az autok. Viszont mara mar a robocup-os diakok altal keszitett robotok egy resze is ilyet hasznal. Az algoritmus ugy mukodik mint ahogy az ember lat terben. Az erre hasznalt optical flow algoritmus nagyon egyszeru csak nagy szamitasi teljesitmeny kell hozza. Mar 20 eve is voltak mukodo probalkozasok, viszont mara eljutottunk oda, hogy egy sima otthoni pc is kepes ra valos idoben, bar meg egyelore eleg gyenge felbontassal, de robotok navigaciojahoz vagy targyak megfogasahoz mar eleg. A melysegi terkep mellett ugyanez az algoritmus mas konfiguracio mellett kiadja a mozgo tagyak listajat es az ugynevezett slam algoritmus segitsegevel kepes 3d-s terkepet kesziteni a kornyezeterol. A nasa peldaul nagyon szereti a fent leirt modszert a robotok sztereokamerainak kepe alapjan a marsi taj 3d-s modelljenek automatikus generalasara hasznalni.
http://en.wikipedia.org/wiki/Simultaneous_localization_and_mapping
http://en.wikipedia.org/wiki/Optical_flow -
macseke #12 "A fejlodes pedig eleg gyors ahhoz, hogy ne erje meg ket gpu-t venni, hanem valamivel kesobb egyet, ami viszont hozza a ket regebbi teljesitmenyet, viszont csak egy darab araba kerul."
Én is ezen a véleményen vagyok. Ha egy kártya már nem elég ahhoz, hogy elvigye a játékokat, akkor az elavult, nem érdemes másikat venni mellé mert egy-két hónap és a kettő ereje sem lesz elég az új gamékhoz (aki meg megjelenéskor vesz kettőt az egy állat, de nem hiszem, hogy az emberek többsége jövőre ilyen lesz :) ). Ráadásul ami nekem már kevés, azt egy szerényebb igényű vásárlónak még el tudom adni viszonylag jó pénzért, de ha várok vele amíg a kettő is kevés lesz, már annyira lemegy az ára hogy rakhatom fel a polcra port fogni... És annyival nagyobb pofon lesz a pénztárcámnak az új kártya, amit vennem kell. -
readswift #11 ha már itt tartunk remélem miharabb jut 1.5 teraflop audiora , voxel meg hasonló üzelmek helyett . -
readswift #10
"A 3d modellezesnel pedig nagyon fontos, hogy amit atter valaki voxel modellekre (raytracing), onnantol barmilyen valos targy nagyon rovid ido alatt beolvashato. Mar most is vannak olyan probalkozasok, hogy sztereo videokepekbol valos idoben 3d-s modelleket keszitsenek."
na ez az amit én úgy hivok hogy borderline bullshit.
zenét sem füllel vesznek föl hanem sávonként :p -
kvp #9 A cikk iroja azt nem vette figyelembe, hogy a legtobb feladatra egy chip is eleg. A fejlodes pedig eleg gyors ahhoz, hogy ne erje meg ket gpu-t venni, hanem valamivel kesobb egyet, ami viszont hozza a ket regebbi teljesitmenyet, viszont csak egy darab araba kerul. Nem beszelve a tobb chip egy tok megoldasrol, ami ugyancsak terjed. A jovo inkabb valahol az egy chipbe zsufolt cpu/gpu/ram/io rendszerekrol szol, ahol egyetlen kis chip a teljes pc. Egy ilyen rendszerben mar elkepzelheto, hogy csak hattertarolokat es tapellatast kell adni az egychipes megoldashoz es kesz a teljes erteku pc. (a legtobb ember nem cserel semmilyen belso alkatreszt a gepeben a vasarlas utan, tehat nyugodtan lehetnek akar egy chipben is)
A 3d modellezesnel pedig nagyon fontos, hogy amit atter valaki voxel modellekre (raytracing), onnantol barmilyen valos targy nagyon rovid ido alatt beolvashato. Mar most is vannak olyan probalkozasok, hogy sztereo videokepekbol valos idoben 3d-s modelleket keszitsenek. -
#8 Ha már a környezet megvan, onnantól kezdve nem nagyobb meló megcsinálni egy animációt, mint egy képet. Nagy meló felépíteni egy ilyen fotorealisztikus 3D környezetet, de ha kész, onnantól kezdve már csak a kamerát mozgatod benne. -
Gaboca76 #7 Hát ere csak az tudom mondani hogy lesznek olyan szoftverek bisztos amik munkát sporolnak a programozonak.Pl megadja a föbparamétereket és anyi jöhet a csicsázás! -
Ahoy #6 Szerintem meg ember nincs rá. A fotorealisztikus modellezés hihetetlen erőforrásokat és időt igényel...rengeteg embert, és türelmet.
Blender cup
Csak ez a kép, egy fotó ami rengeteg ideig készült... Animáció sehol sincs benne, és ráadásul sok textúrát felhasznált gondolom a fotó alapján.
Vagy atomi szintűre gondolsz? Akkoris valakinek ugyanúgy megkell csinálnia a fotorealisztikus arcokat, a géppuskát vagy hegedűt...vagy akármit meg az egész tájat az utolsó hangyáig. Attól mert van alatta vas - 100 Ghz-es grafén proci - még nemkeletkeznek csak úgy sitty-sutty fotorealisztikus modellek. Vagy mire gondolsz? -
EroSennin #5 Sajnos az a trend hogy a PC egyre kevesbe jatekplatform, majdnem mindenki konzolra fejleszt elsodlegesen es masodsorban PC-re. Mivel mar most gyengebb egy konzol hardvere mint az egy videokartyas PC igy eleg biztos hogy a multi-gpu nem fog elterjedni. Marad a kutatok, grafikusok, overclockerek es hardcore gamerek jatekszere, ami elhanyagolhato szazaleka az egesznek. -
#4 a játék "szépségében" a videókártya a gyenge láncszem, lehetne fotórealisztikus játékot is írni, az elmélet megvan hozzá, leprogramozható, elkészíthető
azért nincs ilyen a piacon mert mai hardver nem futtatná valósidőben
szóval a hardver húzza vissza a szoftvert -
JTBM #3 Nyilván valaki jó pénzt fizetett neki ezért a baromságért... A PC-ken kb. 60%-os az alaplapba/CPU-ba épített GPU aránya, ez nem fog sokat változni.
Szvsz. még 10% sincsen azoknak a PC-nek az aránya, ahol kettő v. több GPU van, ez sem fog sokat változni.
Még játékokra sem érdemes venni túl nagy GPU kapacitást, egy mai kártya egy mai monitor (22" - 1680x1050) felbontását egy mai játékkal elbírja. -
semmikozod #2 Hóóó ez a fehér színű zafír alaplap. Ilyet akarooook! :-) -
waterman #1 ha az multi gpu technológiának számít, hogy lesz gpu a proci mellett is meg az alaplapon is egy igp a régi alaplapon, akkor akár..
az emberek 3/4ének elég egy dx9-es igp szintű valami, akkor minek raknának még több gpu-t a gépükbe? szerintem inkább csökken majd az eladott videókártyák piaca és nő az integrált megoldások aránya. esetleg a maradék 1/4 rész vesz majd cpu-ba integrált gpu mellé egy értelmes kártyát is, az addigra elterjedő opencl/compute shader megoldások miatt. esetleg.
ott a Jon Peddie Research-nél szerintem elgurult egy egész csoport ember bogyója..