60
-
dez #60 "16bpp" -> 48bpp/16bpcg -
dez #59 Ilyen részletkérdések őt nem izgatják. -
dez #58 Először legyen sima OLED... :) -
dez #57 "Parja a spdif, amibol ugyancsak letezik 8, 16 es 24 bites valtozat is (48 bit/csatornapar). Ezek egyesitett es masolasvedelemmel kiegeszitett formatuma a hdmi."
Ez egy hülyeség, felejtsd el. Az SPDIF-nek semmi köze a HDMI-hez. Utóbbinál egész más adatcsomag-formátum van, melyekben a kép és a hang (együtt) utazik, egy közös csatornán.
"Alapvetoen ha jo kepet akarunk egy jatekban, akkor kell egy hdr kepes videokartya es rajta futo hdr-es jatek, dvi, hdmi vagy ttl (lasd: laptopok) kapcsolattal a monitorhoz."
A kapcsolat szempontjából tök mindegy, hogy HDR vagy sem, mivel 24 bites a mai videokártyák képkimenete. (Amúgy is csak dual-link DVI-nél lehetséges a 16bpp.)
"Aki ilyet akar osszerakni, annak boven eleg ha a ket generacioval regebbi hardvereket veszi, pl. egy gf7900-as videokartyat, ami ugyan elavult, de a ps/3-ban is az van, tehat a multiplatformos jatekok nem fogjak kihasznalni az ujabb hardvereket."
PS3 bashing egy hsz-edből sem hiányozhat... Kár, hogy az általad kultivált Xbox360-ban sincs sokkal jobb grafika, és ott még a CPU is gyenge, hogy túl sokat segíthessen rajta a későbbiekben. Arról már nem is beszélek, hogy a Cell a Physix kártát is pótolja, és akkor még közel sincs is teljesen kihasználva. (Mellesleg a fix hw által jobban lehet optimalizálni, mint PC-n egy újabb cuccra.)
"(a pc exkluzivok igen, de az mar mas kerdes)"
Azok sem, mert az átlag-pécé az alap, a többi csak ráaggatott opció.
"Es az elavult gf7900-asnak koszonhetoen meg dolgozni es jatszani is lehet rajta. Ha ennel jobbat veszunk, akkor meg azok a jatekok sem fognak szaggatni, amiknek a konzolos verzioja szaggat. A teljesen digitalis adatutaknak koszonhetoen jo kep es hangminolegrol nem is beszelve."
Ez is egy hülyeség, mert pl. PC-n szép időt rabol el a DirectX, ami ugyebár megoldja a rengeteg különféle szóba jöhető grafikus kártyával való kompatibilitást. És amúgy sincs minden egyes típushoz külön optimalizálva. -
Hawaii #56 "...vagy ttl (lasd: laptopok)..."
Mármint LVDS? -
Hawaii #55 "Ezt nem egészen értem, hogy jön az alfa channel az OLED-hez?"
Átlátszó kijelző esetén (pl. két üveglap között, vagy áttetsző e-papírnál) már értelmet nyer, hogy opacity értéket is kapjon egy adott képpont, hiszen nincs háttér, ami miatt feketének kellene lennie. Hogy miként kapcsolódik mindez az OLED-hez, az gondolom nem szorul magyarázatra. -
kvp #54 A regi vga mara nagyon elavult, lcd-k eseten a digtalis-analog-digitalis konverzio nagyon sokat ront a kepen, amit aztan a pixel orajel hianya miatti pixelhatar csuszas meg el is ken (lasd: blur). Az olcso tn paneles monitorok keves szint ismernek, amit az ido/hely alapu dithering meg tovabb ront, foleg kis felbontas eseten (1200p alatt).
A dvi egy digitalis formatum, ami jelenleg akar csatornankent 16 bitet is kepes kezelni (48 bit/pixel). Parja a spdif, amibol ugyancsak letezik 8, 16 es 24 bites valtozat is (48 bit/csatornapar). Ezek egyesitett es masolasvedelemmel kiegeszitett formatuma a hdmi.
A display port egy ujfajta megkozelites, csak semmivel nem kompatibilis. Egy monitor/tv/erosito lehet dvi es spdif kompatibilis es igy szinte modositas nelkul ismeri a hdmi-t is. A displayporthoz meg kulon hardver kell, ami meg nem is szabvanyos...
A 8 bites szinmelyseg alapvetoen eleg szokott lenni, mind jatekok, mind valodi kepek eseten is. A jatekoknal az a nagyobb gond, hogy a szamitasok soran a precizitas nagy resze elveszik a kerekitesek miatt. Ez ellen talaltak ki a hdr technologiat, ahol a kep csatornankent 16/32/64 bitesen keszul, majd megjeleniteskor lesz belole 8 bites adat. Fontos megjegyezni, hogy a ccd szenzorok tobbezres tulmintavetelezest hasznalnak (anizo+antialias) mivel egy pixelt tobb ezer foton er el. Az uj kis cmos szenzorok kepe is azert olyen ronda, mivel a merettel lecsokkent a pixelenkenti fotonok szama. Ha 1 foton/pixeles cmos szenzort hasznalunk, akkor az pont olyan ronda kepet ad mint egy jatek, csak a fizika torvenyei miatt sokkal zajosabbat.
Alapvetoen ha jo kepet akarunk egy jatekban, akkor kell egy hdr kepes videokartya es rajta futo hdr-es jatek, dvi, hdmi vagy ttl (lasd: laptopok) kapcsolattal a monitorhoz. Kell egy digitalis monitor ami lehet egy jo lcd, plazma led, oled, lezeres vagy egy true hd crt is. A lenyeg, hogy trukkozes (dithering) nelkul tudjon legalabb 8 bitet csatornankent es eleg kicsik legyenek a pixelek a monitoron, hogy ne lassuk az rgb foltokat.
Aki ilyet akar osszerakni, annak boven eleg ha a ket generacioval regebbi hardvereket veszi, pl. egy gf7900-as videokartyat, ami ugyan elavult, de a ps/3-ban is az van, tehat a multiplatformos jatekok nem fogjak kihasznalni az ujabb hardvereket. (a pc exkluzivok igen, de az mar mas kerdes) Monitornak eleg egy jobb samsung is es eleg ha 1200p-t tud (wuxga), ezen menni fognak a full hd filmek is es a feliratnak meg mindig marad hely a kep _alatt_ igy nem takarja a szoveg a filmet. (felteve, hogy a 53 centi eleg a filnezeshez) Az egesz kijon viszonylag olcson, legalabbis egy hd ready (nem full hd-s, csak 720p-s) tv es egy rendes konzol arabol. Es az elavult gf7900-asnak koszonhetoen meg dolgozni es jatszani is lehet rajta. Ha ennel jobbat veszunk, akkor meg azok a jatekok sem fognak szaggatni, amiknek a konzolos verzioja szaggat. A teljesen digitalis adatutaknak koszonhetoen jo kep es hangminolegrol nem is beszelve. -
dez #53 (Mármint a digitalizálás során jelentkező zaj.) -
dez #52 Mert az analóg zaj ditheringként hat. -
dez #51 "Most nincs, vagy nincs kihasználva? :o)"
Attól függ, hogy nézzük. A 32 bites pixel-módok (RGBA, és tsi.) alfa channeljét textúráknál használhatják különböző súlyozású színkeverésre két v. több textúra között, de mint adott képernyőtartalom megjeleníte nem nagyon van szerepe (az overlay pl. egy kiválasztható színnél 100%-osan látszik, a többinél egyátalán nem).
Illetve egyes spéci videokártyák tudnak genlock módban működni (rászinkronizálódnak egy külső videoforrásra), és olyankor lehet szerepe az alfa channelnek (az alfa channel által megadott arányban látszódik az eredeti kép az adott pixelen).
"Na de komolyra fordítva: Küszöbön az átlátszó OLED kijelzők hada. Ezentúl lesz értelme használni."
Ezt nem egészen értem, hogy jön az alfa channel az OLED-hez? Vagy a 10+ bpp-s megjelenítésre gondolsz?
"A belső színfeldolgozás meg 16bit/ch."
Valóban, viszont ki tudja miért, a legjobbak is csak 24 bites képet fogadnak. (Valószínű majd újabb rókabőr lesz a fogadási bitmélység növelése.) -
#50 Inkább png-nek, és bmp-nek szokták hívni nálam. A digitális fényképezővel készített képeknél amiket jpg-be ment(és egyáltalán nem rosszak a színek), kisebb színmélységen nem látni a színátmenetes csíkokat, egy játékból png-be, vagy bmp-be mentett screenshoton meg nagyon, és azt jpg-be mentve mégjobban.
Szóval fényképhez látszólag kevesebb szín kell, mint a gép által generált képhez (játékok pl). -
Hawaii #49 "Egyébként a HDMI 1.3 már támogatja a DeepColor-t, ami 30, 36, vagy 48 bites képet jelentene."
Mint ahogy a DisplayPort is támogatja a 10, 12, 16 bitet csatornánként.
"32 bites módban sincs átlátszóság, nincs kihasználva."
Most nincs, vagy nincs kihasználva? :o)Na de komolyra fordítva: Küszöbön az átlátszó OLED kijelzők hada. Ezentúl lesz értelme használni.
"Az Eizo monitorai ma is 36 bites színpalettából jelenítenek meg"
A belső színfeldolgozás meg 16bit/ch.
"...magasabb bitrátát is támogat (v1.2-től, asszem)"
v1.3-tól. -
dez #48 Izé, a VESA meg egyéb multik érdekeltsége. -
dez #47 HDMI vs. Display Port: a vetélkedés lényege a hatalmi/presztizs harc. A HDMI-t a HDMI Group hozta létre, ami néhány multi (Sony, Samsung, stb.) érdekeltsége, a Display Portot meg a Video Electronics Standards Association (VESA). -
Inquisitor #46 Na jó, de mennyibe fáj egy szinhelyes, grafikus melóra való TFT? :)
A legújabb/legkisebb Eizo 20"-os monitor 160K. -
dez #45 (Hozzáteszem: az újabb, nagy színmélységű felvételek igencsak igénylik a bitrátát h.264/AVC[/x.264] esetén is, szal kelleni fog még az a Blu-ray.) -
dez #44 Ja igen, igazad van, ez meg a másik fele. -
dez #43 A valós felvételeken általában dithering van, ami valamennyire kompenzálja a hiányzó színmélységet (azért nem 100%-osan). De ez inkább a régebbi felvételekre igaz, főleg hogy pár rendező szereti a szemcsés képet (mert az olyan álomszerűbb, mint ahogy a 24fps is a 60(+)-hoz képest). De egyre több filmet nagyon jó minőségű digitális kamerával vesznek fel, dither v. mesterséges szemcsézés nélkül, ott nagyon is számít a megjelenítési színmélység. -
dez #42 "HDMI valószínűleg megmarad a házimozizás berkeiben, bár kitudja."
Már nem maradhat ott, mivel már régen megjelent a videokártyáknál és monitoroknál is. Korábban is hoztak ki HDMI-s kártyákat, és a mostani generációnál mind magasabb kategóriás Nvidia, mind az ATI kártyák támogatják egy kis adapter segítésével, amit a DVI portokra kell dugni, és a másik fele HDMI. A kettő bizonyos mértékig eleve kompatibilis egymással, adatcsomag és elektromos jellemzők szintjén, kiv. hogy a HDMI hangcsomagokat is ismer, viszont nem támogatja a dual-channelt, ezzel szemben magasabb bitrátát is támogat (v1.2-től, asszem), így tudja a nagyobb felbontásokat. (Az említett kártyák hangot is képesek rajta keresztül szolgáltatni.) -
dez #41 Talán mert nem csak 18 (6+6+6) bit + FRC-s TN monitorok vannak a világon? Az Eizo monitorai ma is 36 bites színpalettából jelenítenek meg 24 bitnyit, de nem úgy, hogy egyszerűen eldobják az alsó biteket (hanem PWM-es szabályzással), és képesek lennének full 36 bites megjelenítésre is. Valószínű ők lesznek az elsők, akik először ilyen monitorokat kihoznak. -
dez #40 32 bites módban sincs átlátszóság, nincs kihasználva. Azért használják a 32 bites módot, mert úgy 32 bites szóhatárokra esnek a pixelek. -
dez #39 Azért jó időbe telik, mire egy átlagpécé (amit figyelembe vesznek a játékfejlesztők, hogy minnél többen megyvegyék a játékot, és amihez képest a nagyobb gépen már csak opcionális extrákat lehet aktiválni, ill. nagyobb felbontást) lekőrözi a konzolokat. Különösen a PS3 esetén, a Cell chip miatt (ami pl. fizikai gyorsítóként is szolgál, illetve később ha kell, a grafikába is be tud segíteni, stb.). -
dez #38 Egyébként a HDMI 1.3 már támogatja a DeepColor-t, ami 30, 36, vagy 48 bites képet jelentene. -
dez #37 "a mostani csúcskategóriás TFT monitorok kontrasztrációján már elég gusztustalan tud lenni még a truecolor dithering is"
Micsoda egyveleg... :P A gusztustalan dithering eleve kizárja, hogy csúcskategóriás. Te 18 bit + FRC-s TN+Film paneles monitorokról beszélsz, amik nem éppen a csúcskategóriát testesítik meg.
De azzal egyetértek, hogy a 24 (8+8+8) bites színábrázolást felbővíthetnék már mondjuk 30 bitesre (10+10+10), mert igazi csúcskategóriás monitorokon 24 bites képnél is észrevehetőek a színlépcsők. (Persze elég halványan, szóval nem a 6+6+6 + FRC-s monitorokról beszélek. Szóval a te problémád nem ez.) -
Inquisitor #36 Láttam olyan megoldást is, hogy volt a kártyán a DP mellett HDMI is, azt használja a user, ameliyket akarja.
De továbbra se látom be, hogy a HDMI "hatalmas" liszenc költségei a drágább VGA kártyák, monitorok és pláne TV-k esetében miért is korlátozó tényező?
És lesz egy fogadásom, hogy a kártyák DP-s verziója nem lesz sokkal olcsóbb, sőt. -
llax #35 Mint már említették: jogdíj.
Persze vannak más okok is... De egyik sem a Te javadat szolgálja... -
bigjoe #34 Lehet, hogy hülye kérdés, de miért nem HDMI?? Miért kell millió "szabványt" gyártani. Ha a házi mozihoz jó akkor miért nem jó a Pc-s világban, -
llax #33 "Ezeknél simán látszik 16 és 32 bit közötti különbség, viszont egy digitális fényképnél, videonál egyáltalán nem, viszont egy játékból mentett screenshoton megint csak meglátszik. De hogy miért? "
Az okot jpeg-nek és mpeg-nek hívják. Mindkettő erősen veszteséges tömörítés.
Ha készítessz egy profi géppel egy fotót valami színekben gazdag témáról, a RAW formátumban még többmillió színárnyalat is lehet, de ha konvertálod jpeg-gé, még a legjobb minősére állítva is csak néhányszázezer színárnyalat marad... Az mpeg még ennél is sokkal nagyobb mértékben csökkenti a színek számát... -
#32 Tájékozott vagy... egy geforce 7800gtx, és x1950xt nem igazán nagyságrendekkel jobb egy mainál, hanem rosszabb.
Egyébként én azt vettem észre nagy színmélység csak játékoknál kell, meg minden számítógép által generált nem természetes színes dolgoknál. Ezeknél simán látszik 16 és 32 bit közötti különbség, viszont egy digitális fényképnél, videonál egyáltalán nem, viszont egy játékból mentett screenshoton megint csak meglátszik. De hogy miért? -
#31 Tudtommal a DisplayPort free szabvány, vagyis nem licenc díj köteles, ezzel pár dollárral olcsóbb is lehet a kártya, mert nem kell kifizetni a DisplayPort alkalmazási jog díját. HDMI valószínűleg megmarad a házimozizás berkeiben, bár kitudja. Szerintem a DisplayPort fog PC-s fronton győzni.
Lenne is egy kérdésem egyből, mennyiben tér el a HDMI-től tulajdonságban. Úgy tudom hangot is tud szállítani a DP, ha igen akkor elég erős konkurencia lehet. -
#30 Pont két hónapja vettem egy új monitort ami már végre DVI csatlakozós. Most akkor dobhatom ki :-) -
Hawaii #29 willard: "...szóval feleslegesen mérgelődök."
Márcsak ezért is:
"The Video signal is not compatible with DVI or HDMI, but the specification will allow pass-through of these signals." (DisplayPort) -
L3zl13 #28 "A 24 bit az 3*8 bit szín és 1*8 bit fényerő, tehát nem 256 átmenet van pl. zöld színből, hanem 65 536..."
Nézzük csak. 3x8=24+8=32... Hát ez sehogy nem jön ki 24 bitre. :D -
willard #27 Ja, nem kötelező megvenni, csak a PC mint tudjuk olyan, mint a LEGO, állandóan rakosgatni kell bele az alkatrészeket, és sokszor árukapcsolással kényszerítenek olyan alkatrészek lecserélésére, amiket még nem akarnál kidobni. Bár a fotón lévő kártyán van DVI is, szóval feleslegesen mérgelődök. -
Inquisitor #26 "Ha tényleg nagy előrelépést akarnának, akkor miért nem inkább a 36/48 bites színmélységet (12 bites RGB(A)) vezetik be új szabványként, mikor a mostani csúcskategóriás TFT monitorok kontrasztrációján már elég gusztustalan tud lenni még a truecolor dithering is. Mért nem látják be, hogy zsákutcába haladnak?"
Mi értelme is lenne a jelenlegi "csodás" 6 bites TN és 8 bites egyébb TFT panelek mellett ilyet használni? Amúgy a Matrox Parhelia az nem 48 bites? -
Inquisitor #25 "Ezzel minden akadály elhárult a HDMI riválisa elől, amely megkezdheti a térhódítást a személyi számítógépek szegmensében, ..."
Persze, hogyne. Dunát lehet rekeszteni a DP csatlakozós monitorokkal, hogy a "rengeteg" ilyen csatolós TV-t és egyébb házimozis komponenst ne is említsem. -
gabr #24 "veszek egy konzolt aminek mindig egy nagyságrenddel (és nem egy fokkal) erősebb bivalylórugás erős grafikás csipjei vannak"
Muahahaha! Álmodban talán! -
Hawaii #23 willard: Attól, hogy kitalálnak valamit, még nem kell feltétlenül költened a pénzed.
JTBM: "A 24 bit az 3*8 bit szín és 1*8 bit fényerő, tehát nem 256 átmenet van pl. zöld színből, hanem 65 536..."
Már megint vak vezet világtalant. Truecolor esetén komponensenként 8 bitet használnak a színek leírására, ami 256 árnyalatot jelent. A +8 bit az alpha csatorna, ami az átlátszóság mértékét hivatott tárolni. -
bigbum #22 Itt van a kezemben 42e +áfa. Má egy hete kapni a bótba. -
JTBM #21 A Display port-nak a legnagyobb előnye szvsz. a nagyobb sávszélesség mellett az, hogy sokkal egyszerűbbnek látszik a kezelése, kb. olyan lehet, mint egy USB.
Nekem a laptopomat beüzemelni és szétszerelni azért 3-4 perc. Ha a DVI-t nem kellene csavarozni, akkor azért gyorsabb lenne... (Dokkoló nincs a laptopomhoz és soha nem is volt olyan laptopom, amihez lett volna...)