SG.hu·

A Microsoftot okolják a nagy felbontású állóvízért

Michael Bay rendező szerint Redmond a felelős azért, hogy a két formátum stagnál és a harcból eddig egyik sem került ki győztesként. Úgy véli, a Microsoft mindkét tábort el szeretné lehetetleníteni.

Bay véleménye egy fórumhozzászólásból derült ki, amely ugyan meglehetősen rövidre sikerült, mégis megadja nekünk az alapvonalat, amely mentén szépen felfűzhetjük az elismert rendező gondolatmenetét. Eszerint Redmond nemcsak a Blu-ray, hanem a HD DVD formátumot is szeretné beledöngölni a földbe, ám óvatosan és türelmesen járnak el, hiszen bőven van idejük, amíg tökéletesítik a digitális letöltéseket és az ezt lehetővé tévő infrastruktúrát.

El kell ismernünk, hogy lehet némi alapja Bay félelmének, hiszen a szoftvercég már jó ideje a letöltések fejlesztésére koncentrál, elég csak az Xbox Live szolgáltatására gondolni. Többen Bill Gates egy két évvel ezelőtt adott interjúját hozzák fel példaként, amelyben a Microsoft első embere kijelentette, hogy a HD DVD és a Blu-ray az utolsók a fizikai formátumok sorában és egyértelműen a letöltéseké a jövő. Ezt követően már minden tartalmat közvetlenül a merevlemezre töltünk (streamelünk) le, így nincs sok értelme vitatkozni az utódokon, illetve a két formátum esélyein.

Bay ennél tovább ment és kijelentette, hogy pontosan ezért igyekszik lekenni a nagy stúdiókat a Microsoft, ezért adnak át olykor akár 100 millió dolláros csekkeket, igyekezvén meggyőzni a kiszemelt cégeket, hogy a HD DVD táborhoz csatlakozzanak az egyértelműen jobb Blu-ray helyett. Ezzel nyilván a Paramount döntésére is célzott, amely nemrég jelentette be, hogy a jövőben kizárólag a redmondi szoftvercég által is támogatott HD DVD formátum mellett áll majd ki. Mások ugyan igyekeznek mindkét formátumot támogatni, ám az ilyen lépések könnyen állóháborúhoz vezetnek, amely sem a piacnak, sem pedig a két formátumnak nem kedvez.

Ide nyomulhatnak majd be a digitális - és előfizetéses - letöltések, amelyek sok szempontból kényelmesebbek és gyorsabbak a hagyományos fizikai formátumok beszerzésénél. Kérdés azonban, hogy milyen gyorsan mehet végbe a jelentős váltás - illetve hogy valóban a fentiek-e a Microsoft indítékai.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

© Frayer2007. 12. 11.. 12:32||#102
Ha jól mûködik és elég szép lesz az eredmény akkor kiegészítem majd egy bináris kereséssel. Így nem kell összehasonlítani minden egyes mintát, csak a teljes adatbázis logaritmusának mennyiségû mintával. Ami csak pár tíz, vagy száz mintát jelent blokkonként. Szerintem meg lehet csinálni gyorsra, de az már a végsõ fázis lenne, az optimalizálás ;)
© dez2007. 12. 11.. 12:05||#101
Igen, pontosan ezt (2.) keztem én is megírni 16 évvel ezelõtt. Csak nagyon lassú (fõleg akkor) a mintakeresés, mármint kellõ hatékonysággal.
© dez2007. 12. 11.. 11:59||#100
Akkor most már megtanulhatnád használni a "válasz erre" opciót is... :)
© Oldern the 1st2007. 12. 10.. 18:36||#99
"Érdekes egy dolog a matematikában,hogy amit be tudsz bizonyítani, annak bebizonyítható az ellenkezõje is."

Ez azért picit kiüti a biztosítékot, a negáció természetébõl adódóan olyan (ilyennek találtuk ki), hogy ugyanazt lehessen leírni vele, mint az eredeti állításokkal. Így ebben semmi érdekeset nem látok :)
© Frayer2007. 12. 10.. 17:36||#98
hát, én a jpg-et nem szeretem annyira, mert erõssen látszanak benne a frekvencia jelek, a DCT frakvenciákra bontja a blokkot, és amúgy is, egy blokkot kb 12-18 bájtal ír le, az ennyém meg csak 9 el, ha nagyon részletes a hely akkor többel.

Azért agyalok egy jó minõdégû veszteséges dolgon is, mert tudom ,hogy real time ban nem lehetne lossless videot kitömöríteni az én eljárásommal, ma még nincs olyan gyors proci, fõleg HD tartalom esetében.
Egyébként egy jó minõségû tömörítõ, és a lossless között úgy sem lehet észre venni lejátszás közben a különbséget a kettõ között. De az egyik lehet 100 kisebb is.
© Villanypásztor2007. 12. 10.. 17:17||#97
És egyáltalán minek agyalsz a veszteséges képtömörítésen, ha már úgyis megvan az ultimate, bármit bármikor bárhányszor veszteségmentesen tömörítõ algoritmus? :S

Vagy mégse bízol benne annyira?

Egyébként finoman szólva kétlem, hogy a blokkhasonlóságos dolog jobb eredményt adna, mint a JPEG. Végsõ soron az is azt mondja, hogy milyen blokkhoz a leghasonlóbb, csak nem egy lista elemeire mutató sorszámot, hanem a blokkot elõállító együtthatókat tárolja.
© Frayer2007. 12. 10.. 15:55||#96
Nem, ez félre értés, a képeket nem fraktál tömörítéssel csomagolom be.
Hanem, lesz egy nagy adatbázis ami teli lesz több ezer 8x8 , meg más méretû blokkokkal, a blokkok különbözõ mintákat tartalmaznak majd, és egy képet ezekbõl épít fel a program, a tömörített állományban meg csak az adott blokk sorszámát tárolom el, és egy kis infót ami azt mondja el,hogy ezt a kis mintát, hogyan transzformálja, mondjuk növeli az intenzitás fokot.

A fraktált már a veszteség mentes eljárásnál használnám fel.
Fogom az adat streamet és kiveszem belõlle azokat a mintákat amiket ismer az algoritmus és nagy valószínûséggel megtalálható, a fennmaradó adatokat ugyan úgy írja le, csak már nem lesz benne az adott minta, vissza álításnál ,meg egyszerûen a mintákat visszarakja az adatsorozatba, mint egy vésõ, bele ékelõdik majd a bitek közé, vissza álítva az eredeti elrendezõdést.
De ami fontos,hogy a minták kiszûrése után ha megint megvizsgálod a biteket, akkor megint újabb mintákat találsz meg bennük, és ha ezt rekurzívan ismétled akkor annyival csökkentheted a méretet, amennyivel akarod, vagy amíg el nem fogynak a bitek. A minták mindig újra és újra ott lesznek.
© M0rph3u52007. 12. 10.. 09:03||#95
ezt már évek óta látom megjelenni az sg-n. vki mindig kitalálja, h pár hét/hónap múlva képes lesz eltárolni egy HD-filmet 20MB-on belül...

(csak tipikusan az van, h minden nap holnapjára van kitûzve a határidõ)

u.i.: konkrétumok(részlet a source-ból, screen-shot, stb.) nélkül nagy dolgokat tényként beharangozni elég bulvár-dolog...(kivéve ha nem megrendelõ-kivitelezõ a felállás az itteni peer2peer helyett)
© deathvir2007. 12. 10.. 04:38||#94
Üdv!
Frayer:Utánaolvastam a témának és hirtelen találtam is vmi-t ami sztem elgondolkodtató:
http://dspace.lib.unideb.hu:8080/dspace/bitstream/2437/2385/1/diplomamunka.pdf
Idézném a lényeges részt:
"Fraktál alapú képtömörítés
Egy szó többet mond ezer szónál, szoktuk gyakran mondani. Nos, általában jóval több helyet
is foglal, egy 1024 × 768-as felbontású, 32 bites színmélység½u tömörítetlen kép mérete közel 3
megabájt tárhelyet foglal el. Így aztán manapság, amikor már a legolcsób mobiltelefonokban is
beépítet megapixeles kamerát találunk, fontos, hogy mind újabb, nagyobb hatásfokú adattömö-
rítési (els½osorban kép- és hangtömörítési) módszereket alkossunk. Jobb tömörítési arány érhet½o
el, ha a tömörítés során el½oállt képt½ol nem várjuk el, hogy pontos mása legyen az eredetinek.
Egészen kis eltérésekr½ol van szó, akár olyanokról is, amelyek az emberi szem számára látha-
tatlanok maradnak. Az ilyen elven m½uköd½o módszereket veszteséges tömörít½oknek nevezzük.
Jelenleg három technológia uralkodik a veszteséges tömörítés területén : a vektor kvantálásnak
nevezett módszer, a diszkrét koszínusz transzformáció (DCT), és a fraktál alapú képtömörítés.
Az els½o módszer esetén a képet kisebb részekre osztják, és egy ún. kódkönyvb½ol (codebook)
választanak hozzá megfelel½o reprezentánst. A diszkrét koszínusz transzformáció a képeket egy
másik térbe (az ún. frekvenciatérbe) konvertálja, majd az így kapott értékeket megfelel½o módon
kvantálja. A harmadik esetben a természetben el½oforduló alakzatok (bizonyos mértk½u) önhason-
lóságát használja ki. 1988 Barnsley kidolgozott egy módszert, amely digitális képek jó hatás-
fokú tömörítését tette lehet½ové IFS-ek felhasználásával. A módszert sokan továbbfejlesztették,
jelenleg is igen sok változata ismert. A technika még csak gyerekcip½oben jár, a lehet½oségek
majdhogynem beláthatatlanok. Barnsley alapgondolata az volt, hogy ha néhány nagyon egy-
szer½u transzformáció segítségével bonyolult, a természetben is el½oforduló alakzatok sokasága
állítható el½o, akkor ez felhasználható az ilyen alakzatokat ábrázoló képek tömörítésére, hiszen
a képpontok helyett elegend½o a képet el½oállító transzformációkat eltárolni, ami drasztikusan
lecsökkenti a szükséges tárhely méretét. Azt is észrevette, hogy az egyes iterációk fixpontja
semmilyen módon nem függ a kezdeti képt½ol, így az iteráció tetsz½oleges kiindulási képpel el-
indítható. A kérdés csak az, hogy tetsz½oleges kép el½oállítható-e IFS-ek segítségével, vagy meg
kell elégednünk bizonyos képek nagyarányú tömörítésének lehet½oségével. Sajnos a válasz nem-
leges, vagyis a képek többségéhez nem adható olyan IFS, amelynek fixpontja maga a kép lenne.
Ez logikus is, hiszen pl. egy emberi arc egyáltalán nem önhaonló, tehát a szerkezete nem frak-
tálszer½u. Márpedig az IFS-ek segítségével leginkább fraktálokat lehet el½oállítani (vagy csakis
azokat, ennek eldöntéséhez pontosan kellene definiálnunk a fraktál fogalmát – pl. fraktál-e egy
négyzet?). Szerencsére van megoldás: osszuk fel a képet egyforma méret½u kisebb tartományok-
ra, és ezen tartományokat próbáljuk meg összevetni egymással. Ezt a technikát Arnaud Jacquin
dolgozta ki, és az ehhez felhasznált speciális iterált függvényrendszereket PIFS-nek (Partiti-
oned Iterated Function System) nevezik. A módszerek jól kidolgozott matematikai alpokkal
rendelkeznek, tekintsük most át ezeket."
© captaingabi2007. 12. 10.. 02:36||#93
Gratulálok Frayer. Szép flame-et csináltál. :)