Gyurkity Péter

A Microsoftot okolják a nagy felbontású állóvízért

Michael Bay rendező szerint Redmond a felelős azért, hogy a két formátum stagnál és a harcból eddig egyik sem került ki győztesként. Úgy véli, a Microsoft mindkét tábort el szeretné lehetetleníteni.

Bay véleménye egy fórumhozzászólásból derült ki, amely ugyan meglehetősen rövidre sikerült, mégis megadja nekünk az alapvonalat, amely mentén szépen felfűzhetjük az elismert rendező gondolatmenetét. Eszerint Redmond nemcsak a Blu-ray, hanem a HD DVD formátumot is szeretné beledöngölni a földbe, ám óvatosan és türelmesen járnak el, hiszen bőven van idejük, amíg tökéletesítik a digitális letöltéseket és az ezt lehetővé tévő infrastruktúrát.

El kell ismernünk, hogy lehet némi alapja Bay félelmének, hiszen a szoftvercég már jó ideje a letöltések fejlesztésére koncentrál, elég csak az Xbox Live szolgáltatására gondolni. Többen Bill Gates egy két évvel ezelőtt adott interjúját hozzák fel példaként, amelyben a Microsoft első embere kijelentette, hogy a HD DVD és a Blu-ray az utolsók a fizikai formátumok sorában és egyértelműen a letöltéseké a jövő. Ezt követően már minden tartalmat közvetlenül a merevlemezre töltünk (streamelünk) le, így nincs sok értelme vitatkozni az utódokon, illetve a két formátum esélyein.

Bay ennél tovább ment és kijelentette, hogy pontosan ezért igyekszik lekenni a nagy stúdiókat a Microsoft, ezért adnak át olykor akár 100 millió dolláros csekkeket, igyekezvén meggyőzni a kiszemelt cégeket, hogy a HD DVD táborhoz csatlakozzanak az egyértelműen jobb Blu-ray helyett. Ezzel nyilván a Paramount döntésére is célzott, amely nemrég jelentette be, hogy a jövőben kizárólag a redmondi szoftvercég által is támogatott HD DVD formátum mellett áll majd ki. Mások ugyan igyekeznek mindkét formátumot támogatni, ám az ilyen lépések könnyen állóháborúhoz vezetnek, amely sem a piacnak, sem pedig a két formátumnak nem kedvez.

Ide nyomulhatnak majd be a digitális - és előfizetéses - letöltések, amelyek sok szempontból kényelmesebbek és gyorsabbak a hagyományos fizikai formátumok beszerzésénél. Kérdés azonban, hogy milyen gyorsan mehet végbe a jelentős váltás - illetve hogy valóban a fentiek-e a Microsoft indítékai.

Hozzászólások

A témához csak regisztrált és bejelentkezett látogatók szólhatnak hozzá!
Bejelentkezéshez klikk ide
(Regisztráció a fórum nyitóoldalán)
  • Frayer #102
    Ha jól működik és elég szép lesz az eredmény akkor kiegészítem majd egy bináris kereséssel. Így nem kell összehasonlítani minden egyes mintát, csak a teljes adatbázis logaritmusának mennyiségű mintával. Ami csak pár tíz, vagy száz mintát jelent blokkonként. Szerintem meg lehet csinálni gyorsra, de az már a végső fázis lenne, az optimalizálás ;)
  • dez #101
    Igen, pontosan ezt (2.) keztem én is megírni 16 évvel ezelőtt. Csak nagyon lassú (főleg akkor) a mintakeresés, mármint kellő hatékonysággal.
  • dez #100
    Akkor most már megtanulhatnád használni a "válasz erre" opciót is... :)
  • Oldern the 1st #99
    "Érdekes egy dolog a matematikában,hogy amit be tudsz bizonyítani, annak bebizonyítható az ellenkezője is."

    Ez azért picit kiüti a biztosítékot, a negáció természetéből adódóan olyan (ilyennek találtuk ki), hogy ugyanazt lehessen leírni vele, mint az eredeti állításokkal. Így ebben semmi érdekeset nem látok :)
  • Frayer #98
    hát, én a jpg-et nem szeretem annyira, mert erőssen látszanak benne a frekvencia jelek, a DCT frakvenciákra bontja a blokkot, és amúgy is, egy blokkot kb 12-18 bájtal ír le, az ennyém meg csak 9 el, ha nagyon részletes a hely akkor többel.

    Azért agyalok egy jó minődégű veszteséges dolgon is, mert tudom ,hogy real time ban nem lehetne lossless videot kitömöríteni az én eljárásommal, ma még nincs olyan gyors proci, főleg HD tartalom esetében.
    Egyébként egy jó minőségű tömörítő, és a lossless között úgy sem lehet észre venni lejátszás közben a különbséget a kettő között. De az egyik lehet 100 kisebb is.
  • Villanypásztor #97
    És egyáltalán minek agyalsz a veszteséges képtömörítésen, ha már úgyis megvan az ultimate, bármit bármikor bárhányszor veszteségmentesen tömörítő algoritmus? :S

    Vagy mégse bízol benne annyira?

    Egyébként finoman szólva kétlem, hogy a blokkhasonlóságos dolog jobb eredményt adna, mint a JPEG. Végső soron az is azt mondja, hogy milyen blokkhoz a leghasonlóbb, csak nem egy lista elemeire mutató sorszámot, hanem a blokkot előállító együtthatókat tárolja.
  • Frayer #96
    Nem, ez félre értés, a képeket nem fraktál tömörítéssel csomagolom be.
    Hanem, lesz egy nagy adatbázis ami teli lesz több ezer 8x8 , meg más méretű blokkokkal, a blokkok különböző mintákat tartalmaznak majd, és egy képet ezekből épít fel a program, a tömörített állományban meg csak az adott blokk sorszámát tárolom el, és egy kis infót ami azt mondja el,hogy ezt a kis mintát, hogyan transzformálja, mondjuk növeli az intenzitás fokot.

    A fraktált már a veszteség mentes eljárásnál használnám fel.
    Fogom az adat streamet és kiveszem belőlle azokat a mintákat amiket ismer az algoritmus és nagy valószínűséggel megtalálható, a fennmaradó adatokat ugyan úgy írja le, csak már nem lesz benne az adott minta, vissza álításnál ,meg egyszerűen a mintákat visszarakja az adatsorozatba, mint egy véső, bele ékelődik majd a bitek közé, vissza álítva az eredeti elrendeződést.
    De ami fontos,hogy a minták kiszűrése után ha megint megvizsgálod a biteket, akkor megint újabb mintákat találsz meg bennük, és ha ezt rekurzívan ismétled akkor annyival csökkentheted a méretet, amennyivel akarod, vagy amíg el nem fogynak a bitek. A minták mindig újra és újra ott lesznek.
  • M0rph3u5 #95
    ezt már évek óta látom megjelenni az sg-n. vki mindig kitalálja, h pár hét/hónap múlva képes lesz eltárolni egy HD-filmet 20MB-on belül...

    (csak tipikusan az van, h minden nap holnapjára van kitűzve a határidő)

    u.i.: konkrétumok(részlet a source-ból, screen-shot, stb.) nélkül nagy dolgokat tényként beharangozni elég bulvár-dolog...(kivéve ha nem megrendelő-kivitelező a felállás az itteni peer2peer helyett)
  • deathvir #94
    Üdv!
    Frayer:Utánaolvastam a témának és hirtelen találtam is vmi-t ami sztem elgondolkodtató:
    http://dspace.lib.unideb.hu:8080/dspace/bitstream/2437/2385/1/diplomamunka.pdf
    Idézném a lényeges részt:
    "Fraktál alapú képtömörítés
    Egy szó többet mond ezer szónál, szoktuk gyakran mondani. Nos, általában jóval több helyet
    is foglal, egy 1024 × 768-as felbontású, 32 bites színmélység½u tömörítetlen kép mérete közel 3
    megabájt tárhelyet foglal el. Így aztán manapság, amikor már a legolcsób mobiltelefonokban is
    beépítet megapixeles kamerát találunk, fontos, hogy mind újabb, nagyobb hatásfokú adattömö-
    rítési (els½osorban kép- és hangtömörítési) módszereket alkossunk. Jobb tömörítési arány érhet½o
    el, ha a tömörítés során el½oállt képt½ol nem várjuk el, hogy pontos mása legyen az eredetinek.
    Egészen kis eltérésekr½ol van szó, akár olyanokról is, amelyek az emberi szem számára látha-
    tatlanok maradnak. Az ilyen elven m½uköd½o módszereket veszteséges tömörít½oknek nevezzük.
    Jelenleg három technológia uralkodik a veszteséges tömörítés területén : a vektor kvantálásnak
    nevezett módszer, a diszkrét koszínusz transzformáció (DCT), és a fraktál alapú képtömörítés.
    Az els½o módszer esetén a képet kisebb részekre osztják, és egy ún. kódkönyvb½ol (codebook)
    választanak hozzá megfelel½o reprezentánst. A diszkrét koszínusz transzformáció a képeket egy
    másik térbe (az ún. frekvenciatérbe) konvertálja, majd az így kapott értékeket megfelel½o módon
    kvantálja. A harmadik esetben a természetben el½oforduló alakzatok (bizonyos mértk½u) önhason-
    lóságát használja ki. 1988 Barnsley kidolgozott egy módszert, amely digitális képek jó hatás-
    fokú tömörítését tette lehet½ové IFS-ek felhasználásával. A módszert sokan továbbfejlesztették,
    jelenleg is igen sok változata ismert. A technika még csak gyerekcip½oben jár, a lehet½oségek
    majdhogynem beláthatatlanok. Barnsley alapgondolata az volt, hogy ha néhány nagyon egy-
    szer½u transzformáció segítségével bonyolult, a természetben is el½oforduló alakzatok sokasága
    állítható el½o, akkor ez felhasználható az ilyen alakzatokat ábrázoló képek tömörítésére, hiszen
    a képpontok helyett elegend½o a képet el½oállító transzformációkat eltárolni, ami drasztikusan
    lecsökkenti a szükséges tárhely méretét. Azt is észrevette, hogy az egyes iterációk fixpontja
    semmilyen módon nem függ a kezdeti képt½ol, így az iteráció tetsz½oleges kiindulási képpel el-
    indítható. A kérdés csak az, hogy tetsz½oleges kép el½oállítható-e IFS-ek segítségével, vagy meg
    kell elégednünk bizonyos képek nagyarányú tömörítésének lehet½oségével. Sajnos a válasz nem-
    leges, vagyis a képek többségéhez nem adható olyan IFS, amelynek fixpontja maga a kép lenne.
    Ez logikus is, hiszen pl. egy emberi arc egyáltalán nem önhaonló, tehát a szerkezete nem frak-
    tálszer½u. Márpedig az IFS-ek segítségével leginkább fraktálokat lehet el½oállítani (vagy csakis
    azokat, ennek eldöntéséhez pontosan kellene definiálnunk a fraktál fogalmát – pl. fraktál-e egy
    négyzet?). Szerencsére van megoldás: osszuk fel a képet egyforma méret½u kisebb tartományok-
    ra, és ezen tartományokat próbáljuk meg összevetni egymással. Ezt a technikát Arnaud Jacquin
    dolgozta ki, és az ehhez felhasznált speciális iterált függvényrendszereket PIFS-nek (Partiti-
    oned Iterated Function System) nevezik. A módszerek jól kidolgozott matematikai alpokkal
    rendelkeznek, tekintsük most át ezeket."
  • captaingabi #93
    Gratulálok Frayer. Szép flame-et csináltál. :)