• roliika
    #20
    Namost az ilyen fokú tömörítéssel van ám baj bőven. Nem a sebesség a gond.

    Én elméletben elkészítettem elméletben teszteltem és gyakorlatilag lemondtam róla. :D

    Vegyünk egy több órás videófilmet.

    Ha csak a pixel változásokat mentjük, és több dimenziós tömbben táloljuk, majd az azonos byte-okra létehozunk egy adatbázis, és a tömb minden dimenzióját inden dimenzióval összehasonlítjuk, az a probléma fog femerülni, hogy a létrehozott file valóban igen kicsi lesz, ámde a kicsomagoláshoz szükséges adatbázis nagy.

    Namost ha 500 filmet betömörítesz, a betömörített file kicsi lesz, talán 2-300MB az 500 film, de az adatbázis ami a kitömörítéshez kell, több terra byte.

    Ha az adatbázisban komplex mintákat tárolsz, nem fogja lefedni az összes lehetséges variációt, és a videó kitömörítése igen lassú lesz.

    Természetesen veszteségmentes tömörírtésről van szó.

    1 féle képp oldható meg a nagy hatásfokú gyors tömörítés.

    p2p alapú több terra byte-os , és sok processzoros szervert fogsz munkába.

    Így letölti a delikvens a 40 megás file-t, kicsomagolásnál a szerverre bízza magát, ami közli a mintkat a kitömörítő programmal..és ha a szerver kapacítása nem elegendő, keres olyan felhasználót, aki épp ennek a kitömörítésén ügyködik.

    Kopi rájt :DD