roliika#20
Namost az ilyen fokú tömörítéssel van ám baj bőven. Nem a sebesség a gond.
Én elméletben elkészítettem elméletben teszteltem és gyakorlatilag lemondtam róla. :D
Vegyünk egy több órás videófilmet.
Ha csak a pixel változásokat mentjük, és több dimenziós tömbben táloljuk, majd az azonos byte-okra létehozunk egy adatbázis, és a tömb minden dimenzióját inden dimenzióval összehasonlítjuk, az a probléma fog femerülni, hogy a létrehozott file valóban igen kicsi lesz, ámde a kicsomagoláshoz szükséges adatbázis nagy.
Namost ha 500 filmet betömörítesz, a betömörített file kicsi lesz, talán 2-300MB az 500 film, de az adatbázis ami a kitömörítéshez kell, több terra byte.
Ha az adatbázisban komplex mintákat tárolsz, nem fogja lefedni az összes lehetséges variációt, és a videó kitömörítése igen lassú lesz.
Természetesen veszteségmentes tömörírtésről van szó.
1 féle képp oldható meg a nagy hatásfokú gyors tömörítés.
p2p alapú több terra byte-os , és sok processzoros szervert fogsz munkába.
Így letölti a delikvens a 40 megás file-t, kicsomagolásnál a szerverre bízza magát, ami közli a mintkat a kitömörítő programmal..és ha a szerver kapacítása nem elegendő, keres olyan felhasználót, aki épp ennek a kitömörítésén ügyködik.