#44
Az a röhejes, hogy te fel sem fogtad, hogy én az előbb egy veszteségmentes eljárásról beszéltem, nem pedig az interframe,deltaframe média tömörítésről.
Azt tudni kell,hogy minden veszteséges tömörítési eljrás egy jó veszteségmentes bázisra épül. A jpg-nél, mp3-nál, xvid-nél, mindnél a transzformációk után egy olyan adatfolyamot kapunk, ami még mindig nagy ugyan, de nagyon redundáns, amit viszont egy jó veszteségmentes eljárás tud legyalulni. Nem hülyeséget beszélek, utánna lehet nézni, hogy a veszteséges eljárások, a több lépcsös szakaszaiban vannak olyanok amiben huffman, vagy más entrópia, illetve aritmetikai kódolással eltüntetik a fennmaradó redundanciákat.
Az én megoldásomnak egy nagyon hatékony veszteségmentes algoritmus lenne az alapja, az erre épülő mádiatömörítők, kodekek már készen vannak, ki sem kell őket találni, kézenfekvőek, mondjuk egy jó kis wavelet transzformáció 10 es mélységben már majdnem bmp minőségben adja vissza a képet.
Erre rájön egy nagyon erősen rekurzív kis hatékonyságú új, statisztikai bináris algoritmus, mellette egy izmos cpu ami gyorsan végig megy a rekurziókon, és ott vagyunk hogy egy két kilobájtból megúszunk egy másodperc HD anyagot, természetesen delta alapú lenne ez is, hogy ne kelljen annyit gondolkoznia a cpu-nak. :D