#21
Tudom, már láttam azt a topikot, szerintem ez valami beugratás féle.
Az sosem fog elkészülni. Ez meg hamarosan, és akkor majd kiderül,hogy mivan.
Addig meg ráérek én csinálgatni, max senki nem hiszi el hogy lehetséges lenne ez a dolog. Végülis ha az lenne, már rég megcsinálta volna valaki más, legalábbis ezt hallom ha megemlítem valahól.
Azt tudom, hogy ilyet még nem láttam máshól, amit láttam és a legjobb volt eddig az a KGB-archiver prgram volt. KGB encoder
Ami létezik tömörítő program ma azok mind a redundanciát veszik ki az adatokból, azaz az ismétlődéseket, de cserébe megnő az adatok entrópiája, másszóval egyre nagyobb lesz a káosz a bitek között és már nem lesz mit kivenni az adatokból. Itt érvényesül a shannom limit: Noisy channel coding theorem
Ellenben amin én dolgozok az olyan mintákat szed ki az adatfolyamból ami minden körülmények között fellelhető, legyen akármilyen a mért entrópiája, és miután kiveszi a mintát kevesebb biten lehet tárolni az információt, egyértelmű, ezután megint átfuttatod az algoritmust rajta, újra ki tudod venni a mintákat, és megint kisebb lesz, és ezt annyiszor játszod el ahányszor csak akarod és mindig kisebb lesz az eredmény, de ezt mind úgy hogy egyértelműen vissza is lehet állítani minden egyes bitet a kiindulási értékekre.
Jah, és ezt nem most találtam ki, itt az sg-én már írtam erről egy tömörítő topikba csak elsőlyedt és én voltam ott is az utolsó hozzászólás.
Itt magyarországon szinte senki nem foglalkozik tömörítő eljárásokkal, de még hobby szinten, magyarul normális leírás sincs a most jelen lévő eljárásokról.