которая формирует конкретные данные, релизующие указанный метод сжатия (правда на Pascal на PC), так вот первые результаты не могут не радовать: действительно, таблица исходных данных хорошо жмётся (всем кроме RLE), это было видно на RAR, HA, ZIP и т.д., суммарно (т.е. исходя из размеров полученных таблиц с исходными даннымии служебными данными), получается прирост коэффициента сжатия на 10% (в среднем, сравнивается файлы от LC), однако если даже написать указанный пакер на Спектруме, то он будет слишком медленным: во-первых, задача подбора коэффициентов C[i], во-вторых, распаковка в битовом потоке, в-третьих, битовое представление дерева (не-)повторов. И наконец, распаковка исходных данных, что подразумевает либо метод Huffmana (изначально медленный, так как тоже битовый) либо LZ* (частично в битовом представлении).




), это было видно на RAR, HA, ZIP и т.д., суммарно (т.е. исходя из размеров полученных таблиц с исходными даннымии служебными данными), получается прирост коэффициента сжатия на 10% (в среднем, сравнивается файлы от LC), однако если даже написать указанный пакер на Спектруме, то он будет слишком медленным: во-первых, задача подбора коэффициентов C[i], во-вторых, распаковка в битовом потоке, в-третьих, битовое представление дерева (не-)повторов. И наконец, распаковка исходных данных, что подразумевает либо метод Huffmana (изначально медленный, так как тоже битовый) либо LZ* (частично в битовом представлении).
Ответить с цитированием