Цитата Сообщение от Sameone Посмотреть сообщение
И вот с этой последовательностью символов ("КТОАЙ-_ЕС") и работает мой алгоритм.
Не увиливай от ответа. alco тебя спросил про конкретный пример- набор букв и их относительные частоты (можешь множить на 100 и получить абсолютные частоты для какого-то абстрактного текста). Вот распиши сколько бит на каждый символ потребуется после работы твоего алгоритма и какие это будут битовые цепочки.


Цитата Сообщение от Sameone Посмотреть сообщение
5) Vitamin По поводу 1/(2^N) А как ты ещё представляеш себе "алгоритм Хаффмана приближает относительные частоты появления символов в потоке частотами, кратными степени двойки"? (Указанная мною книга, с 35).
Я в курсе, что иногда результат работы по методу Хаффмана бывает далёк от идеала, предписываемого теоремой Шеннона.
Это означает, что разница между реальной энтропией в исходных данных и оценкой по методу Хаффмана не будет превышать 1 бита на каждый символ- отсюда и степени двойки (вероятности 1/2, 1/4, 1/8 и т.п.). Для арифметического кодирования погрешность не превышает 1 бита на все сообщение.

Цитата Сообщение от elf/2 Посмотреть сообщение
ты ведь про арифметическое кодирование на спекки пошутил?
Я его реализовывал в свое время Ну оооочень медленно работает...