Важная информация
Страница 1 из 3 123 ПоследняяПоследняя
Показано с 1 по 10 из 29

Тема: Существует ли идеальное сжатие без потери данных?

  1. #1
    Moderator Аватар для CodeMaster
    Регистрация
    26.04.2009
    Адрес
    Воронеж
    Сообщений
    3,908
    Благодарностей: 533

    По умолчанию Существует ли идеальное сжатие без потери данных?

    Определённого конкретного набора данных, если единственным критерием будет коэффициент сжатия? Если да, то каково (примерно) различие идеального с оптимальным значением коэффициент/время?
    Рыцарь ордена Хламовников

    Мои магазины на Мешке: Retro store и Компьютерные комплектующие

  2. #1
    С любовью к вам, Yandex.Direct
    Размещение рекламы на форуме способствует его дальнейшему развитию

  3. #2
    Master Аватар для Шынни
    Регистрация
    19.01.2017
    Адрес
    г. Арзамас
    Сообщений
    515
    Благодарностей: 300
    Записей в дневнике
    22

    По умолчанию

    Научитесь отпускать. Родное всегда найдет дорогу обратно.
    TR-DOS cracktros

  4. Этот пользователь поблагодарил Шынни за это полезное сообщение:
    Tronix (13.08.2017)

  5. #3
    Activist Аватар для Bedazzle
    Регистрация
    02.05.2015
    Адрес
    г. Таллин, Эстония
    Сообщений
    489
    Благодарностей: 97

    По умолчанию

    Да, существует. Любой набор данных можно упаковать в один байт (версия пакера), при условии что упаковщик/распаковщик будут модифицироваться под каждый конкретный входной файл и содержать полный словарь.

  6. Этот пользователь поблагодарил Bedazzle за это полезное сообщение:
    Black Cat / Era CG (13.08.2017)

  7. #4
    Moderator Аватар для CodeMaster
    Регистрация
    26.04.2009
    Адрес
    Воронеж
    Сообщений
    3,908
    Благодарностей: 533

    По умолчанию

    Шынни, велика вероятность потери данных. Да и не ко всем типам данных подходит.

    Цитата Сообщение от Bedazzle Посмотреть сообщение
    Любой набор данных можно упаковать в один байт (версия пакера)
    Очень маленькое количество данных можно так упаковать. Понятно, что 2 байтами гораздо больше, но так же понятно, что и вопрос был не об этом.
    Рыцарь ордена Хламовников

    Мои магазины на Мешке: Retro store и Компьютерные комплектующие

  8. #5
    Master Аватар для Black Cat / Era CG
    Регистрация
    06.05.2010
    Адрес
    Бердск, НСО
    Сообщений
    812
    Благодарностей: 326

    По умолчанию

    Ну имхо несерьезное восприятие данной темы вполне естественно.
    Вы ставите проблему, опираясь на два сомнительных предмета:
    идеальное сжатие без потери данных
    Можно говорить о максимальном сжатии. Об идеальном сжатии - вряд ли.
    оптимальным значением коэффициент/время
    Оптимальное для чего? Оптимальность - это в корне относительное понятие, крайне зависящее от конкретных задач и условий.

    И далее вы предлагаете сравнить гипотетическое идеальное с относительным. Как?
    Seamos realistas y hagamos lo imposible!
    Ernesto Che Guevara
    Переехал сюда: SteinBlume (ex ATM CP/M Explorer)
    http://era-cg.su

  9. #6
    Moderator Аватар для CodeMaster
    Регистрация
    26.04.2009
    Адрес
    Воронеж
    Сообщений
    3,908
    Благодарностей: 533

    По умолчанию

    Цитата Сообщение от Black Cat / Era CG Посмотреть сообщение
    Можно говорить о максимальном сжатии. Об идеальном сжатии - вряд ли.
    Это всё софистика, думатцо 99,99% понятно, что речь идёт о минимальном размере набора служебные данные + словарь + сжатые данные.

    Цитата Сообщение от Black Cat / Era CG Посмотреть сообщение
    И далее вы предлагаете сравнить гипотетическое идеальное с относительным. Как?
    Ответ в первом посте.

    Цитата Сообщение от CodeMaster Посмотреть сообщение
    примерно
    Т.е. максимальное теоретически возможное (a.k.a. идеальное) сжатие для данного набора данных и данного алгоритма равно, например, 51%, то в оптимальном для 90% случаев сжатии оно составляет например ~60% или может ~52%, интересно понять соотношение этих величин.
    Рыцарь ордена Хламовников

    Мои магазины на Мешке: Retro store и Компьютерные комплектующие

  10. #7
    Master
    Регистрация
    24.05.2005
    Адрес
    г. Запорожье, Украина
    Сообщений
    585
    Благодарностей: 405

    По умолчанию

    Если оцифровать белый шум с любой разрядностью - то
    Цитата Сообщение от CodeMaster Посмотреть сообщение
    максимальное теоретически возможное (a.k.a. идеальное) сжатие для данного набора данных
    равно 0%.

  11. #8

    По умолчанию

    Математически доказано, что для любого алгоритма Z сжатия данных можно подобрать два набора данных D1 и D2, таких, что:

    1. Алгоритм Z для набора данных D1 будет самым эффективным из всех алгоритмов.
    2. Алгоритм Z для набора данных D2 будет неэффективным (т.е. выходной файл данных будет по размеру больше входного).

    То есть, если на минутку стать омерзительным философом-интеллегентом, о можно мрачно сказать "Ах, в этом мире нет ничего идеального!" и пойти пить водку

  12. #9

    По умолчанию

    Вообще... - если брать в рассчёт теорию... - любой массив данных (включая бесконечный), можно упаковать (множественными проходами) в 2кб (учитывая, что данные 8-миразрядные!!)
    эти два кб упакованных данных будут содержать 4 равных части - 1 словарь, 2 перекрестный словарь, 3 распаковщик и 4 сами упакованные данные
    При каждом проходе распаковки, оба словаря обновляются, распаковщик остаётся без изменений.
    Однако... - при множественной распаковке.... - чем больше объём данных, тем больше времени на распаковку (бесконечный объём данных будет распаковываться бесконечно)

    P.S. Похоже на ахинею, но могу обосновать

    P.P.S Про белый шум - добавляем к разрядности один пустой бит.... и всё замечательно пакуется!
    Последний раз редактировалось nlo_j77; 13.08.2017 в 22:52.

  13. #10
    Veteran Аватар для NEO SPECTRUMAN
    Регистрация
    22.05.2011
    Адрес
    Дзержинск
    Сообщений
    1,891
    Благодарностей: 343

    По умолчанию

    Цитата Сообщение от CodeMaster Посмотреть сообщение
    идеальное сжатие без потери данных?
    ну идеального быть не может
    для каждого типа файла/конкретного файла идеальным будет свое сжатие

    Цитата Сообщение от nlo_j77 Посмотреть сообщение
    Вообще...
    но как ни старайся в один бит
    больше чем 1 бит данных ты не запихнешь...

    самое оптимальное не жать каждый файл по отдельности
    а жать все вместе
    оптимальное в нахождении максимально похожих участков

    мне интересно почему до сих пор нету пакера с готовым встроенным словарем так мегабайт на 1000

Страница 1 из 3 123 ПоследняяПоследняя

Информация о теме

Пользователи, просматривающие эту тему

Эту тему просматривают: 1 (пользователей: 0 , гостей: 1)

Похожие темы

  1. RLE сжатие (покритикуйте)
    от Vladson в разделе Программирование
    Ответов: 12
    Последнее: 16.03.2008, 14:29
  2. Ответов: 18
    Последнее: 18.06.2006, 16:50
  3. Архивирование, сжатие, упаковка.
    от GriV в разделе Программирование
    Ответов: 28
    Последнее: 15.03.2005, 01:55

Ваши права

  • Вы не можете создавать новые темы
  • Вы не можете отвечать в темах
  • Вы не можете прикреплять вложения
  • Вы не можете редактировать свои сообщения
  •