Важная информация

User Tag List

Страница 1 из 4 1234 ПоследняяПоследняя
Показано с 1 по 10 из 36

Тема: Существует ли идеальное сжатие без потери данных?

  1. #1
    Moderator Аватар для CodeMaster
    Регистрация
    26.04.2009
    Адрес
    Воронеж
    Сообщений
    4,066
    Благодарностей: 561
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию Существует ли идеальное сжатие без потери данных?

    Определённого конкретного набора данных, если единственным критерием будет коэффициент сжатия? Если да, то каково (примерно) различие идеального с оптимальным значением коэффициент/время?
    Рыцарь ордена Хламовников

    Мои магазины на Мешке: Retro store и Компьютерные комплектующие

  2. #1
    С любовью к вам, Yandex.Direct
    Размещение рекламы на форуме способствует его дальнейшему развитию

  3. #2
    Master Аватар для Шынни
    Регистрация
    19.01.2017
    Адрес
    г. Арзамас
    Сообщений
    850
    Благодарностей: 495
    Записей в дневнике
    27
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Научитесь отпускать. Родное всегда найдет дорогу обратно.
    Как понять, что тебя недолюбливают в коллективе: к твоему замку пришла разъяренная толпа с факелами и вилами.
    TR-DOS cracktros

  4. Этот пользователь поблагодарил Шынни за это полезное сообщение:
    Tronix (13.08.2017)

  5. #3
    Master Аватар для Bedazzle
    Регистрация
    02.05.2015
    Адрес
    г. Таллин, Эстония
    Сообщений
    568
    Благодарностей: 121
    Mentioned
    1 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Да, существует. Любой набор данных можно упаковать в один байт (версия пакера), при условии что упаковщик/распаковщик будут модифицироваться под каждый конкретный входной файл и содержать полный словарь.

  6. Этот пользователь поблагодарил Bedazzle за это полезное сообщение:
    Black Cat / Era CG (13.08.2017)

  7. #4
    Moderator Аватар для CodeMaster
    Регистрация
    26.04.2009
    Адрес
    Воронеж
    Сообщений
    4,066
    Благодарностей: 561
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Шынни, велика вероятность потери данных. Да и не ко всем типам данных подходит.

    Цитата Сообщение от Bedazzle Посмотреть сообщение
    Любой набор данных можно упаковать в один байт (версия пакера)
    Очень маленькое количество данных можно так упаковать. Понятно, что 2 байтами гораздо больше, но так же понятно, что и вопрос был не об этом.
    Рыцарь ордена Хламовников

    Мои магазины на Мешке: Retro store и Компьютерные комплектующие

  8. #5
    Veteran Аватар для Black Cat / Era CG
    Регистрация
    06.05.2010
    Адрес
    Бердск, НСО
    Сообщений
    1,064
    Благодарностей: 408
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Ну имхо несерьезное восприятие данной темы вполне естественно.
    Вы ставите проблему, опираясь на два сомнительных предмета:
    идеальное сжатие без потери данных
    Можно говорить о максимальном сжатии. Об идеальном сжатии - вряд ли.
    оптимальным значением коэффициент/время
    Оптимальное для чего? Оптимальность - это в корне относительное понятие, крайне зависящее от конкретных задач и условий.

    И далее вы предлагаете сравнить гипотетическое идеальное с относительным. Как?
    Seamos realistas y hagamos lo imposible!
    Ernesto Che Guevara
    Переехал сюда: SteinBlume (ex ATM CP/M Explorer)
    http://era-cg.su

  9. #6
    Moderator Аватар для CodeMaster
    Регистрация
    26.04.2009
    Адрес
    Воронеж
    Сообщений
    4,066
    Благодарностей: 561
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Цитата Сообщение от Black Cat / Era CG Посмотреть сообщение
    Можно говорить о максимальном сжатии. Об идеальном сжатии - вряд ли.
    Это всё софистика, думатцо 99,99% понятно, что речь идёт о минимальном размере набора служебные данные + словарь + сжатые данные.

    Цитата Сообщение от Black Cat / Era CG Посмотреть сообщение
    И далее вы предлагаете сравнить гипотетическое идеальное с относительным. Как?
    Ответ в первом посте.

    Цитата Сообщение от CodeMaster Посмотреть сообщение
    примерно
    Т.е. максимальное теоретически возможное (a.k.a. идеальное) сжатие для данного набора данных и данного алгоритма равно, например, 51%, то в оптимальном для 90% случаев сжатии оно составляет например ~60% или может ~52%, интересно понять соотношение этих величин.
    Рыцарь ордена Хламовников

    Мои магазины на Мешке: Retro store и Компьютерные комплектующие

  10. #7
    Master
    Регистрация
    24.05.2005
    Адрес
    г. Запорожье, Украина
    Сообщений
    682
    Благодарностей: 488
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Если оцифровать белый шум с любой разрядностью - то
    Цитата Сообщение от CodeMaster Посмотреть сообщение
    максимальное теоретически возможное (a.k.a. идеальное) сжатие для данного набора данных
    равно 0%.

  11. #8
    Master
    Регистрация
    27.01.2005
    Сообщений
    527
    Благодарностей: 272
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Математически доказано, что для любого алгоритма Z сжатия данных можно подобрать два набора данных D1 и D2, таких, что:

    1. Алгоритм Z для набора данных D1 будет самым эффективным из всех алгоритмов.
    2. Алгоритм Z для набора данных D2 будет неэффективным (т.е. выходной файл данных будет по размеру больше входного).

    То есть, если на минутку стать омерзительным философом-интеллегентом, о можно мрачно сказать "Ах, в этом мире нет ничего идеального!" и пойти пить водку

  12. #9
    Member Аватар для nlo_j77
    Регистрация
    03.08.2008
    Адрес
    Томск
    Сообщений
    89
    Благодарностей: 37
    Mentioned
    0 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Вообще... - если брать в рассчёт теорию... - любой массив данных (включая бесконечный), можно упаковать (множественными проходами) в 2кб (учитывая, что данные 8-миразрядные!!)
    эти два кб упакованных данных будут содержать 4 равных части - 1 словарь, 2 перекрестный словарь, 3 распаковщик и 4 сами упакованные данные
    При каждом проходе распаковки, оба словаря обновляются, распаковщик остаётся без изменений.
    Однако... - при множественной распаковке.... - чем больше объём данных, тем больше времени на распаковку (бесконечный объём данных будет распаковываться бесконечно)

    P.S. Похоже на ахинею, но могу обосновать

    P.P.S Про белый шум - добавляем к разрядности один пустой бит.... и всё замечательно пакуется!
    Последний раз редактировалось nlo_j77; 13.08.2017 в 20:52.

  13. #10
    Guru Аватар для NEO SPECTRUMAN
    Регистрация
    22.05.2011
    Адрес
    Дзержинск
    Сообщений
    2,064
    Благодарностей: 366
    Mentioned
    1 Post(s)
    Tagged
    0 Thread(s)

    По умолчанию

    Цитата Сообщение от CodeMaster Посмотреть сообщение
    идеальное сжатие без потери данных?
    ну идеального быть не может
    для каждого типа файла/конкретного файла идеальным будет свое сжатие

    Цитата Сообщение от nlo_j77 Посмотреть сообщение
    Вообще...
    но как ни старайся в один бит
    больше чем 1 бит данных ты не запихнешь...

    самое оптимальное не жать каждый файл по отдельности
    а жать все вместе
    оптимальное в нахождении максимально похожих участков

    мне интересно почему до сих пор нету пакера с готовым встроенным словарем так мегабайт на 1000

Страница 1 из 4 1234 ПоследняяПоследняя

Информация о теме

Пользователи, просматривающие эту тему

Эту тему просматривают: 1 (пользователей: 0 , гостей: 1)

Похожие темы

  1. RLE сжатие (покритикуйте)
    от Vladson в разделе Программирование
    Ответов: 12
    Последнее: 16.03.2008, 12:29
  2. Ответов: 18
    Последнее: 18.06.2006, 14:50
  3. Архивирование, сжатие, упаковка.
    от GriV в разделе Программирование
    Ответов: 28
    Последнее: 14.03.2005, 23:55

Ваши права

  • Вы не можете создавать новые темы
  • Вы не можете отвечать в темах
  • Вы не можете прикреплять вложения
  • Вы не можете редактировать свои сообщения
  •