Если брать это выражение в качество целевой функции и пытаться решить её классическими методами оптимизации, то здесь вас постигнет разочарование:
дело в том, что эта функция НЕЛИНЕЙНАЯ. Коэффициенты разложения C[i] в классической задаче оптимизации являются координатами радиус-вектора, причём его плавное перемещение в классической задаче последовательно ведёт к решению.
Здесь же такой подход неприменим изза нелинейности системы (т.е. изменение одной из координат может привести от близкого к оптимуму решения к совершенно неоптимальному, это связано с перегрупировкой коэффцициентов,
именно поэтому как я уже говорил, такая задача решается численными методами, каждый из которых является Ноу-Хау авторов,
или методом последовательного перебора коэффцициентов, что, естественно, возможно когда обрабатывается не очень большой фрагмент данных, т.к. затраты на такой метод выбора коэффициентов просто колоссальны)
И ещё, в классической задаче подразумевается плавность изменения коэффцициентов C[i], здесь же осуществить плавный переход не является возможным, хотя, возможно, что если пробовать решать эту задачу в такой форме, используя, скажем, интерполяцию значений C[i] и Z[i], то может быть возможно будет получить какие-нить осмысленные значения.

Теперь от чистой теории к не совсем чистой практике
Я написал (интереса ради) программу, которая методом перебора будет подыскивать коэффициенты C[i] для...

...для файлов размером 6912 байт

Проще говоря я сделал вот такой анализатор экранных файлов.
И вот какие получились результаты:
- Для подавляющего большинства картинок имеет место следующий расклад:
C[1]=1,
C[2]=3...5
C[3]=остальное
Глядя на эти цифры и их контекст у меня возникло смутное подозрение, что эти цифры я где-то видел.
Чисто физически это обозначает вот что:
одним битом мы кодируем неповтор и следующий за ним байт длины последовательности.
Остальные C[i] характеризуют количество бит, используемых для счётчика повторов. Эти коэффициенты в принципе меняются, но C[1] очень устойчиво остаётся равным 1, причём на разных типах картинок:
от полученных с помощью Error Difusion (цвета в виде скопища точек) так и чисто рисованных на ZX.

Тогда я заглянул в ZX-Review'96 (в форуме статья про модифицированный алгоритм RLE), там как раз автор предлагал ввести (он конечно не говорил о кэффициентах, там было несколько другое описание) такой метод RLE с такими коэффициентами! Т.е. по сути я (методом сбора и анализа коэффициентов от разных картинок) и автор этого предложения (методом научного тыка по-видимому) пришли к одному результату!

Т.е. эта формула имеет серьёзную практическую подоплеку, что не может не радовать, а значит то математическое исследование, которое я провёл, помогло создать математические основы сжатия информации.

Я поспрашивал у своих коллег, которые занимаются вопросами оптимизации, каким образом можно решить эту задачу. И вот, после некоторого времени, один из них сказал мне, что видел эту формулу в одной книге. Сама эта книга
была о базисных функциях сетей и правилах передачи информации, но суть в том, что эта формула там действительно встречалась, хотя несколько в другой форме, также она давалась как формула Хаффмана для оптимального решения задачи устранения избыточности.
Т.о. я и Хаффман (хотя это его формула, я разрабатывал её независимо от него) пришли к одному результату.

Теперь такой нюанс: для картинок, на самом деле, можно изменить представление исходных данных (почти все знают как):
я сжимал картинку как простой файл, здесь же я несколько модифицировал алгоритм для того, чтобы подсчёт шёл не по линиям,
а по знакоместам. Т.о. реально при таком подходе удавалось увеличить коэффициент сжатия.

И ещё, я сравнивал как работает мой упаковщик (ещё раз напомню, что он методом перебора искал САМОЕ оптимальное решение),
и то, как работют другие упаковщики и архиваторы.
В целом, результаты оказались весьма даже похожи (т.е. мой метод, WinRAR и Laser Compact), но в некоторых случаях мой упаковщик ОТСТАВАЛ (показывал меньший коэффициент сжатия).
После анализа этих программ, я сделал следующие выводы:
- Выбранный в моей программе минимальный элемент повтора равен максимальному элементу повтора = 1 байт.
- В указанных программах длина элемента повтора может варьироваться (от 1 байта до нескольких килобайт).
- Возможно, WinRAR использует некратнобайтовые длины последовательностей (например, 17 бит).

Возможные улучшения этого метода:
- Использование некратнобайтовых последовательностей может существенно повысить коэффициент сжатия (например, последовательность бит 01 в Error Difusion картинках).
- Использование алгоритмов интерполяции для C[i] и Z[i] и простейших методов градиентного спуска позволит (возможно) упростить задачу и решать её уже не перебором
- Таблица исходных данных может подвергаться неплохому сжатию методом Huffman'а.
- Таблица значений дерева Huffman'а (таблица (не)повторов) также может хорошо сжиматься самим методом Huffman'a.
- Мой метод сжатия (поиск оптимального значения коэффцициентов C[i]) может быть применим и для таблицы (не)повторов