Универсальный код: различия между версиями

Материал из in.wiki
Перейти к навигации Перейти к поиску
м (42 версии импортировано: Импорт из Википедии)
 
(не показаны 3 промежуточные версии 3 участников)
Строка 23: Строка 23:
 
<math>E(l) = \frac{6}{\pi^2} \sum_{l=1}^\infty \frac{1}{l} = \infty .</math>
 
<math>E(l) = \frac{6}{\pi^2} \sum_{l=1}^\infty \frac{1}{l} = \infty .</math>
  
== Взаимосвязь и практическое использование ==
+
== Практическое использование в сжатии данных ==
Использование [[код Хаффмана|кода Хаффмана]] и [[арифметическое кодирование|арифметического кодирования]] (когда они могут использоваться вместе) дают лучший результат, чем любой другой универсальный код.
+
Использование [[код Хаффмана|кода Хаффмана]] и [[арифметическое кодирование|арифметического кодирования]] (когда они могут использоваться вместе) даёт лучший результат, чем любой другой универсальный код.
  
 
Однако, универсальные коды полезны, когда код Хаффмана не может использоваться — например, когда невозможно определить точную вероятность каждого сообщения, но известно ранжирование их вероятностей.
 
Однако, универсальные коды полезны, когда код Хаффмана не может использоваться — например, когда невозможно определить точную вероятность каждого сообщения, но известно ранжирование их вероятностей.
Строка 30: Строка 30:
 
Универсальные коды также полезны, когда код Хаффмана отрабатывает не совсем корректно. Например, когда отправитель знает вероятности сообщений, а получатель — нет, код Хаффмана требует передачи вероятностей к получателю. Использование универсального кода избавляет от таких неудобств.
 
Универсальные коды также полезны, когда код Хаффмана отрабатывает не совсем корректно. Например, когда отправитель знает вероятности сообщений, а получатель — нет, код Хаффмана требует передачи вероятностей к получателю. Использование универсального кода избавляет от таких неудобств.
  
Каждый универсальный код дает собственное «подразумеваемое распределение» вероятностей ''p''(''i'')=2<sup>-''l''(''i'')</sup>, где l(i) — длина i-го ключевого слова и p(i) — вероятность символа передачи. Если фактические вероятности сообщения — q(i) и [[расстояние Кульбака — Лейблера]] DKL(q||p) минимизирует код с l(i), затем оптимальный код Хаффмана для этого множества сообщений будет эквивалентен к этому коду. С тех пор, как универсальные коды стали работать быстрее, чтобы кодировать и декодировать, чем код Хаффмана, универсальный код был бы предпочтителен в случаях, где DKL(q||p) достаточно маленький.
+
Каждый универсальный код дает собственное «подразумеваемое распределение» вероятностей <math>p(i) = 2^{-l(i)}</math>, где <math>l(i)</math> — длина i-го ключевого слова и <math>p(i)</math> — вероятность символа передачи. Если фактические вероятности сообщения — <math>q(i)</math> и [[расстояние Кульбака — Лейблера]] <math>DKL(q||p)</math> минимизирует код с <math>l(i)</math>, оптимальный код Хаффмана для этого множества сообщений будет эквивалентен к этому коду. Поскольку универсальные коды быстрее, чем код Хаффмана, универсальный код предпочтителен в случаях, где <math>DKL(q||p)</math> достаточно мало.
  
Для любого [[геометрическое распределение|геометрического распределения]] [[кодирование Голомба]] оптимально. С универсальными кодами, подразумеваемое распределение — приблизительно энергетический закон как например 1 / n2. Для [[код Фибоначчи|кода Фибоначчи]], подразумеваемое распределение составляет приблизительно 1 / nq.
+
Для любого [[геометрическое распределение|геометрического распределения]] [[кодирование Голомба]] оптимально. Для универсальных кодов подразумеваемое распределение приблизительно подчиняется [[Степенной закон|степенному закону]], например <math>1/n^2</math>, а точнее, [[Закон Ципфа|закону Ципфа]]. Для [[код Фибоначчи|кода Фибоначчи]] подразумеваемое распределение приблизительно подчиняется закону <math>1/n^q</math> при <math>q = 1/\log_2(\varphi) \approx 1{,}44</math>, где <math>\varphi</math> — отношение [[Золотое сечение|золотого сечения]].
  
 
== Ссылки ==
 
== Ссылки ==

Текущая версия от 00:47, 20 августа 2025

Универсальный код для целых чисел в сжатии данных — префиксный код, который преобразует положительные целые числа в двоичные слова, с дополнительным свойством: при любом истинном распределении вероятностей на целых числах, пока распределение — монотонно (то есть p ( i ) p ( i + 1 ) p(i) \geq p(i+1) для любого i i ), ожидаемые длины двоичных слов находятся в пределах постоянного фактора ожидаемых длин, которые оптимальный код назначил бы для этого распределения вероятностей.

Универсальный код асимптотически оптимален, если коэффициент между фактическими и оптимальными ожидаемыми длинами связывает функция информационной энтропии кода, которая приближается к 1, так как энтропия приближается к бесконечности.

Большинство префиксных кодов для целых чисел назначает более длинные ключевые слова большим целым числам. Такой код может использоваться, чтобы эффективно закодировать сообщение, тянущееся из набора возможных сообщений, просто упорядочивая набор сообщений по уменьшению вероятности а затем пересылая индекс предназначаемого сообщения. Универсальные коды в общем не используются для точно известных распределений вероятностей.

Универсальные коды включают в себя:

Некоторые неуниверсальные коды:

Их неуниверсальность проявляется в том, что если любые из них использовать, чтобы закодировать распределение Гаусса-Кузьмина или дзета-распределение с параметром s=2, то ожидаемая длина ключевого слова бесконечена. Например, используя одноместное кодирование на дзета-распределение, имеем следующую ожидаемую длину:

E ( l ) = 6 π 2 l = 1 1 l = . E(l) = \frac{6}{\pi^2} \sum_{l=1}^\infty \frac{1}{l} = \infty .

Практическое использование в сжатии данных[править | править код]

Использование кода Хаффмана и арифметического кодирования (когда они могут использоваться вместе) даёт лучший результат, чем любой другой универсальный код.

Однако, универсальные коды полезны, когда код Хаффмана не может использоваться — например, когда невозможно определить точную вероятность каждого сообщения, но известно ранжирование их вероятностей.

Универсальные коды также полезны, когда код Хаффмана отрабатывает не совсем корректно. Например, когда отправитель знает вероятности сообщений, а получатель — нет, код Хаффмана требует передачи вероятностей к получателю. Использование универсального кода избавляет от таких неудобств.

Каждый универсальный код дает собственное «подразумеваемое распределение» вероятностей p ( i ) = 2 l ( i ) p(i) = 2^{-l(i)} , где l ( i ) l(i)  — длина i-го ключевого слова и p ( i ) p(i)  — вероятность символа передачи. Если фактические вероятности сообщения — q ( i ) q(i) и расстояние Кульбака — Лейблера D K L ( q | | p ) DKL(q||p) минимизирует код с l ( i ) l(i) , оптимальный код Хаффмана для этого множества сообщений будет эквивалентен к этому коду. Поскольку универсальные коды быстрее, чем код Хаффмана, универсальный код предпочтителен в случаях, где D K L ( q | | p ) DKL(q||p) достаточно мало.

Для любого геометрического распределения кодирование Голомба оптимально. Для универсальных кодов подразумеваемое распределение приблизительно подчиняется степенному закону, например 1 / n 2 1/n^2 , а точнее, закону Ципфа. Для кода Фибоначчи подразумеваемое распределение приблизительно подчиняется закону 1 / n q 1/n^q при q = 1 / log 2 ( φ ) 1 , 44 q = 1/\log_2(\varphi) \approx 1{,}44 , где φ \varphi — отношение золотого сечения.

Ссылки[править | править код]

Ошибка Lua в Модуль:Navbox на строке 353: attempt to index local 'listText' (a nil value).