Энтропийное кодирование: различия между версиями

Материал из in.wiki
Перейти к навигации Перейти к поиску
w>Imperfect
м
Строка 3: Строка 3:
 
Согласно [[Прямая теорема Шеннона для источника|теореме Шеннона]] оптимальная длина кода для символа равна <math>\displaystyle -\log_bP</math>, где <math>\displaystyle b</math> — это количество символов, использованных для изготовления выходного кода, и <math>\displaystyle P</math> — вероятность входного символа.
 
Согласно [[Прямая теорема Шеннона для источника|теореме Шеннона]] оптимальная длина кода для символа равна <math>\displaystyle -\log_bP</math>, где <math>\displaystyle b</math> — это количество символов, использованных для изготовления выходного кода, и <math>\displaystyle P</math> — вероятность входного символа.
  
Три самых распространённых способа кодирования энтропиии — это [[кодирование Хаффмана]], [[кодирование длин серий]] и [[арифметическое кодирование]].
+
Три самых распространённых способа кодирования энтропии — это [[кодирование Хаффмана]], [[кодирование длин серий]] и [[арифметическое кодирование]].
 
Если приблизительные характеристики энтропии потока данных предварительно известны, может быть полезен более простой статический код, такой как [[унарное кодирование]], [[гамма-код Элиаса]], [[кодирование Фибоначчи]], [[кодирование Голомба]] или [[кодирование Райса]].
 
Если приблизительные характеристики энтропии потока данных предварительно известны, может быть полезен более простой статический код, такой как [[унарное кодирование]], [[гамма-код Элиаса]], [[кодирование Фибоначчи]], [[кодирование Голомба]] или [[кодирование Райса]].
  

Версия от 02:06, 17 октября 2009

Кодирование энтропиикодирование словами (кодами) переменной длины, при которой длина кода символа имеет обратную зависимость от вероятности появления символа в передаваемом сообщении. Обычно энтропийные кодировщики используют для сжатия данных коды, длины которых пропорциональны отрицательному логарифму вероятности символа. Таким образом, наиболее вероятные символы используют наиболее короткие коды.

Согласно теореме Шеннона оптимальная длина кода для символа равна log b P \displaystyle -\log_bP , где b \displaystyle b — это количество символов, использованных для изготовления выходного кода, и P \displaystyle P — вероятность входного символа.

Три самых распространённых способа кодирования энтропии — это кодирование Хаффмана, кодирование длин серий и арифметическое кодирование. Если приблизительные характеристики энтропии потока данных предварительно известны, может быть полезен более простой статический код, такой как унарное кодирование, гамма-код Элиаса, кодирование Фибоначчи, кодирование Голомба или кодирование Райса.

См. также


Ранняя версия этой статьи: Шаблон:PlanetMath Ошибка Lua в Модуль:Navbox на строке 353: attempt to index local 'listText' (a nil value).

ca:Codificació entròpica de:Entropiekodierung en:Entropy encoding fr:Codage de source ja:エントロピー符号 ko:엔트로피 부호화 zh:熵編碼法