Энтропийное кодирование: различия между версиями

Материал из in.wiki
Перейти к навигации Перейти к поиску
w>YurikBot
м (robot Adding: fr)
w>Mashiah Davidson
Строка 3: Строка 3:
 
Согласно [[Теорема Шеннона|теореме Шеннона]] оптимальная длина кода для символа — это -log''<sub>b</sub>P'', где ''b'' — это количество символов, использованных для изготовления выходного кода и ''P'' — это вероятность входного символа.
 
Согласно [[Теорема Шеннона|теореме Шеннона]] оптимальная длина кода для символа — это -log''<sub>b</sub>P'', где ''b'' — это количество символов, использованных для изготовления выходного кода и ''P'' — это вероятность входного символа.
  
Три самых распространённых техники кодирования энтропиии — это [[кодирование Хаффмана]], [[кодирование расстояний]] и [[арифметическое кодирование]].
+
Три самых распространённых техники кодирования энтропиии — это [[кодирование Хаффмана]], [[кодирование длин серий]] и [[арифметическое кодирование]].
 
Если приблизительные характеристики энтропии потока данных предварительно известны (в особенности для [[компрессии сигнала]]), то может быть полезен более простой статический код, такой как [[унарное кодирование]], [[гамма-кодирование Элиаса]], [[кодирование Фибоначчи]], [[кодирование Голомба]] или [[кодирование Райса]].
 
Если приблизительные характеристики энтропии потока данных предварительно известны (в особенности для [[компрессии сигнала]]), то может быть полезен более простой статический код, такой как [[унарное кодирование]], [[гамма-кодирование Элиаса]], [[кодирование Фибоначчи]], [[кодирование Голомба]] или [[кодирование Райса]].
  

Версия от 03:09, 1 июля 2006

Кодирование энтропиикодирование словами (кодами) переменной длины, при которой длина кода символа имеет обратную зависимость от вероятности появления символа в передаваемом сообщении. Обычно энтропийные кодировщики используют для сжатия данных длины кодов, которые пропорциональны отрицательному логарифму вероятности. Таким образом, наиболее вероятные символы используют кратчайшие коды.

Согласно теореме Шеннона оптимальная длина кода для символа — это -logbP, где b — это количество символов, использованных для изготовления выходного кода и P — это вероятность входного символа.

Три самых распространённых техники кодирования энтропиии — это кодирование Хаффмана, кодирование длин серий и арифметическое кодирование. Если приблизительные характеристики энтропии потока данных предварительно известны (в особенности для компрессии сигнала), то может быть полезен более простой статический код, такой как унарное кодирование, гамма-кодирование Элиаса, кодирование Фибоначчи, кодирование Голомба или кодирование Райса.

См. также


Ранняя версия этой статьи была опубликована на PlanetMath (англ.).

de:Entropiekodierung en:Entropy encoding fr:Codage de source ja:エントロピー符号 ko:엔트로피 부호화 zh:熵編碼法