Изменения

Перейти к навигации Перейти к поиску
не путайте теоремы Шеннона, их много
Строка 1: Строка 1:  
'''Кодирование энтропии''' — [[кодирование]] словами (кодами) переменной длины, при которой длина кода символа имеет обратную зависимость от [[вероятность|вероятности]] появления символа в передаваемом сообщении.  Обычно [[энтропия (теория информации)|энтропийные]] кодировщики используют для сжатия данных коды, длины которых пропорциональны отрицательному [[логарифм|логарифму]] вероятности символа. Таким образом, наиболее вероятные символы используют наиболее короткие коды.
 
'''Кодирование энтропии''' — [[кодирование]] словами (кодами) переменной длины, при которой длина кода символа имеет обратную зависимость от [[вероятность|вероятности]] появления символа в передаваемом сообщении.  Обычно [[энтропия (теория информации)|энтропийные]] кодировщики используют для сжатия данных коды, длины которых пропорциональны отрицательному [[логарифм|логарифму]] вероятности символа. Таким образом, наиболее вероятные символы используют наиболее короткие коды.
   −
Согласно [[Теорема Шеннона|теореме Шеннона]] оптимальная длина кода для символа равна <math>\displaystyle -\log_bP</math>, где <math>\displaystyle b</math> — это количество символов, использованных для изготовления выходного кода, и <math>\displaystyle P</math> — вероятность входного символа.
+
Согласно [[Прямая теорема Шеннона для источника|теореме Шеннона]] оптимальная длина кода для символа равна <math>\displaystyle -\log_bP</math>, где <math>\displaystyle b</math> — это количество символов, использованных для изготовления выходного кода, и <math>\displaystyle P</math> — вероятность входного символа.
    
Три самых распространённых техники кодирования энтропиии — это [[кодирование Хаффмана]], [[кодирование длин серий]] и [[арифметическое кодирование]].
 
Три самых распространённых техники кодирования энтропиии — это [[кодирование Хаффмана]], [[кодирование длин серий]] и [[арифметическое кодирование]].
Анонимный участник

Реклама:

Навигация