Изменения
Перейти к навигации
Перейти к поиску
Строка 1:
Строка 1:
+
Строка 7:
Строка 8:
− +
Строка 14:
Строка 15:
+
+
+"другие значения", +rq|sources|refless|img
{{другие значения термина|Кодирование|Кодирование}}
'''Энтропийное кодирование''' — кодирование последовательности значений с возможностью однозначного восстановления с целью уменьшения объёма данных (длины последовательности) с помощью усреднения вероятностей появления элементов в закодированной последовательности.
'''Энтропийное кодирование''' — кодирование последовательности значений с возможностью однозначного восстановления с целью уменьшения объёма данных (длины последовательности) с помощью усреднения вероятностей появления элементов в закодированной последовательности.
* Сопоставление нескольким элементам исходной последовательности фиксированного числа элементов конечной последовательности. Примером является [[код Танстола]].
* Сопоставление нескольким элементам исходной последовательности фиксированного числа элементов конечной последовательности. Примером является [[код Танстола]].
* Другие структурные коды, основанные на операциях с последовательностью символов. Примером является [[кодирование длин серий]].
* Другие структурные коды, основанные на операциях с последовательностью символов. Примером является [[кодирование длин серий]].
* Если приблизительные характеристики энтропии потока данных предварительно известны, может быть полезен более простой статический код, такой как [[унарное кодирование]], [[гамма-код Элиаса]], [[кодирование Фибоначчи]], [[кодирование Голомба]] или [[кодирование Райса]].
* Если приблизительные характеристики энтропии потока данных предварительно известны, может быть полезен более простой статический код, такой как [[унарное кодирование]], [[гамма-код Элиаса]], [[код Фибоначчи]], [[код Голомба]] или [[кодирование Райса]].
Согласно [[Теоремы Шеннона для источника общего вида|теореме Шеннона]], существует предел сжатия без потерь, зависящий от энтропии источника. Чем более предсказуемы получаемые данные, тем лучше их можно сжать. [[Случайная последовательность]] сжатию без потерь не поддаётся.
Согласно [[Теоремы Шеннона для источника общего вида|теореме Шеннона]], существует предел сжатия без потерь, зависящий от энтропии источника. Чем более предсказуемы получаемые данные, тем лучше их можно сжать. [[Случайная последовательность]] сжатию без потерь не поддаётся.
* [[Универсальный код]]
* [[Универсальный код]]
{{rq|sources|refless|img}}
{{методы сжатия}}
{{методы сжатия}}
[[Категория:Алгоритмы сжатия без потерь]]
[[Категория:Алгоритмы сжатия без потерь]]
[[Категория:Теория информации]]
[[Категория:Теория информации]]