Изменения

Перейти к навигации Перейти к поиску
нет описания правки
Строка 11: Строка 11:     
Согласно [[Теоремы Шеннона для источника общего вида|теореме Шеннона]], существует предел сжатия без потерь, зависящий от энтропии источника. Чем более предсказуемы получаемые данные, тем лучше их можно сжать. Случайная независимая равновероятная последовательность сжатию без потерь не поддаётся.
 
Согласно [[Теоремы Шеннона для источника общего вида|теореме Шеннона]], существует предел сжатия без потерь, зависящий от энтропии источника. Чем более предсказуемы получаемые данные, тем лучше их можно сжать. Случайная независимая равновероятная последовательность сжатию без потерь не поддаётся.
  −
<!-- Наиболее эффективными энтропийными кодерами является [[Арифметическое кодирование]], и его вариации - интервальное кодирование, ANS, CABAC(?) -->
      
== См. также ==
 
== См. также ==
Строка 18: Строка 16:     
== Литература ==
 
== Литература ==
* [https://books.google.ru/books?id=s3H8s8rdsHkC&pg=PA41 Digital Signal Compression: Principles and Practice] (By William A. Pearlman, Amir Said, 2011, ISBN 9780521899826), Chapter 4 "Entropy coding techniques" pp41-76
+
* [https://books.google.ru/books?id=s3H8s8rdsHkC&pg=PA41 Digital Signal Compression: Principles and Practice] (By William A. Pearlman, Amir Said, 2011, ISBN 978-0-521-89982-6), Chapter 4 «Entropy coding techniques» pp41-76
+
 
 
{{rq|sources|refless|img}}
 
{{rq|sources|refless|img}}
 
{{методы сжатия}}
 
{{методы сжатия}}
Анонимный участник

Реклама:

Навигация