Изменения

Перейти к навигации Перейти к поиску
Строка 15: Строка 15:  
=== Вероятностная модель ===
 
=== Вероятностная модель ===
   −
Используя метод арифитического кодирования можно достичь почти оптимального представления для заданного набора символов и их вероятностей (согласно [[source coding theorem|теории энтропийного кодирования источника Шенона]] оптимальное представление будет стремится к числу &minus;log''<sub>2</sub>P''  бит на каждый символ, вероятность которого ''P''). Алгоритмы сжатия данных использующие в своей работе метод арифметического кодирования перед непосредственным кодированием формируют [[модель]] входных данных на основании количественных  или статистических характеристик, а также, найденных в кодируемой последовательности повторений или паттернов - любой дополнительной информации позволяющей уточнить вероятность появления символа ''P'' в процессе кодирования. Очевидно, что чем точнее определенна или предсказана вероятность символа, тем выше эффективность сжатия.  
+
Используя метод арифметического кодирования можно достичь почти оптимального представления для заданного набора символов и их вероятностей (согласно [[source coding theorem|теории энтропийного кодирования источника Шеннона]] оптимальное представление будет стремится к числу &minus;log''<sub>2</sub>P''  бит на каждый символ, вероятность которого ''P''). Алгоритмы сжатия данных использующие в своей работе метод арифметического кодирования перед непосредственным кодированием формируют [[модель]] входных данных на основании количественных  или статистических характеристик, а также, найденных в кодируемой последовательности повторений или паттернов - любой дополнительной информации позволяющей уточнить вероятность появления символа ''P'' в процессе кодирования. Очевидно, что чем точнее определена или предсказана вероятность символа, тем выше эффективность сжатия.  
   −
Рассмотрим простейший случай [[статической]] модели для кодирования информации поступающей с системы обработки сигнала. Типы сигналов и соотвествующие им вероятности распределены следующим образом:
+
Рассмотрим простейший случай [[статической]] модели для кодирования информации поступающей с системы обработки сигнала. Типы сигналов и соответствующие им вероятности распределены следующим образом:
    
*60% вероятность нейтрального значения сигнала или NEUTRAL
 
*60% вероятность нейтрального значения сигнала или NEUTRAL
Строка 24: Строка 24:  
*10% вероятность признака конца кодируемой последовательности или END-OF-DATA.
 
*10% вероятность признака конца кодируемой последовательности или END-OF-DATA.
   −
Появление последнего символа для декодера означает, что вся последовательность была успешно декодированна. ''(В качестве альтернативного подхода, но необязательно более успешно, можно использователь блочный алгоритм фиксированной длины.)''
+
Появление последнего символа для декодера означает, что вся последовательность была успешно декодирована. ''(В качестве альтернативного подхода, но необязательно более успешно, можно использовать блочный алгоритм фиксированной длины.)''
   −
Следует также отметить, что в качестве алфавита вероятностной модели метода можно рассматривать любой  набор символов, исходя из особенностей решаемой задачи. Более эврестические подходы, использующие основную схему метода арифметического кодирования, работают с исползованием ''[[контекстное моделирование| динамических или адаптивных моделей]]''. Идея данных методв заключается в уточнении веротяности кодируемого символа, за счет учета вероятности предшествующего или будующего контекста (т.е. вероятность появления после определенного k- числа символов слева или справа, где k - это порядок контекста).
+
Следует также отметить, что в качестве алфавита вероятностной модели метода можно рассматривать любой  набор символов, исходя из особенностей решаемой задачи. Более [[эвристика|эвристические]] подходы, использующие основную схему метода арифметического кодирования, применяют ''[[контекстное моделирование| динамических или адаптивных моделей]]''. Идея данных методов заключается в уточнении вероятности кодируемого символа, за счет учёта вероятности предшествующего или будущего контекста (т.е. вероятность появления кодируемого символа после определённого k-го числа символов слева или справа, где k - это порядок контекста).
    
=== Кодирование сообщения ===
 
=== Кодирование сообщения ===
Анонимный участник

Реклама:

Навигация