![]() | |
НПО Системы Безопасности (499)340-94-73 График работы: ПН-ПТ: 10:00-19:00 СБ-ВС: выходной ![]() ![]() |
Главная » Периодика » Безопасность 0 ... 35363738394041 ... 262 3.6. БИБЛИОГРАФИЧЕСКИЕ ЗАМЕЧАНИЯ И ССЫЛКИ Кодирование источника является областью интенсивной исследовательской деятельности, начиная с публикаций классических статей Шеннона в 1948 г. и статьи Хаффмена (1952). С годами были получены важные достижения в разработке высокоэффективных алгоритмов сжатия данных источника. В частности, значительными являются научные исследования универсальных кодеров источника и универсальных квантователей, опубликованные Зивом (1985), Зивом и Лемпелом (1977, 1978), Дависсоном (1973), Греем (1975), Дависоном и др. (1981). Разработки по теории функций скорость-искажение имеются в книгах Галлагера (1968), Бергера (1971), Витерби и Омура (1979), Блейхута (1987) и Грея (1990). Много работ было выполнено за несколько последних десятилетий по методам кодирования речи. Мы дали здесь обзор этих важных тем. Более исчерпывающая разработка дана в книгах Рабинера и Шафера (1978), Джайанта и Ноля (1984), Деллера и др.(1993). В дополнение к этим публикациям имеются специальные исследования в журнале ШЕЕ Transactions on Communications (апрель 1979 и апрель 1982) и более новые в IEEE Journal on Selected Ereas in Communication (февраль 1988), посвященные кодированию речи. Мы хотим также упомянуть публикацию в IEEE Press книги, содержащей репринты опубликованных статей по кодированию и квантованию сигналов, отредактированные Джайантом (1976). В последнем десятилетии мы также увидели ряд важных достижений в области векторного квантования. Наша разработка этой темы основывалась на доходчивой работе Макхоула и др.(1985). Всесторонняя разработка по векторному квантованию и сжатию сигналов имеется в книге Гершо и Грея (1992). ЗАДАЧИ 3.1. Рассмотрим совместный эксперимент из задачи 2.1 с заданной совместной вероятностью р[А,В]. Допустим, мы наблюдаем выходы А,, i = 1, 2, 3, 4 , эксперименте. a. Определите взаимную информацию для 71,2,3 и/ = 1, 2, 3, 4 в битах. b. Определите среднюю взаимную информацию /(S; Л). . . ,> • 3.2. Предположим, что выходы Bj, J= 1,2,3, в задаче 3.1 представляют три возможных выходных слова ДИБП. Определите энтропию источника. 3.3. Докажите, что ln/i<«-l и продемонстрируйте законность этого неравенства, построив кривые Inn и /7-1. 3.4. x н у являются двумя дискретными случайными величинами с вероятностями р{х = х,у = у) = р(х,у). Покажите, что 1х,у)>0, причем равенство имеет место тогда, и только тогда, когда Ли У статистически независимы. [Подсказка: используйте неравенство Inw < и -1 для О < w < 1, чтобы доказать, что - 1(х,у) О.] 3.5. Выход ДИБП состоит из возможных символов л:,,д:2,...,лс„ .которые появляются с вероятностями р,,Р2. Р,, соответственно Докажите, что энтропия Н[х) источника не превышает log п. , , 3.6. Определите дифференциальную энтропию h[x) равномерно распределённой случайной величины x а~ (0<л;<я), , ., ,.....,. . О (вне этого интервала) для следующих трёх случаев: а) а-1; Ь)а-4; с)а=1/4. с ФПВ р(х) = Обратите внимание, что из расчётов следует, что lXj является не абсолютной, а только относительной мерой неопределённости. 3.7. ДИБП имеет алфавит из восьми символов л:,, /= 1, 2,...,8, с вероятностями 0,25; 0,2; 0,15; 0,!2; 0,10; 0,08; 0,05 и 0,05. a) Используйте процедуру кодирования Хаффмена, чтобы определить двоичный код дпя выхода источника. b) Определите среднее число R двоичных символов на символ источника. c) Определите энтропию источника и сравните с R . 3.8. ДИБП источника имеет алфавит из пяти символов у,, / = 1, 2,...,5, каждый из которых появляется с вероятностью 1/5 . Вычислите эффективность равномерного двоичного кода, если: a) КаждьнЧ символ кодируется отдельно в двоичную последовательность. b) Два символа вместе кодируются в двоичную последовательность. c) Три символа вместе кодируются в двоичную последовательность. 3.9. Напомним (3.2.6) {x,\yj)=l{x,) l[x,\yj). Докажите, что a) l{x-yj) = l{yj)-l(yj\x,); b) l(x,;yj)-/(x,) + j{yj)-/(x„yj),rno l{xr,y,) = -logP{x,.y,). 3.10. Пусть X - геометрически распределённая случайная величина, т.е. р{Х = к) - p{l- р)~\ А = 1,2,3... a) Найдите энтропию X. b) Известно, что Х>К, где К - заданное целое положительное число. Чему равна энтропия Х7 3.11. Пусть Jtи / обозначают две совместно распределённые дискретные случайные величины. a) Покажите, что H{X)=-Yp{x,yYogP{x), H{y) = -Y,P[y)iogP{y). b) Используйте полученный выше результат, чтобы показать, что H[X,Y) < Н[Х] + И{У). Когда наступает равенство? c) Покажите, что и что равенство имеет место тогда, и только тогда, когда X и У независимы. 3.12. Две двоичные случайные величины X и У распределены согласно совместным вероятностям Р{Х=У=0) Р{Х = О, К - 1) = Р{Х = К = 1) = 1/3. Вычислите Н{Х), Я(У), н[х\У), я[у\х) и Н{Х, У). 3.13. Дан марковский процесс с одношаговой памятью, т.е. такой процесс, что p{x,jX„ ,x„ 2,Jc„ 3,...j = p(jf„.if„ i) для всех п. Покажите, что дяя стационарного марковского процесса энтропийная скорость определяется через HX„\X„ jj. 3.14. Пусть У = g[X), где g обозначает детерминированную функцию. Покажите, что в общем Н[У) < И[Х). Когда наступает равенство? 3.15. Покажите, что 1{Х; У) = 1{х) + 1{У) - 1{ХУ). 3.16. Покажите, что для статистически независимых событий H(Xx,X„...,X„) = Y.y 3.17. Покажите, что в канале без шумов (Л]/) = О. 3.18. Покажите, что 1[х;Х2\Х) = H[xJiXi)-Н[Х\ХХ2) и что н{х,\Хх)>н{х,\х,Х2). 3.19. Пусть является случайной величиной с ФПВ р{х) и пусть у = аХ+Ь - линейное преобразование Л, где анЬ- две константы. Определите дифференциальную энтропию /?(/) через . 3.20. Выходы x,x\x от ДИБП с вероятностями = 0,45, р-О,?) и Рз=0,2 преобразуются линейным преобразованием У = аХ + Ь,гл.& а и b - константы. Определите энтропию H{Y) и поясните влияние преобразования на энтропию сигнала. 3.21. Оптимальный четырёхуровневый неравномерный квантователь для сигнала с гауссовским распределением амплитуд выдаёт четыре уровня я,, 2 > <з ч <4 вероятностями Р\= Pi- 0,3365 и Рз = р4 =0,1635. a) Определите код Хаффмена, который кодирует отдельные уровни, и определите среднюю битовую скорость. b) Определите код Хаффмена, который кодирует два выходных уровня вместе, и определите среднюю битовую скорость. c) Какую минимальную битовую скорость можно получить, кодируя J выходных уровней, когда со . 3.22. Марковский источник первого порядка характеризуется вероятностями состояния р(х,), / = 1, 2, Z, и переходными вероятностями к = \,2, ...,L и k*i. Энтропия марковского источника Н{х) = У, , где (jtlA:) - энтропия источника при условии, что он находится в состоянии . Определите энтропию двоичного источника первого порядка, показанного на рис. 3.22, который имеет переходные вероятности Р{х2\х) = 0,2 и f(jc,x2) - 0,3 [заметим, что условные энтропии Н[Х\Х) и Н[Х\Хт) определяются двоичными энтропийными функциями Н р(х2Ху) и Н pfxXj) соответственно]. Как соотносится энтропия марковского источника с энтропией двоичного ДИБП с теми же вероятностями выходных символов и Р{Х2) ? 1-Р(д>,) ![]() 3.23. Источник без памяти имеет алфавит /4 = - 5, - 3, - I, О, 1, 3, 5 с соответствующими вероятностями 0,05; 0,1; 0,1; 0.15; 0,05; 0,25; 0,3 . a) Найдите энтропию источника. b) Предположив, что источник квантуется согласно правилу квантования (-5)=<7(-3)=4, <7(-1) = ф)-(1) = 0, 9(3) = ?(5)=4, найдите энтропию квантованного источника. 3.24. Постройте троичный код Хаффмена, использующий выходные символы О, 1 и 2 при кодировании источника с вероятностями выходных символов алфавита {0,05; 0,1; 0,15; 0,17; 0,18; 0Д2; 0,13} . Какова результирующая средняя длина кодового слова? Сравните среднюю длину кодового слова с энтропией источника. (С каким основанием будете вычислять логарифмы в выражении для энтропии для полностью осмысленного сравнения?). 0 ... 35363738394041 ... 262 |