![]() | |
НПО Системы Безопасности (499)340-94-73 График работы: ПН-ПТ: 10:00-19:00 СБ-ВС: выходной ![]() ![]() |
Главная » Периодика » Безопасность 0 ... 119120121122123124125 ... 262 требует знания распределения весов кода. Распределения весов для многих кодов даны во многих изданиях по теории кодирования, например, Берлекэмпа (1968) и МакВильямса и Слоэна (1977). Некоторую свободную (неплотную) границу можно получить, заметив, что <2(л/2П) 2(л/2уЖГ) < ехр(-у,ЛА J • (8.1.51) Следовательно, Р<{М- 1)е(7адД~) < ехр(- у,/?Аь +к\п2). (8.1.52) Эта граница особенно полезна, поскольку она не требует знания распределения весов кода. Если верхнюю границу в (8.1.52.) сравнить с характеристикой качества двоичных систем ФМ без кодирования, которые ограничены сверху как 2ехр(-у,,), находим, что кодирование даёт выигрыш примерно на 101g(/?A,„ - A:ln2/Yj) дБ .Мы можем это назвать выигрыш от кодирования. Заметим, что величина выигрыша зависит от параметров кода, а также от ОСШ на бит . Выражение для вероятности ошибки ансамбля сигналов с одинаковой взаимной корреляцией любой пары, что выполняется для симплексной системы сигналов, описанной в разделе 5.2, позволяет получить третью аппроксимацию для вероятности ошибки передаваемых сигналов. Мы знаем, что максимальное значение коэффициента взаимной корреляции между парой кодируемых сигналов равно Р™х = 1-™п- (8.1.53) Если предположить (в наихудшем случае), что все М кодовых слов имеют коэффициент взаимной корреляции, равный р, то вероятность ошибки кодового слова можно легко вычислить. Поскольку некоторые кодовые слова разделены больше, чем на минимальное расстояние, вероятность ошибки, вычисляемая при = р, имеет фактически верхнюю границу. Таким образом, Границы качества для линейных блоковых кодов, данные выше, даны для вероятности ошибки блока или вероятности ошибки кодового слова. Получить оценку эквивалентной вероятности ошибки на бит /J, существенно более сложно. В общем, если произошла ошибка в блоке, некоторые из к информационных бит в блоке будут приняты без ошибки, а некоторые останутся с ошибкой. Для ортогональных сигналов множитель конверсии, на который надо умножить , чтобы получить Р, равен 2*"/(2*-l). Этот множитель равен единице для к = \ и приближается к 2 по мере увеличения к, что эквивалентно предположению, что, в среднем, половина от к информационных бит будут с ошибкой, когда произошла ошибка в блоке. Множитель конверсии для кодированных сигналов зависит сложным образом от дистанционных характеристик кода, но он, конечно, не хуже, чем в предположении, что, в среднем, половина из к информационных бита будут с ошибкой, если произошла ошибка в блоке. Следовательно, Р<\Р. Границы качества, даваемые (8.1.50), (8.1.52) и (8.1.54), также годятся для случая, когда пара двоичных символов кодового слова передаётся четверичной ФМ, поскольку четверичную ФМ можно рассматривать как эквивалент двух независимых двоичных сигналов ФМ, переданных в квадратуре. Более того, границы (8.1.52) и (8.1.54), которые зависят только от минимального расстояния кода, приемлемы также к нелинейным двоичным кодам. Если для передачи каждого символа кодового слова через канал с АБГШ используется двоичная ортогональная ЧМ, оптимальный приёмник можно реализовать посредством двух согласованных фильтров, один согласованный с частотой, соответствующей передаче О, а другой согласованный с частотой, соответствующей передаче 1. За ними следует декодер, который формирует М корреляционных метрик, соответствующих М возможным кодовым словам. В любом случае, пусть rj и г, - отсчёты на входе устройство сложения Корреляционные метрики, сформированные декодером, можно выразить так QK=i:[v„+(i-K где представляет j-vi символ в /-м кодовом слове. Кодовое слово, соответствующее наибольшому из (СЦ }, выбирается в качестве переданного кодового слова. Если осуществляется когерентное детектирование сигналов двоичной ЧМ, случайные величины [rj] и [г,) являются гауссовскими и, следовательно, корреляционные метрики {ОЦ} также гауссовские. В этом случае границы для качества кода легко найти. Для конкретности, предположим, что передается кодовое слово С,, состоящее из одних нулей. Тогда /-1,2,...,М, (8.1.55) 7 = 1,2,...,й, (8.1.56) где {Иу}, / = 0,1, j - 1, 2,и-взаимно статистически независимые гауссовские случайные величины с нулевым средним и дисперсией \М. Следовательно, СМ, является гауссовской величиной со средним д/и и дисперсией \N. С другой стороны, корреляционная метрика СЛ/, соответствующая кодовому слову с весом w, является гауссовской случайной величиной со средним y[n(].-w/n) и дисперсией iwMj. Поскольку величины {СМ) коррелированны, мы снова обращаемся к объединенной границе. Коэффициенты корреляции определяются так: Р = \ wjn. (8.1.57) Следовательно, вероятность того, что СЛ/„, > CM, равна Рг.т) = а[4уЛ)- (8.1.58) Сравнение этого результата с тем, который дается (8.1.49) для когерентной ФМ показывает, что когерентная ФМ требует на 3 дБ меньше ОСШ для достижения того же качества. Это не удивительно с учетом того факта, что некодированная двоичная ФМ на 3 дБ лучше, чем двоичная ортогональная ЧМ при когерентном детектировании. Таким образом, преимущество ФМ относительно ЧМ сохраняется для кодированных сигналов. Затем мы заключаем, что границы, данные (8.1.50), (8.1.52), (8.1.54), приемлемы для кодированных сигналов, передаваемых посредством двоичной ортогональной когерентной ЧМ, если Уь заменить на у. Если в приёмнике используется квадратичное детектирование двоичных ортогональных ЧМ сигналов, качество дополнительно ухудшается за счёт потерь при некогерентном сложении, как будет указано в гл. 12. Предположим снова, что передаётся кодовое слово из одних нулей. Тогда корреляционные метрики определяются (8.1.55), где величины на входе декодера теперь равны 7 = 1, 2, (8.1.59) где [Nqj] и [Nij] представляют комплексные статистически взаимно независимые гауссовские случайные величины с нулевыми средними и дисперсией . Корреляционная метрика СМ, равна (8.1.60) в то время как корреляционные метрики, соответструющие кодовым словам с весом , статистически эквивалентны корреляционным метрикам кодовых слов, в которьпс = 1 для 1 < 7 < vf и с = О для +1 < jn. Таким образом, СА/,, можно выразить так j=l ]=м>,*\ Разность между СМ, и СМ равна (8.1.61) (8.1.62) а вероятность ошибки равна вероятности того, что СМ, - СМ < О. Но эта разность является частным случаем общей квадратичной формы комплексных гауссовских случайных величин, рассматриваемых в гл. 12 и в приложении В. Выражение для вероятности ошибки при различении СМ, и одного из сигналов СМ имеет вид (см. раздел 12.1.1): = :;1;М-гУьКЖк(2УьК.). («л.бз) где, по определению. Ki - 2 [ „ (8.1.64) Объединённая граница, получаемая путём суммирования PjC") 2<т<М, даёт нам верхнюю границу для вероятности ошибочного декодирования кодового слова. Как альтернативу, мы можем использовать минимальное расстояние вместо распределения весов, и получить менее плотную верхнюю границу Рм М-гУьКп) S К,(ЬьКп.) (8.1.65) Меру потерь из-за некогерентного сложения, при квадратичном детектировании и сложении п элементарных двоичных сигналов в кодовом слове, можно получить из рис. 12.1.1, если используется вместо L. Полученные потери соответствуют случаю, когда п элементарных двоичных ФМ сигналов сначала детектируются когерентно и складываются согласно (8.1.55), а затем суммы подвергаются квадратичному детектированию или детектируется огибающая для того, чтобы получить М величин для решения. Вероятность ошибки при двоичном различении для последнего случая равна P2(/«) = exp(-iY,,HJ, (8.1.66) 0 ... 119120121122123124125 ... 262 |