Здравсвуйте!
Перед тем, как задать вопрос, немного теории из книги "Digital communications" by Bernard Sklar, потому что вопрос несколько связан с цифровыми коммуникациями.
В общем, допустим, существует коммуникационная система, где набор сигналов, передаваемых по каналу связи составляют
. Пускай, допустим, логическому нулю соответсвует значение напряжения -1В, а логической единице напряжение +1В.
В канале действует аддитивный белый гаусовский шум. Вероятность того, какой сигнал принят (логический нуль или логическая единица) обычно определяется по графикам функций правдоподобия для нуля и единицы, которые выглядят следующим образом:
- среднеквадратическое отклонение белого шума.
Где х - уровень принятого сигнала. Подставляя в формулу х, определяем условные вероятности принятого сигнала. Условная вероятность которого сигнала больше, соответственно тот сигнал декодер и выдаёт на своём выходе.
Это, как бы является основой для принятия декодером решений, какой же сигнал всё-таки он получил.
Однако есть в теории цифровых коммуникаций такой алгоритм, как MAP (maximum a posteriori)
Суть его заключается в следующем:
при
принимается решение, что принята 1,
при
принимается решение, что принят 0.
И используетя так же теорема Байеса:
и
- функция распределения вероятностей принимаемого сигнала х (с шумом)
- апостериорная вероятность
- априорная вероятность
- функция распределения вероятностей принятого сигнала х, дающая тестовую статистику в пространстве сигналов 0 и 1.
Учитывая теорему Байеса и алгоритм MAP можно записать:
при
принимается решение, что принята 1
при
принимается решение, что принят 0
или
принимается решение, что принята 1
принимается решение, что принят 0
Если взять натуральный логарифм, то мы получим полезную метрику, называемую LLR(log-liklyhood ratio):
Или же в конечном итоге можно записать:
где
- LLR тестовой статистики х, получаемой путём измерений х на выходе канала при чередовании условий, что может быть передан d=+1 или d=-1.
- априорное LLR бита данных d.
Для систематических корректирующих кодов доказано, что LLR на выходе декодера равно:
Тут
- это LLR, полученное из демодулятора, т.е. значение, получаемое из знания априорной вероятности битов и условной вероятности.
- называется внешним LLR и представляющую внешнюю информацию, вытекающего из декодирования. Она вытекает из того, что в полезное сообщение добавляются добавочные биты, способные дать нам дополнительные знания о том, насколько верно принята последовательность данных.
Как результат,
при положительном значенни говорит нам, что получена логическая единица, при отрицательном - логический нуль.
При вычислении внешней информации используется LLR алгебра:
Знак
представляет LLR сложение, а знак
представляет сложение по модулю 2.
Привожу ниже доказательсво этого выражения (это важно для сути вопроса):
отсюда:
Решая относительно P(d=+1), получаем:
и
Ну и подставляя в это выражение
и
Получаем
А теперь, как это всё получается практически (и там то и возникнет самый главный вопрос, который касается большей частью математики и ради которой я создал эту тему):
Пускай передаются данные, представленные в таблице:
Тут
это полезные данные, а
- это проверочные биты, полученные путём сложения полезных данных по формуле, как показано ниже:
Данные передаются в такой последовательности:
и соответственно переданная последовательность будет выглядеть:
Если информационные биты выразить через значения биполярного электрического напряжения +1 и -1, соответствующие логическим двоичным уровням 1 и 0, то представленная последовательность будет следующей:
На входе приёмника повреждённые шумом биты обозначим последовательностью
где
для каждого принятого бита данных,
для каждого полученного проверочного бита, а n представляет собой распределение помех, которое статистически независимо для
и
Предположим, что вследствии воздействия помех, на вход приёмника приходит последовательность:
или другими словами мы принятую последовательность можем записать:
найдём по формуле(здесь
в обозначении
является общим временным индексом k=1,2,3,4,5,6,7,8):
И делая допущение, что
Вычисленные значения
для каждого из принятых бит данных запишем в таблицу:
По сути, на основе этих данных в таблице, мы могли бы определить значения принятых бит, но мы можем увидеть, что в таком случае мы сделаем две ошибки в вычислении принятых битов. Шум настолько исказил данные, что декодер просто допустит ошибки в вычислении значений бит.
Однако, мы можем вычислить внешний LLR пользуясь тем, что мы вводили проверочные биты p. И используя внешний LLR уточнять LLR данных в общем.
Делаем это мы следующим образом(например, для
):
Выражение
является нашим внешним LLR, вычисленным из знания значения проверочного бита по горизонтали. То же самое можно сделать и по вертикали:
В общем случае, уточнённое значение бита полезных данных будет выражаться как:
где
- внешний LLR, полученный путём горизонтального декодирования
а
- внешний LLR, полученный путём вертикального декодирования.
Сделаем необходимые вычисления, учитывая, что
для первого прохода будет равен нулю, так как мы предполагаем, что от источника вероятность появления 0 и 1 равны:
Теперь то же самое декодирование делаем по вертикали, с той лишь разницей, что мы уже имеем уточнённые LLR
из горизонтального декодирования:
Теперь, используя формулу
и значения внишних LLR при горизонтальном и вертикальном деокдировании для соответствующих битов, мы можем найти уточнённые значения полученных данных и записать их в таблицу:
Как мы видим, внешние LLR сыграли хорошую роль в том, чтобы уточнить LLR полезных данных.
А теперь вопрос, который у меня возник при всех этих вычислениях.
При выводе формулы
Мы использовали, как бы это правильно сказать, дискретное значение вероятности. Т.е., мы знали, что если у нас есть значение
, то мы можем найти значение
Но при вычислениях внешних LLR, используя логарифмическое сложение со знаком
мы применяли это по отношению к условным значениям вероятностей
или
. Вот у меня и зародился вопрос - а насколько это справедливо? Можно ли применять формулу, которая была выведена на основе неусловных вероятностей к функции распределения вероятностей. Может ли такое быть, что
?
Собственно, в этом и вопрос. Извиняюсь, конечно, что пришлось выложить столько теории, но это для того, чтобы вопрос был более понятным.
-- Чт янв 06, 2011 22:51:55 --Кстати, всех с рождеством Христовым :)