Июнь 18th, 2013
Теорема 3.6 справедлива для сверточных кодов без каких-либо изменений.Теорема 3.7 для сверточных кодов не верна. При построении таблицы декодирования для сверточного кода следовало бы стремиться к тому, чтобы полученный набор длины п был набором наименьшего веса в соответствующем правильном подмножестве. Однако в силу того, что наборы длины п в каждом смежном классе определяются выбором кодовых слов и образующего, не все элементы наименьшего веса каждого смежного класса будут включены в правильное подмножество. Вообще образующий смежного класса должен выбираться так, чтобы общая вероятность всех наборов длины п, принадлежащих правильному подмножеству, была бы наибольшей из возможных. Этот результат не кажется, однако, особенно глубоким и не используется при реальном декодировании.3.5. Поэтапное декодирование для блоковых кодовПредположим, что для каждого полученного вектора можно определить вес минимального по весу элемента в его смежном классе. Это было бы возможно, если бы в нашем распоряжении была таблица, устанавливающая связь между синдромом и образующим смежного класса. Иногда это можно сделать, используя объем памяти, много меньший, чем объем памяти, нужный для такой таблицы синдромов. В этом случае декодирование можно производить следующим образом.Занумеруем элементы поля от 1 до о произвольным образом, но так, чтобы нулевой элемент был последним. Теперь упорядочим векторы лексикографически, т. е. так, что (ь …, bn) следует за (аи…, ап), если bj следует за а3- в упорядоченном расположении элементов поля, и -е место — первое, в котором эти два вектора отличны друг от друга.