AnalyseL’auteur propose de redéfinir le décodage pondéré d’un code redondant comme consistant à réévaluer une distribution de probabilité donnée a priori, pour tenir compte des contraintes du codage. La solution optimale du problème ainsi posé s’obtient par application du principe « d’écart entropique minimal» et on montre qu’elle coincide avec le calcul des probabilités à comparer pour effectuer le décodage à vraisemblance maximale quand la distribution a priori est exactement connue. Le principe s’applique aussi à une distribution a priori approximative ou biaisée, ce qui explique la robustesse du décodage par rapport à la pondération. D’autre part, cette redéfinition permet d’utiliser les étapes intermédiates du décodage, dans le cas où des codes sont associés par concaténation ou produit, comme source de pondération pour les étapes ultérieures. On est amené pour simplifier à une estimation de la distribution a posteriori de forme séparable par rapport aux symboles d’information, que l’on définit et dont on examine certaines applications.AbstractWe propose to redefine weighted decoding of a redundant code as consisting of reestimating a given prior probability distribution in order to take into account the code constraints. The optimum solution of this problem results from using the « minimum cross-entropy » principle and is shown to coincide with the computation of the probabilities to be compared in order to perform maximum likelihood decoding when the prior distribution is exactly known. The principle however also holds when the prior distribution is approximate or biased, which explains the robustness of decoding with respect to weighting information. Such a redefinition also enables using the intermediate steps of decoding, in the case of codes associated by concatenation or product, as a source of weighting information for the subsequent steps. One is led for simplicity’s sake to an estimate of the posterior probability in separable form with respect to the information symbols ; its definition is given and certain of its applications are discussed.
[1]
Jack K. Wolf,et al.
Design of efficient coding and modulation for a Rayleigh fading channel
,
1978,
IEEE Trans. Inf. Theory.
[2]
Carlos R. P. Hartmann,et al.
An optimum symbol-by-symbol decoding rule for linear codes
,
1976,
IEEE Trans. Inf. Theory.
[3]
R. Johnson,et al.
Properties of cross-entropy minimization
,
1981,
IEEE Trans. Inf. Theory.
[4]
E. Jaynes.
Information Theory and Statistical Mechanics
,
1957
.
[5]
Rodney W. Johnson,et al.
Axiomatic derivation of the principle of maximum entropy and the principle of minimum cross-entropy
,
1980,
IEEE Trans. Inf. Theory.
[6]
Gérard Battail,et al.
Décodage par répliques
,
1976
.
[7]
Gérard Battail,et al.
Pondération des symboles décodés par l’algorithme de Viterbi
,
1987
.
[8]
Solomon Kullback,et al.
Information Theory and Statistics
,
1960
.