Caractéristique d’un canal d’information qui peut donner à cette dernière deux ou plusieurs sens. En théorie de l’information, l’équivoque d’un canal correspond à la moyenne de l’entropie de la source vue de l’extrémité et étendue à tous les symboles reçus. « La transinformation mesure en quelque sorte la quantité d’informations effectivement transmise par un canal bruyant ; elle est maximale et égale à H(A) [l’entropie de la source] lorsque l’équivoque est nulle, c’est-à-dire lorsqu’il n’y a pas de bruit », explique Jean Hebenstreit.
Contenus sur le même sujet