Canal de communication (théorie de l'information)

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Canal.

En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire.

La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.

Définition et enjeux

Le canal de communication dans le diagramme schématique des systèmes de communication.

On peut décomposer simplement un système de communication en trois grandes parties[S 1] : une source d'information (associée à un transmetteur), un destinataire (associé à un récepteur), et le canal de communication, qui assure la liaison entre les deux. Selon les modèles de canaux, l'information transmise peut être discrète ou continue.

Souvent, le canal est équipé d'un modèle probabiliste qui décrit le signal sortant en fonction du signal entrant. Cela correspond à des situations réelles comme la transmission d'un signal logique sur un fil ou d'un message sur l'Internet, car les canaux réels ne sont pas entièrement fiables et les erreurs ne se produisent pas de façon systématique.

L'objectif du destinataire est donc de reconstituer le message original à partir de l'information transmise par le canal, ce qui donne lieu à l'usage de codes et plus spécifiquement de codes correcteurs d'erreurs.

Canal de communication discret

Article connexe : Canal discret.

Définitions

Canal discret (Définition) — Un canal de communication est dit discret[S 2] lorsqu'il transmet une séquence de symboles s 1 . . . s n {\displaystyle s_{1}...s_{n}} n N {\displaystyle n\in N} .

L'ensemble fini S {\displaystyle S} des valeurs possibles des s i {\displaystyle s_{i}} est appelé alphabet.

Le télégraphe est un exemple de système dans lequel le canal de communication est dit discret : on transmet une suite de symboles élémentaires (code Morse). Les signaux logiques comme le binaire sont également discrets.

Débit et capacité

Article connexe : Entropie de Shannon.

Le débit d'information D {\displaystyle D} est défini en fonction du nombre de signaux N ( T ) {\displaystyle N(T)} pouvant circuler pendant une durée T {\displaystyle T} .

La capacité d'un canal de communication constitue une limitation de la quantité d'information que la source peut transmettre vers le récepteur. Elle est définie comme le maximum du débit.

Débit (Définition) — Le débit est donné par :

D = log N ( T ) T {\displaystyle D={\frac {\log N(T)}{T}}}

Capacité (Définition) — La capacité est définie par :

C = lim T + log N ( T ) T {\displaystyle C=\lim _{T\rightarrow +\infty }{\frac {\log N(T)}{T}}}

Modèle probabiliste

Canal de communication.

On considère un canal W {\displaystyle W} dont l'alphabet d'entrée est S {\displaystyle S} et l'alphabet de sortie est S {\displaystyle S'} . Cela signifie que les symboles du message émis sont des lettres de S {\displaystyle S} et que ceux du message reçu sont des lettres de S {\displaystyle S'} . Le canal est défini par une loi de probabilité décrivant la probabilité de la sortie en fonction de l'entrée.

Supposons que l'on envoie un symbole s S {\displaystyle s\in S} dans le canal ; la probabilité que le symbole sortant soit s S {\displaystyle s'\in S'} est notée W ( s | s ) {\displaystyle W(s'|s)} . Si les deux alphabets sont identiques, la probabilité que le symbole soit transmis de façon fidèle est W ( s | s ) {\displaystyle W(s|s)} .

Dans le cas général, on modélise le symbole transmis par une variable aléatoire X {\displaystyle X} de loi P ( X = s i ) = p i {\displaystyle P(X=s_{i})=p_{i}} (avec S p i = 1 {\textstyle \sum _{S}p_{i}=1} ). Différents choix existent pour cette loi, notamment :

  • La loi uniforme : p i = 1 | S | {\displaystyle p_{i}={\frac {1}{|S|}}}
  • Lorsque le message transmis est un mot w S {\displaystyle w\in S^{*}} , une définition naturelle est p i = | w | s i | w | {\displaystyle p_{i}={\frac {|w|_{s_{i}}}{|w|}}}  : la proportion d'apparition de la lettre s i {\displaystyle s_{i}} dans w {\displaystyle w} .

Dans cette situation, le symbole en sortie du canal est aussi une variable aléatoire, Y {\displaystyle Y} , dont la loi dépend de celle de X {\displaystyle X}  :

P ( Y = s ) = s S P ( X = s ) × W ( s | s ) {\displaystyle P(Y=s')=\sum _{s\in S}P(X=s)\times W(s'|s)}

On retrouve alors la capacité du canal en observant l'information mutuelle I ( X ; Y ) {\displaystyle I(X;Y)} entre l'entrée et la sortie. L'information mutuelle représente informellement la quantité d'information de X {\displaystyle X} qui a été préservée par le passage dans le canal. La capacité du canal de communication est alors définie par :

C = sup p X I ( X ; Y ) {\displaystyle C=\sup _{p_{X}}I(X;Y)}

La borne supérieure porte sur la distribution de probabilité de X {\displaystyle X} . Pour exploiter toute la capacité du canal, il faut donc choisir judicieusement les symboles que l'on y envoie, car tous ne sont pas traités également.

Principaux types

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Canaux parallèles

Lorsque W {\displaystyle W} est un canal d'entrée S {\displaystyle S} et de sortie S {\displaystyle S'} , on définit pour tout n 1 {\displaystyle n\geq 1} le canal W × n {\displaystyle W^{\times n}} qui représente n {\displaystyle n} copies indépendantes et parallèles de W {\displaystyle W} . Il prend son entrée dans S n {\displaystyle S^{n}} et produit une sortie dans S n {\displaystyle S'^{n}} selon la distribution de probabilité :

W × n ( y 1 y n | x 1 x n ) = W ( y 1 | x 1 ) × × W ( y n | x n ) {\displaystyle W^{\times n}(y_{1}\dots y_{n}|x_{1}\dots x_{n})=W(y_{1}|x_{1})\times \dots \times W(y_{n}|x_{n})}

Canal de communication continu

Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la bienvenue ! Comment faire ?

Mesure de la performance d'un canal

Lorsqu'on veut transmettre par un canal un message m { 1 M } {\displaystyle m\in \{1\dots M\}} parmi M {\displaystyle M} messages possibles, on choisit un code représenté par deux fonctions :

  • Un encodeur E : { 1 M } S {\displaystyle E:\{1\dots M\}\to S}
  • Un décodeur D : S { 1 M } {\displaystyle D:S'\to \{1\dots M\}}

Le message est transmis par le canal puis réinterprété à l'aide du décodeur pour donner une estimation m ^ {\displaystyle {\hat {m}}} du message original. Plusieurs mesures peuvent être utilisées pour interpréter la performance du canal, notamment :

  • La probabilité d'erreur P e r r = P ( m ^ m ) {\displaystyle P_{err}=\mathbb {P} ({\hat {m}}\neq m)} . Dans le cas d'un canal discret (et en supposant que m {\displaystyle m} est tiré uniformément), cette probabilité s'exprime par :

    P e r r = 1 1 M m = 1 M s S W ( s | E ( m ) ) 1 { D ( s ) = m } {\displaystyle P_{err}=1-{\frac {1}{M}}\sum _{m=1}^{M}\sum _{s'\in S}W(s'|E(m))\mathbf {1} _{\{D(s')=m\}}}

  • La probabilité d'erreur maximale, qui représente le pire cas pour la transmission :

    P e r r , m a x = max m 0 { 1 M } P ( m ^ m 0 | m = m 0 ) {\displaystyle P_{err,max}=\max _{m_{0}\in \{1\dots M\}}\mathbb {P} ({\hat {m}}\neq m_{0}|m=m_{0})}

Il y a un compromis naturel entre le nombre M {\displaystyle M} de messages différents transmis et la probabilité d'erreur de transmission P e r r {\displaystyle P_{err}} . On s'intéresse souvent au meilleur M {\displaystyle M} que l'on peut obtenir pour une certaine valeur maximale de P e r r > 0 {\displaystyle P_{err}>0} , noté M o p t ( W , P e r r ) {\displaystyle M_{opt}(W,P_{err})} .

La valeur particulière M o p t ( W , 0 ) {\displaystyle M_{opt}(W,0)} est appelée capacité à zéro-erreur de W {\displaystyle W} et est définie en faisant tendre P e r r > 0 {\displaystyle P_{err}>0} vers la limite :

C 0 ( W ) = M o p t ( W , 0 ) = lim ϵ 0 ( lim n 1 n log M o p t ( W × n , ϵ ) ) {\displaystyle C_{0}(W)=M_{opt}(W,0)=\lim _{\epsilon \to 0}\left(\lim _{n\to \infty }{\frac {1}{n}}\log M_{opt}(W^{\times n},\epsilon )\right)}

Notes et références

Références

  • C. E. Shannon, A mathematical theory of communication (œuvre écrite), Inconnu, Short Hills (d), , [lire en ligne].Voir et modifier les données sur Wikidata
  1. p. 381
  2. p. 382

Notes

Voir aussi

Articles connexes

  • icône décorative Portail des télécommunications
  • icône décorative Portail des mathématiques
  • icône décorative Portail de l'informatique théorique