Disuguaglianza di Fano

Nella teoria dell'informazione, la Disuguaglianza di Fano mette in relazione l'equivocazione di un canale rumoroso con la probabilità d'errore nella decodifica di un simbolo ricevuto. È stata scoperta e dimostrata dallo scienziato Robert Fano.

Disuguaglianza di Fano

Se le variabili aleatorie X = x i {\displaystyle X=x_{i}} e Y = y j {\displaystyle Y=y_{j}} rappresentano i simboli (estratti da un alfabeto di M possibili simboli) in ingresso ed in uscita ad un canale rumoroso ed hanno una densità di probabilità congiunta P ( x , y ) {\displaystyle P(x,y)} , il canale è affetto da una probabilità di errore

P ( e ) = i = 0 M 1 j i P ( y j , x i ) {\displaystyle P(e)=\sum _{i=0}^{M-1}\sum _{j\not =i}P(y_{j},x_{i})}

e la disuguaglianza di Fano si esprime allora come

H ( X | Y ) H ( e ) + P ( e ) log ( M 1 ) , {\displaystyle H(X|Y)\leq H(e)+P(e)\log(M-1),}

in cui

H ( X | Y ) = i , j P ( x i , y j ) log P ( x i | y j ) {\displaystyle H\left(X|Y\right)=-\sum _{i,j}P(x_{i},y_{j})\log P\left(x_{i}|y_{j}\right)}

è l'entropia condizionata, detta equivocazione in quanto rappresenta la quantità d'informazione media persa nel canale; e

H ( e ) = P ( e ) log P ( e ) ( 1 P ( e ) ) log ( 1 P ( e ) ) {\displaystyle H\left(e\right)=-P(e)\log P(e)-(1-P(e))\log(1-P(e))}

è l'entropia binaria corrispondente ad una sorgente binaria stazionaria e senza memoria che emette il simbolo 1 con probabilità P ( e ) {\displaystyle P(e)} ed il simbolo 0 con probabilità 1 P ( e ) {\displaystyle 1-P(e)} .

La disuguaglianza di Fano fornisce quindi un limite inferiore alla probabilità d'errore; si mostra infatti che se l'entropia di X eccede la capacità del canale è impossibile che l'informazione trasmessa attraverso il canale sia ricevuta con probabilità d'errore arbitrariamente piccola.

Dimostrazione

Siano X {\displaystyle X} e Y {\displaystyle Y} due variabili casuali e X ~ = f ( Y ) {\displaystyle {\tilde {X}}=f(Y)} un estimatore di X {\displaystyle X} ottenuto dall'osservazione di Y {\displaystyle Y} . Sia P ( e ) = P [ X X ~ ] {\displaystyle P(e)=P[X\neq {\tilde {X}}]} la probabilità di errore.

Si consideri la variabile casuale binaria E {\displaystyle E} tale che:

E = { 1 se  X X ~ 0 se  X = X ~ {\displaystyle E={\begin{cases}1&{\mbox{se }}X\neq {\tilde {X}}\\0&{\mbox{se }}X={\tilde {X}}\end{cases}}}

che ha quindi una distribuzione del tipo p E = ( 1 P ( e ) , P ( e ) ) {\displaystyle p_{E}=(1-P(e),P(e))} .

Si consideri ora l'entropia:

H ( X , E | Y ) = H ( X | Y ) + H ( E | X , Y ) = H ( E | Y ) + H ( X | E , Y ) {\displaystyle H(X,E|Y)=H(X|Y)+H(E|X,Y)=H(E|Y)+H(X|E,Y)}

E {\displaystyle E} è funzione di X {\displaystyle X} e X ~ {\displaystyle {\tilde {X}}} e di conseguenza di X {\displaystyle X} e Y {\displaystyle Y} , da cui H ( E | X , Y ) = 0 {\displaystyle H(E|X,Y)=0} .
Si ottiene quindi

H ( X | Y ) = H ( E | Y ) + H ( X | E , Y ) H ( e ) + H ( X | E , Y )          (1) {\displaystyle H(X|Y)=H(E|Y)+H(X|E,Y)\leq H(e)+H(X|E,Y)\ \ \ \ {\mbox{ (1)}}}

sfruttando la disuguaglianza H ( E | Y ) H ( E ) = H ( e ) {\displaystyle H(E|Y)\leq H(E)=H(e)} .

A questo punto è possibile riscrivere H ( X | E , Y ) {\displaystyle H(X|E,Y)} come segue:

H ( X | E , Y ) = p E ( 0 ) H ( X | Y , E = 0 ) + p E ( 1 ) H ( X | Y , E = 1 )          (2) {\displaystyle H(X|E,Y)=p_{E}(0)H(X|Y,E=0)+p_{E}(1)H(X|Y,E=1)\ \ \ \ {\mbox{ (2)}}}

per il quale il primo termine del membro di destra si annulla perché dato E = 0 {\displaystyle E=0} l'incertezza sulla conoscenza di X {\displaystyle X} è nulla, mentre per il secondo, sapendo a priori di avere un errore, vale la disuguaglianza

H ( X | Y , E = 1 ) log ( | X | 1 ) {\displaystyle H(X|Y,E=1)\leq \log(|{\mathcal {X}}|-1)}

dove | X | {\displaystyle |{\mathcal {X}}|} è il numero di valori possibili che la variabile X {\displaystyle X} può assumere. Sostituendo (2) {\displaystyle {\mbox{(2)}}} in (1) {\displaystyle {\mbox{(1)}}} si ottiene:

H ( X | Y ) H ( e ) + p ( e ) log ( | X | 1 ) {\displaystyle H(X|Y)\leq H(e)+p(e)\log(|{\mathcal {X}}|-1)}

dimostrando quindi l'asserto.

Bibliografia

  • R. Fano, Transmission of information; a statistical theory of communications. Cambridge, Mass., M.I.T. Press, 1961.

Voci correlate

  Portale Ingegneria: accedi alle voci di Wikipedia che trattano di ingegneria