Regola di Bayes

Nessuna nota a piè di pagina
Questa voce o sezione sull'argomento statistica è priva o carente di note e riferimenti bibliografici puntuali.

Nell'ambito della teoria delle probabilità e delle sue applicazioni, la regola di Bayes collega le disparità dell'evento A 1 {\displaystyle A_{1}} all'evento A 2 {\displaystyle A_{2}} , prima e dopo il loro condizionamento all'evento B 1 {\displaystyle B_{1}} . La relazione è espressa in termini di fattore di Bayes, Λ {\displaystyle \Lambda } . La regola di Bayes è derivata ed è strettamente collegata al teorema di Bayes. La regola di Bayes può essere preferita al teorema omonimo quando è importante la probabilità relativa di due eventi (cioè le loro possibilità di manifestarsi) ma non le singole probabilità. Questo in quanto nella regola di Bayes P ( B ) {\displaystyle P(B)} è eliminata e non richiede quindi di essere calcolata (cfr. Derivazione). La regola di Bayes è correntemente utilizzata negli ambiti scientifici ed ingegneristici, in particolare per la selezione di modelli.

Sotto l'interpretazione frequenzistica della probabilità, la regola di Bayes è una relazione generale tra le disparità O ( A 1 : A 2 ) {\displaystyle O(A_{1}:A_{2})} e O ( A 1 : A 2 | B ) {\displaystyle O(A_{1}:A_{2}|B)} , per qualunque evento A 1 {\displaystyle A_{1}} , A 2 {\displaystyle A_{2}} e B {\displaystyle B} nel medesimo spazio degli eventi. In questo caso, Λ {\displaystyle \Lambda } rappresenta l'impatto del condizionamento sulle disparità degli eventi. Questa è una forma di inferenza bayesiana; la quantità O ( A 1 : A 2 ) {\displaystyle O(A_{1}:A_{2})} è detta disparità a priori, mentre O ( A 1 : A 2 | B ) {\displaystyle O(A_{1}:A_{2}|B)} è la disparità a posteriori. Per analogia con i termini di probabilità a priori ed a posteriori, la regola di Bayes può essere vista come il teorema di Bayes in termini di disparità. Per ulteriori dettagli sull'applicazione della regola di Bayes sotto l'interpretazione bayesiana di probabilità, vedi la voce selezione del modello bayesiano.

La regola

Evento singolo

Dati gli eventi A 1 {\displaystyle A_{1}} , A 2 {\displaystyle A_{2}} e B {\displaystyle B} , la regola di Bayes afferma che le disparità condizionali di A 1 : A 2 {\displaystyle A_{1}:A_{2}} dato B {\displaystyle B} sono uguali alle disparità marginali di A 1 : A 2 {\displaystyle A_{1}:A_{2}} moltiplicate per il fattore di Bayes Λ {\displaystyle \Lambda } :

O ( A 1 : A 2 | B ) = Λ ( A 1 : A 2 | B ) O ( A 1 : A 2 ) , {\displaystyle O(A_{1}:A_{2}|B)=\Lambda (A_{1}:A_{2}|B)\cdot O(A_{1}:A_{2}),}

dove

Λ ( A 1 : A 2 | B ) = P ( B | A 1 ) P ( B | A 2 ) . {\displaystyle \Lambda (A_{1}:A_{2}|B)={\frac {P(B|A_{1})}{P(B|A_{2})}}.}

Nel caso speciale in cui A 1 = A {\displaystyle A_{1}=A} e A 2 = ¬ A {\displaystyle A_{2}=\neg A} , questo può essere scritto come:

O ( A | B ) = Λ ( A | B ) O ( A ) . {\displaystyle O(A|B)=\Lambda (A|B)\cdot O(A).}

Eventi multipli

La regola di Bayes può essere condizionata su un numero arbitrario di eventi. Per due eventi B {\displaystyle B} e C {\displaystyle C} ,

O ( A 1 : A 2 | B C ) = Λ ( A 1 : A 2 | B C ) Λ ( A 1 : A 2 | B ) O ( A 1 : A 2 ) , {\displaystyle O(A_{1}:A_{2}|B\cap C)=\Lambda (A_{1}:A_{2}|B\cap C)\cdot \Lambda (A_{1}:A_{2}|B)\cdot O(A_{1}:A_{2}),}

dove

Λ ( A 1 : A 2 | B ) = P ( B | A 1 ) P ( B | A 2 ) , {\displaystyle \Lambda (A_{1}:A_{2}|B)={\frac {P(B|A_{1})}{P(B|A_{2})}},}
Λ ( A 1 : A 2 | B C ) = P ( C | A 1 B ) P ( C | A 2 B ) . {\displaystyle \Lambda (A_{1}:A_{2}|B\cap C)={\frac {P(C|A_{1}\cap B)}{P(C|A_{2}\cap B)}}.}

In questo caso, la notazione equivalente è

O ( A | B , C ) = Λ ( A | B C ) Λ ( B | A ) O ( A ) . {\displaystyle O(A|B,C)=\Lambda (A|B\cap C)\cdot \Lambda (B|A)\cdot O(A).}

Derivazione

Consideriamo due esempi del teorema di Bayes:

P ( A 1 | B ) = 1 P ( B ) P ( B | A 1 ) P ( A 1 ) , {\displaystyle P(A_{1}|B)={\frac {1}{P(B)}}\cdot P(B|A_{1})\cdot P(A_{1}),}
P ( A 2 | B ) = 1 P ( B ) P ( B | A 2 ) P ( A 2 ) . {\displaystyle P(A_{2}|B)={\frac {1}{P(B)}}\cdot P(B|A_{2})\cdot P(A_{2}).}

Combinandoli tra loro otteniamo

P ( A 1 | B ) P ( A 2 | B ) = P ( B | A 1 ) P ( B | A 2 ) P ( A 1 ) P ( A 2 ) . {\displaystyle {\frac {P(A_{1}|B)}{P(A_{2}|B)}}={\frac {P(B|A_{1})}{P(B|A_{2})}}\cdot {\frac {P(A_{1})}{P(A_{2})}}.}

Ora definiamo

O ( A 1 : A 2 | B ) P ( A 1 | B ) P ( A 2 | B ) {\displaystyle O(A_{1}:A_{2}|B)\triangleq {\frac {P(A_{1}|B)}{P(A_{2}|B)}}}
O ( A 1 : A 2 ) P ( A 1 ) P ( A 2 ) {\displaystyle O(A_{1}:A_{2})\triangleq {\frac {P(A_{1})}{P(A_{2})}}}
Λ ( A 1 : A 2 | B ) P ( B | A 1 ) P ( B | A 2 ) , {\displaystyle \Lambda (A_{1}:A_{2}|B)\triangleq {\frac {P(B|A_{1})}{P(B|A_{2})}},}

questo implica

O ( A 1 : A 2 | B ) = Λ ( A 1 : A 2 | B ) O ( A 1 : A 2 ) . {\displaystyle O(A_{1}:A_{2}|B)=\Lambda (A_{1}:A_{2}|B)\cdot O(A_{1}:A_{2}).}

Una simile derivazione è applicabile per il condizionamento su eventi multipli, usando l'appropriata estensione del teorema di Bayes

Esempio

Faremo ora un esempio di applicazione della regola di Bayes ma prima mostreremo l'esempio corrispondente per il teorema di Bayes.

Supponiamo che un test per droga abbia una sensibilità (cioè un quoziente tra il numero di veri positivi e la somma di quest'ultimo e il numero di falsi negativi) del 99% ed una specificità (cioè il quoziente tra il numero di veri negativi e la somma di quest'ultimo e il numero di falsi positivi) del 99%. Cioè il test produce il 99% di veri positivi per i fruitori di droghe e il 99% di risultati negativi per quelli che non ne fruiscono. Supponiamo che il 0.5% delle persone fruiscano di droghe. Se un individuo scelto casualmente risulta positivo al test, allora qual è la probabilità che sia un fruitore di droghe?

P ( Fruitore | + ) = P ( + | Fruitore ) P ( Fruitore ) P ( + | Fruitore ) P ( Fruitore ) + P ( + | Non Fruitore ) P ( Non Fruitore ) = 0.99 × 0.005 0.99 × 0.005 + 0.01 × 0.995 33.2 % {\displaystyle {\begin{aligned}P({\text{Fruitore}}|{\text{+}})&={\frac {P({\text{+}}|{\text{Fruitore}})P({\text{Fruitore}})}{P({\text{+}}|{\text{Fruitore}})P({\text{Fruitore}})+P({\text{+}}|{\text{Non Fruitore}})P({\text{Non Fruitore}})}}\\[8pt]&={\frac {0.99\times 0.005}{0.99\times 0.005+0.01\times 0.995}}\\[8pt]&\approx 33.2\%\end{aligned}}}

A dispetto dell'apparente accuratezza del test, se un individuo risulta positivo, allora è più probabile che non sia un fruitore di droghe piuttosto che lo sia.

Questo risultato sorprendente origina a causa dell'elevato numero di persone non fruitrici di droghe rispetto a quello delle persone che ne fruiscono, in modo tale che il numero di falsi positivi (0.995%) supera il numero di veri positivi (0.495%). Concretamente, in termini numerici, se 1000 individui sono sottoposti al test, ci si aspetta che 995 di loro siano non fruitori e 5 che lo siano. Ci si aspetta inoltre che dei 995 non fruitori, 0.01 × 995 10 {\displaystyle 0.01\times 995\approx 10} siano falsi positivi. Dei 5 fruitori ci si aspetta che 0.99 × 5 5 {\displaystyle 0.99\times 5\approx 5} siano veri positivi. Dei 15 risultati positivi del test solo 5 sono genuini ossia circa il 33%.

Gli stessi risultati possono essere ottenuti usando la regola di Bayes. Le disparità a priori che un individuo sia un fruitore di droghe sono 1 a 199, in quanto 0.5 % = 1 200 {\displaystyle \textstyle 0.5\%={\frac {1}{200}}} e 99.5 % = 199 200 {\displaystyle \textstyle 99.5\%={\frac {199}{200}}} rispettivamente. Il fattore di Bayes quando un individuo risulta positivo al test è 0.99 0.01 = 99 : 1 {\displaystyle \textstyle {\frac {0.99}{0.01}}=99:1} in favore di essere un fruitore di droghe: questo equivale al rapporto tra la probabilità di un individuo di risultare positivo al test e la probabilità di un individuo non fruitore di risultare positivo al test. Le disparità a posteriori di essere un fruitore di droghe sono perciò 1 × 99 : 199 × 1 = 99 : 199 {\displaystyle \textstyle 1\times 99:199\times 1=99:199} , che è molto vicino a 100 : 200 = 1 : 2 {\displaystyle \textstyle 100:200=1:2} . In termini approssimati, solo un individuo su tre di quelli risultanti positivi al test sono realmente fruitori di droghe.

Collegamenti esterni

  • The on-line textbook: Information Theory, Inference, and Learning Algorithms, by David J.C. MacKay, discute il confronto tra modelli Bayesiani nei Capitoli 3 e 28.


Controllo di autoritàThesaurus BNCF 57886
  Portale Statistica: accedi alle voci di Wikipedia che trattano di statistica