Entscheidungsfunktion

Die Artikel Allgemeiner Test und Entscheidungsfunktion überschneiden sich thematisch. Informationen, die du hier suchst, können sich also auch im anderen Artikel befinden.
Gerne kannst du dich an der betreffenden Redundanzdiskussion beteiligen oder direkt dabei helfen, die Artikel zusammenzuführen oder besser voneinander abzugrenzen (→ Anleitung).

Eine Entscheidungsfunktion ist ein Begriff aus der mathematischen Statistik, dem Teilbereich der Statistik, der sich der Methoden der Wahrscheinlichkeitstheorie bedient. Man unterscheidet zwischen nichtrandomisierten Entscheidungsfunktionen, bei denen jeder Beobachtung eine eindeutige Entscheidung zugeordnet wird, und randomisierten Entscheidungsfunktionen, bei denen die Wahl der Entscheidung noch vom Zufall abhängig ist. Entscheidungsfunktionen werden im Rahmen von statistischen Entscheidungsproblemen verwendet. Diese umfassen sowohl Testprobleme als auch Schätzprobleme und die Bestimmung von Konfidenzintervallen mittels Bereichsschätzern.

Eng verbunden mit der Entscheidungsfunktion ist die Verlustfunktion, die nach Treffen einer Entscheidung den Verlust bezüglich der getroffenen Entscheidung angibt, wenn der reale, aber unbekannte Wert von dieser Entscheidung abweicht. Entscheidungsfunktion und Verlustfunktion werden dann zur Risikofunktion kombiniert, die den potentiellen Verlust bei Verwendung einer gegebenen Entscheidungsfunktion angibt.

Definition

Gegeben sei ein statistisches Modell ( X , A , P ) {\displaystyle (X,{\mathcal {A}},{\mathcal {P}})} und ein Entscheidungsraum ( Ω , Σ ) {\displaystyle (\Omega ,\Sigma )} .

Nichtrandomisierte Entscheidungsfunktion

Dann wird im Rahmen der mathematischen Statistik eine Funktion d : X Ω {\displaystyle d\colon X\to \Omega } , die A {\displaystyle {\mathcal {A}}} - Σ {\displaystyle \Sigma } -messbar ist, eine nichtrandomisierte Entscheidungsfunktion genannt. Die Menge aller nichtrandomisierten Entscheidungsfunktionen wird mit D {\displaystyle D} bezeichnet.

Randomisierte Entscheidungsfunktion

Eine randomisierte Entscheidungsfunktion ist dann ein Markow-Kern δ ( x , S ) {\displaystyle \delta (x,S)} von ( X , A ) {\displaystyle (X,{\mathcal {A}})} nach ( Ω , Σ ) {\displaystyle (\Omega ,\Sigma )} , das heißt für δ : X × Σ [ 0 , 1 ] {\displaystyle \delta \colon X\times \Sigma \to [0,1]} gilt:

  • Für jedes x X {\displaystyle x\in X} ist δ ( x , ) {\displaystyle \delta (x,\;\cdot \;)} ein Wahrscheinlichkeitsmaß auf ( Ω , Σ ) {\displaystyle (\Omega ,\Sigma )} .
  • Für jedes S Σ {\displaystyle S\in \Sigma } ist δ ( , S ) {\displaystyle \delta (\;\cdot \;,S)} eine A {\displaystyle {\mathcal {A}}} -messbare Funktion.

δ ( x , S ) {\displaystyle \delta (x,S)} ist dann die Wahrscheinlichkeit, bei der Beobachtung von x {\displaystyle x} eine Entscheidung aus der Menge S {\displaystyle S} zu treffen. Die Menge aller randomisierten Entscheidungsfunktionen wird mit D {\displaystyle {\mathcal {D}}} bezeichnet.

Darstellung von nichtrandomisierten Entscheidungsfunktionen

Jede nichtrandomisierte Entscheidungsfunktion d {\displaystyle d} lässt sich auf natürliche Weise als randomisierte Entscheidungsfunktion darstellen. Dazu definiert man den Markow-Kern als

δ d ( x , A ) = { 1  falls  d ( x ) A 0  falls  d ( x ) A {\displaystyle \delta _{d}(x,A)={\begin{cases}1&{\text{ falls }}d(x)\in A\\0&{\text{ falls }}d(x)\notin A\end{cases}}} .

Bezeichnet man mit Δ x {\displaystyle \Delta _{x}} das Diracmaß, so lässt sich der Markow-Kern noch kompakter schreiben als

δ d ( x , A ) := Δ { d ( x ) } ( A ) {\displaystyle \delta _{d}(x,A):=\Delta _{\{d(x)\}}(A)} .

Damit lässt sich D {\displaystyle D} in D {\displaystyle {\mathcal {D}}} einbetten, d. h. jede nichtrandomisierte Entscheidungsfunktion ist somit nur ein Spezialfall einer randomisierten Entscheidungsfunktion.

Beispiel

Zu jeder der drei Klassen von statistischen Entscheidungsproblemen lassen entsprechende Entscheidungsfunktionen angeben. So sind klassische Entscheidungsfunktionen die Punktschätzer beispielsweise zur Bestimmung eines unbekannten Parameters, die Intervallschätzer zur Bestimmung eines Konfidenzintervalls und die statistischen Tests.

Punktschätzer

Betrachtet man beispielsweise das Produktmodell ( { 0 , 1 } 100 , P ( { 0 , 1 } ) 100 , ( B e r ϑ n ) ϑ [ 0 , 1 ] ) {\displaystyle (\{0,1\}^{100},{\mathcal {P}}(\{0,1\})^{100},(\operatorname {Ber_{\vartheta }} ^{\otimes n})_{\vartheta \in [0,1]})} , welches einen 100-maligen Münzwurf modelliert, und wählt als Grundmenge für den Entscheidungsraum den Parameterraum Θ = [ 0 , 1 ] {\displaystyle \Theta =[0,1]} und als σ-Algebra die entsprechende Borelsche σ-Algebra B ( [ 0 , 1 ] ) {\displaystyle {\mathcal {B}}([0,1])} , so ist das Stichprobenmittel

M : { 0 , 1 } 100 [ 0 , 1 ] , M ( ω ) = 1 100 i = 1 100 ω i {\displaystyle M:\{0,1\}^{100}\to [0,1],\quad M(\omega )={\frac {1}{100}}\sum _{i=1}^{100}\omega _{i}}

eine Entscheidungsfunktion, die jedem Ausgang des Experiments, der aus einer 100-stelligen Folge von Nullen und Einsen besteht, die Entscheidung für einen geschätzten Parameter ϑ {\displaystyle \vartheta } der Bernoulli-Verteilung zuordnet. Es handelt sich hierbei um eine nichtrandomisierte Entscheidungsfunktion.

Reduktion auf stark suffiziente σ-Algebren

Jede Entscheidungsfunktion lässt sich im folgenden Sinne reduzieren: ist S A {\displaystyle {\mathcal {S}}\subset {\mathcal {A}}} eine stark suffiziente σ-Algebra (was für borelsche Räume ( X , A ) {\displaystyle (X,{\mathcal {A}})} mit einer suffizienten σ-Algebra im herkömmlichen Sinne übereinstimmt), so kann die Entscheidungsfunktion δ ( x , S ) {\displaystyle \delta (x,S)} von ( X , A ) {\displaystyle (X,{\mathcal {A}})} nach ( Ω , Σ ) {\displaystyle (\Omega ,\Sigma )} durch eine Entscheidungsfunktion δ ( x , S ~ ) {\displaystyle \delta ^{*}(x,{\tilde {S}})} von ( X , S ) {\displaystyle (X,{\mathcal {S}})} nach ( Ω , Σ ) {\displaystyle (\Omega ,\Sigma )} ersetzt werden, so dass für die Risikofunktion

R ( ϑ , δ ) = R ( ϑ , δ )  für alle  ϑ Θ {\displaystyle R(\vartheta ,\delta )=R(\vartheta ,\delta ^{*}){\text{ für alle }}\vartheta \in \Theta }

gilt. Die stark suffiziente σ-Algebra enthält also bereits alle für die Risikoabschätzung nötigen Informationen.

Optimale Entscheidungsfunktionen

Es existieren unterschiedliche Optimalitätskriterien für Entscheidungsfunktionen, die teils auf der Ordnungstheorie, teils auch auf der Spieltheorie aufbauen.

Zulässige Entscheidungsfunktionen

Mittels der Risikofunktion R δ ( ϑ ) {\displaystyle R_{\delta }(\vartheta )} lässt sich eine Ordnungsrelation zwischen den Entscheidungsfunktionen definieren durch

δ 1 δ 2  genau dann, wenn  R δ 1 ( ϑ ) R δ 2 ( ϑ )  für alle  ϑ Θ {\displaystyle \delta _{1}\preceq \delta _{2}{\text{ genau dann, wenn }}R_{\delta _{1}}(\vartheta )\leq R_{\delta _{2}}(\vartheta ){\text{ für alle }}\vartheta \in \Theta } .

Gilt δ 1 δ 2 {\displaystyle \delta _{1}\preceq \delta _{2}} und δ 1 δ 2 {\displaystyle \delta _{1}\succeq \delta _{2}} , so nennt man δ 1 {\displaystyle \delta _{1}} und δ 2 {\displaystyle \delta _{2}} äquivalent und schreibt δ 1 δ 2 {\displaystyle \delta _{1}\sim \delta _{2}} .

Ist nun D ~ D {\displaystyle {\tilde {D}}\subset {\mathcal {D}}} eine Teilmenge der Entscheidungsfunktionen, so heißt eine Entscheidungsfunktion δ 0 {\displaystyle \delta _{0}} zulässig bezüglich D ~ {\displaystyle {\tilde {D}}} , wenn für jede weitere Entscheidungsfunktion δ 1 {\displaystyle \delta _{1}} mit δ 1 δ 0 {\displaystyle \delta _{1}\preceq \delta _{0}} gilt, dass δ 1 δ 0 {\displaystyle \delta _{1}\sim \delta _{0}} ist.

Die zulässigen Entscheidungsfunktionen sind somit die minimalen Elemente der Menge D ~ {\displaystyle {\tilde {D}}} bezüglich der Ordnungsrelation {\displaystyle \preceq } .

Minimax-Entscheidungsfunktionen

Eine Entscheidungsfunktion δ 0 {\displaystyle \delta _{0}} heißt eine Minimax-Entscheidungsfunktion bezüglich der Menge D ~ D {\displaystyle {\tilde {D}}\subset {\mathcal {D}}} , wenn

sup ϑ Θ R ( ϑ , δ 0 ) = inf δ D ~ sup ϑ Θ R ( ϑ , δ ) {\displaystyle \sup _{\vartheta \in \Theta }R(\vartheta ,\delta _{0})=\inf _{\delta \in {\tilde {D}}}\sup _{\vartheta \in \Theta }R(\vartheta ,\delta )}

gilt. Die Minimax-Entscheidungsfunktionen entsprechen einer Minimax-Strategie für einen Spieler mit Strategiemenge D ~ {\displaystyle {\tilde {D}}} gegen einen Spieler mit Strategiemenge Θ {\displaystyle \Theta } in einem Zwei-Personen-Nullsummenspiel mit der Risikofunktion als Auszahlungsfunktion.

Bayes-Entscheidungsfunktionen

Ist r ( μ , δ ) {\displaystyle r(\mu ,\delta )} das Bayes-Risiko der Entscheidungsfunktion δ {\displaystyle \delta } bezüglich der a-priori-Verteilung μ {\displaystyle \mu } , so heißt eine Entscheidungsfunktion δ 0 {\displaystyle \delta _{0}} eine Bayes-Entscheidungsfunktion bezüglich der a-priori-Verteilung μ {\displaystyle \mu } , wenn

r ( μ , δ 0 ) r ( μ , δ ) {\displaystyle r(\mu ,\delta _{0})\leq r(\mu ,\delta )}

für alle δ D ~ {\displaystyle \delta \in {\tilde {D}}} gilt.

Beziehungen zwischen den Optimalitätskriterien

Folgerungen aus zulässigen Entscheidungsfunktionen
  • Ist die Entscheidungsfunktion zulässig und ein Egalisator, so ist sie eine Minimax-Entscheidungsfunktion.
Folgerungen aus Minimax-Entscheidungsfunktionen
  • Ist δ 0 {\displaystyle \delta _{0}} Minimax-Entscheidungsfunktion und ist μ 0 {\displaystyle \mu _{0}} eine ungünstigste a-priori-Verteilung, so ist δ 0 {\displaystyle \delta _{0}} eine Bayes-Entscheidungsfunktion bezüglich μ 0 {\displaystyle \mu _{0}} und ( δ 0 , μ 0 ) {\displaystyle (\delta _{0},\mu _{0})} ist ein Sattelpunkt des Bayes-Risikos.
  • Ist die Minimax-Entscheidungsfunktion eindeutig, so ist sie auch zulässig.
Folgerungen aus Bayes-Entscheidungsfunktionen
  • Ist die Bayes-Entscheidungsfunktion δ 0 {\displaystyle \delta _{0}} bezüglich μ 0 {\displaystyle \mu _{0}} eindeutig, so ist sie zulässig.
  • Ist die Bayes-Entscheidungsfunktion ein Egalisator, so ist sie auch eine Minimax-Entscheidungsfunktion.

Literatur

  • Ludger Rüschendorf: Mathematische Statistik. Springer Verlag, Berlin Heidelberg 2014, ISBN 978-3-642-41996-6, doi:10.1007/978-3-642-41997-3.