Allgemeiner Test

Die Artikel Allgemeiner Test und Entscheidungsfunktion überschneiden sich thematisch. Informationen, die du hier suchst, können sich also auch im anderen Artikel befinden.
Gerne kannst du dich an der betreffenden Redundanzdiskussion beteiligen oder direkt dabei helfen, die Artikel zusammenzuführen oder besser voneinander abzugrenzen (→ Anleitung).
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen (beispielsweise Einzelnachweisen) ausgestattet. Angaben ohne ausreichenden Beleg könnten demnächst entfernt werden. Bitte hilf Wikipedia, indem du die Angaben recherchierst und gute Belege einfügst.

Ein allgemeiner Test oder Entscheidungsverfahren ist ein abstraktes Instrument der mathematischen Statistik. Fast alle statistischen Tests, wie bspw. Hypothesentests oder Parameterpunktschätzungen, lassen sich in der Form eines allgemeinen Tests mathematisch erfassen. Ziel eines allgemeinen Tests ist es, auf Grund der (beobachteten) Realisierung einer oder mehrerer zuvor definierter Zufallsgrößen, deren genaue Wahrscheinlichkeitsverteilung i. d. R. nicht bekannt ist, bzgl. einer betrachteten Fragestellung eine Entscheidung zu treffen.

Beispiel: Ein Pharmaunternehmen möchte ein neu entwickeltes Medikament auf seine (unbekannte) Wirksamkeit testen. Hierfür bekommt eine bestimmte Anzahl von Patienten das Medikament verabreicht. Aufgrund der gemessenen Wirkung des Medikaments auf die Patienten muss sich das Pharmaunternehmen nun entscheiden, ob man das neue Medikament auf dem Markt einführt oder lieber weiter auf ein altbewährtes Medikament zurückgreift.

Entscheidet sich das Pharmaunternehmen für die Markteinführung des neuen Medikaments, so besteht die Gefahr, dass dieses durch das verwendete Entscheidungsverfahren nur fälschlicherweise als besser als das alte Medikament eingestuft wurde. In diesem Fall entstünde dem Pharmaunternehmen ein unnötiger Schaden. Um einen solchen zu vermeiden, liegt jedem allgemeinen Test eine sog. Schadensfunktion zugrunde, mit Hilfe derer man versucht durch die Wahl einer „geeigneten“ Entscheidungsfunktion das Risiko einer Entscheidung zu minimieren.

Definition

Gegeben sei ein Messraum ( Ω , A ) {\displaystyle (\Omega ,{\mathcal {A}})} und eine Familie von Wahrscheinlichkeitsmaßen F = { P θ θ Θ } {\displaystyle {\mathcal {F}}=\{P_{\theta }\mid \theta \in \Theta \}} auf A {\displaystyle {\mathcal {A}}} . Ω {\displaystyle \Omega } umfasst hierbei gerade alle möglichen Realisierungen oder Beobachtungen. Weiter sei D {\displaystyle {\mathcal {D}}} eine Menge von möglichen Entscheidungen.

  • Eine Abbildung s : D × Θ R + {\displaystyle s:{\mathcal {D}}\times \Theta \to \mathbb {R} _{+}} heißt Schadensfunktion.
  • Eine Abbildung δ : Ω D {\displaystyle \delta :\Omega \to {\mathcal {D}}} heißt genau dann allgemeiner Test, Entscheidungsfunktion oder auch Entscheidungsverfahren, wenn für jedes θ Θ {\displaystyle \theta \in \Theta } die Abbildung ω s ( δ ( ω ) , θ ) {\displaystyle \omega \mapsto s(\delta (\omega ),\theta )} gerade ( A , B ) {\displaystyle ({\mathcal {A}},{\mathfrak {B}})} -messbar ist. Hierbei bezeichnet B {\displaystyle {\mathfrak {B}}} die Borelsche σ-Algebra über R {\displaystyle \mathbb {R} } .

Gütekriterien

Risiko

Es sei T {\displaystyle {\mathcal {T}}} eine Klasse von Entscheidungsfunktionen. Für ein Element δ T {\displaystyle \delta \in {\mathcal {T}}} bezeichnet man

r δ : Θ R + {\displaystyle r_{\delta }:\Theta \to \mathbb {R} _{+}} vermöge r δ ( θ ) := Ω s ( δ ( ω ) , θ )   d P θ ( ω ) {\displaystyle r_{\delta }(\theta ):=\int _{\Omega }s(\delta (\omega ),\theta )\ dP_{\theta }(\omega )}

als Risikofunktion. Diese gibt an, welcher Schaden durch die Anwendung des Tests δ {\displaystyle \delta } im Mittel unter der Verteilung P θ {\displaystyle P_{\theta }} entsteht. Wegen s 0 {\displaystyle s\geq 0} existiert diese immer, evtl. jedoch uneigentlich. Weiter bezeichnet man

r ( δ ) := sup θ Θ r δ ( θ ) {\displaystyle r(\delta ):=\sup _{\theta \in \Theta }r_{\delta }(\theta )}

als das Risiko von δ {\displaystyle \delta } .

Hat man nun weiter eine σ {\displaystyle \sigma } -Algebra S {\displaystyle {\mathcal {S}}} über Θ {\displaystyle \Theta } und ein Wahrscheinlichkeitsmaß μ {\displaystyle \mu } auf ( Θ , S ) {\displaystyle (\Theta ,{\mathcal {S}})} gegeben, so definiert μ {\displaystyle \mu } eine A-priori-Verteilung oder (subjektive) Vorbewertung auf der Parametermenge. Ist die Risikofunktion θ r δ ( θ ) {\displaystyle \theta \mapsto r_{\delta }(\theta )} messbar bzgl. S {\displaystyle {\mathcal {S}}} , so lässt sich hiermit das sog. Bayesrisiko des Tests δ {\displaystyle \delta } bzgl. μ {\displaystyle \mu } einführen, und zwar setzt man dann

r δ ( μ ) := Θ r δ ( θ )   d μ ( θ ) {\displaystyle r_{\delta }(\mu ):=\int _{\Theta }r_{\delta }(\theta )\ d\mu (\theta )} .

Effizienz

Mit Hilfe des Risikos und der Risikofunktion lassen sich nun zwei allgemeine Tests δ 1 , δ 2 T {\displaystyle \delta _{1},\delta _{2}\in {\mathcal {T}}} miteinander vergleichen. Man sagt δ 1 {\displaystyle \delta _{1}} ist mindestens so effizient wie δ 2 {\displaystyle \delta _{2}} , wenn

r δ 1 ( θ ) r δ 2 ( θ ) θ Θ {\displaystyle r_{\delta _{1}}(\theta )\leq r_{\delta _{2}}(\theta )\quad \forall \theta \in \Theta } .

Im Falle einer Vorbewertung μ {\displaystyle \mu } lassen sich die Tests außerdem mit Hilfe des Bayesrisikos vergleichen. Man sagt dann δ 1 {\displaystyle \delta _{1}} ist mindestens so effizient wie δ 2 {\displaystyle \delta _{2}} , wenn r δ 1 ( μ ) r δ 2 ( μ ) {\displaystyle r_{\delta _{1}}(\mu )\leq r_{\delta _{2}}(\mu )} .

Optimalität

Die Optimalität eines Tests lässt sich auf verschiedenste Weisen einführen. Man bezeichnet einen Test δ T {\displaystyle \delta ^{*}\in {\mathcal {T}}} als

  • höchsteffizient in T {\displaystyle {\mathcal {T}}} , wenn r δ ( θ ) = min δ T r δ ( θ )   θ Θ {\displaystyle r_{\delta ^{*}}(\theta )=\min _{\delta \in {\mathcal {T}}}r_{\delta }(\theta )\ \forall \theta \in \Theta } gilt.
  • Minimaxverfahren in T {\displaystyle {\mathcal {T}}} , wenn r ( δ ) = min δ T r ( δ ) {\displaystyle r(\delta ^{*})=\min _{\delta \in {\mathcal {T}}}r(\delta )} gilt.
  • Bayeslösung in T {\displaystyle {\mathcal {T}}} bzgl. μ {\displaystyle \mu } , wenn r δ ( μ ) = min δ T r δ ( μ ) {\displaystyle r_{\delta ^{*}}(\mu )=\min _{\delta \in {\mathcal {T}}}r_{\delta }(\mu )} gilt.
  • multisubjektiv optimal oder M {\displaystyle {\mathfrak {M}}} -Minimaxverfahren in T {\displaystyle {\mathcal {T}}} , wenn M {\displaystyle {\mathfrak {M}}} eine Familie von Wahrscheinlichkeitsmaßen auf S {\displaystyle {\mathcal {S}}} ist und gilt sup μ M r δ ( μ ) = min δ T sup μ M r δ ( μ ) {\displaystyle \sup _{\mu \in {\mathfrak {M}}}r_{\delta ^{*}}(\mu )=\min _{\delta \in {\mathcal {T}}}\sup _{\mu \in {\mathfrak {M}}}r_{\delta }(\mu )} .

Bei festem Parameter θ {\displaystyle \theta } ist inf δ T r δ ( θ ) {\displaystyle \inf _{\delta \in {\mathcal {T}}}r_{\delta }(\theta )} der unvermeidbare Schaden für jeden Test in T {\displaystyle {\mathcal {T}}} . Für einen guten Test wird man deshalb verlangen, dass

ρ ( δ ) := sup θ Θ ( r δ ( θ ) inf δ T r δ ( θ ) ) {\displaystyle \rho (\delta ^{*}):=\sup _{\theta \in \Theta }\left(r_{\delta ^{*}}(\theta )-\inf _{\delta _{\in }{\mathcal {T}}}r_{\delta }(\theta )\right)}

möglichst klein wird („minimal regret“). Deshalb bezeichnet man δ {\displaystyle \delta ^{*}} weiter als

  • strengsten Test in T {\displaystyle {\mathcal {T}}} , wenn ρ ( δ ) = min δ T ρ ( δ ) {\displaystyle \rho (\delta ^{*})=\min _{\delta \in {\mathcal {T}}}\rho (\delta )} gilt.

Zusammenhang: Bei den hier aufgeführten Optimalitätskriterien lässt sich die Höchsteffizienz als stärkste Forderung einstufen, denn ist ein Test δ {\displaystyle \delta ^{*}} höchsteffizient in T {\displaystyle {\mathcal {T}}} , so ist er bereits Minimaxverfahren, Bayeslösung, multisubjektiv optimal und auch strengster Test.

Beispiele

Hypothesentest

Bei einem Hypothesen- oder Signifikanztest betrachtet man zwei sich gegenseitig ausschließende Hypothesen H 0 {\displaystyle H_{0}} und H 1 {\displaystyle H_{1}} , von denen man in der Regel eine, bspw. H 0 {\displaystyle H_{0}} , versucht aufgrund einer Beobachtung ω Ω {\displaystyle \omega \in \Omega } zu verwerfen. Die Menge der möglichen Entscheidungen ist deshalb von der Form D = { d 1 , d 2 } {\displaystyle {\mathcal {D}}=\{d_{1},d_{2}\}} , wobei man definiert:

d 1 := {\displaystyle d_{1}:=} „Hypothese H 0 {\displaystyle H_{0}} kann verworfen werden.“
d 2 := {\displaystyle d_{2}:=} „Hypothese H 0 {\displaystyle H_{0}} kann nicht verworfen werden, es lässt sich also keine Folgerung aus dem Experiment ziehen.“

Parameterpunktschätzung

Gegeben sei eine Zufallsgröße X : Ω Ω {\displaystyle X:\Omega '\to \Omega } bzgl. zweier Messräume ( Ω , A ) {\displaystyle (\Omega ',{\mathcal {A}}')} und ( Ω , A ) {\displaystyle (\Omega ,{\mathcal {A}})} , die der Verteilungsfamilie F = { P θ θ Θ } {\displaystyle {\mathcal {F}}=\{P_{\theta }\mid \theta \in \Theta \}} unterliegt. Unbekannt sei hierbei der „wahre“ Parameter θ {\displaystyle \theta } . Diesen, bzw. allgemeiner einen von θ {\displaystyle \theta } abhängenden Wert λ ( θ ) {\displaystyle \lambda (\theta )} , gilt es zu schätzen. Als Entscheidungsraum betrachtet man deshalb D = λ ( Ω ) {\displaystyle {\mathcal {D}}=\lambda (\Omega )} . Als Schadensfunktion verwendet man häufig

s : D × Θ R + ,   s ( d , θ ) = ( d λ ( θ ) ) 2 {\displaystyle s:{\mathcal {D}}\times \Theta \to \mathbb {R} _{+},\ s(d,\theta )=(d-\lambda (\theta ))^{2}} .

Damit ergibt sich für einen Test δ : Ω D {\displaystyle \delta :\Omega \to {\mathcal {D}}} als Risikofunktion die mittlere quadratische Abweichung der Schätzung von dem zu schätzenden Wert, denn

r δ ( θ ) = Ω s ( δ ( ω ) , θ )   d P θ ( ω ) = E θ ( ( δ ( X ) λ ( θ ) ) 2 ) {\displaystyle r_{\delta }(\theta )=\int _{\Omega }s(\delta (\omega ),\theta )\ dP_{\theta }(\omega )=\mathbb {E} _{\theta }((\delta (X)-\lambda (\theta ))^{2})} .

Parameterbereichsschätzung

Betrachtet wird wieder die Zufallsgröße X {\displaystyle X} . Schätzen möchte man einen Bereich, in dem man den „wahren“ Parameter θ {\displaystyle \theta } vermutet. Man setzt hierfür D := P ( Θ ) { } {\displaystyle {\mathcal {D}}:={\mathfrak {P}}(\Theta )\backslash \{\emptyset \}} . Die Leere Menge schließt man als Entscheidung aus, da das Schätzen dieser nicht sinnvoll wäre. Als Schadensfunktion bietet sich die Abbildung s : D × Θ R + {\displaystyle s:{\mathcal {D}}\times \Theta \to \mathbb {R} _{+}} mit s ( d , θ ) := 1 d ( θ ) {\displaystyle s(d,\theta ):=1_{d^{\complement }}(\theta )} an. Mit ihr erhält man für einen Test δ : Ω D {\displaystyle \delta :\Omega \to {\mathcal {D}}} die Risikofunktion

r δ ( θ ) = Ω s ( δ ( ω ) , θ )   d P θ ( ω ) = Ω 1 δ ( ω ) ( θ )   d P θ ( ω ) = P θ ( { ω θ δ ( ω ) } )   , {\displaystyle r_{\delta }(\theta )=\int _{\Omega }s(\delta (\omega ),\theta )\ dP_{\theta }(\omega )=\int _{\Omega }1_{\delta (\omega )^{\complement }}(\theta )\ dP_{\theta }(\omega )=P_{\theta }(\{\omega \mid \theta \notin \delta (\omega )\})\ ,}

d. h. r δ ( θ ) {\displaystyle r_{\delta }(\theta )} ist gerade die Wahrscheinlichkeit, mit welcher der Parameter θ {\displaystyle \theta } nicht in der geschätzten Menge liegt. Man nennt r δ ( θ ) {\displaystyle r_{\delta }(\theta )} deshalb auch die Irrtumswahrscheinlichkeit des Verfahrens δ {\displaystyle \delta } für den Parameter θ {\displaystyle \theta } . Das Risiko r ( δ ) = sup θ Θ r δ ( θ ) {\displaystyle r(\delta )=\sup _{\theta \in \Theta }r_{\delta }(\theta )} bezeichnet man als Signifikanzschranke von δ {\displaystyle \delta } .