Begriff
Den Ausgangspunkt eines Tests auf Zufälligkeit bildet immer die Annahme, dass sich die zu untersuchende Zahlenmenge zufällig zusammensetzt. Anschließend wird mittels des Tests geprüft, ob die Annahme der zufälligen Zusammensetzung richtig oder falsch ist. Solche Überprüfungen von Vermutungen nennt man einen statistischen Test oder auch Signifikanztest, wobei die zu prüfende Annahme Hypothese genannt wird. Dabei bezeichnet Hypothese eine begründete theoretische Annahme über die Entstehung, Ursache oder Wirkung eines in der materiellen und sozialen Realität beobachteten Sachverhaltes oder eines Zusammenhanges von Sachverhalten (Resultaten). Durch die Wahl einer geeigneten Testfunktion und der Bestimmung eines Sicherheitsniveaus über die Annahme oder die Ablehnung lassen sich statistisch abgesicherte Entscheidungen über den Wahrheitsgehalt von Hypothesen treffen.
Anforderung
Allgemein betrachtet sollte eine Hypothese stets allgemein gültig und widerspruchsfrei sein und sie sollte in der Realität überprüft werden können. Dabei werden Hypothesen i.A. so formuliert, dass sie gemachten Annahme widersprechen (Falsifikationsprinzip), d. h., dass sie gleiches Verhalten oder nicht vorhandene Wirkungen und Unterschiede verschiedener Wirkungen unterstellen. Da in diesem Beitrag die Frage dominiert, ob eine Reihenfolge von Beobachtungswerten zufällig ist oder nicht, geht man stets von folgender Nullhypothese aus:
H0: Die Reihenfolge der Beobachtungswerte ist zufällig.
Ausgehend von der zu widerlegenden Nullhypothese H0 formuliert man die komplementäre Alternativhypothese:
Ha: Die Reihenfolge der Beobachtungswerte ist nicht zufällig,
die mit einer vorgegebenen Fehlerwahrscheinlichkeit α (Signifikanznivau) bestätigt oder widerlegt wird. Hierbei wird zur Überprüfung der Hypothese für die Nullhypothese unter Vorgabe einer bestimmten Irrtumswahrscheinlichkeit ein Annahmebereich gebildet, der genau dem zur Irrtumswahrscheinlichkeit gehörigen Konfidenzintervall entspricht. Liegt das Stichprobenergebnis im Annahmebereich, so wird die Nullhypothese angenommen, andernfalls wird sie verworfen bzw. abgelehnt (vgl. Abb. 2).
Abb. 2:Konsequenzen aus dem Stichprobenergebnis
α-Fehler
Die Annahme oder Ablehnung von H0 aufgrund des Testergebnisses bedeutet aber nicht automatisch, dass man die richtige Entscheidung trifft. Lehnt man etwa aufgrund des Testergebnisses H0 ab, wohingegen aber die Hypothese H0 den wahren Zustand beschreibt, so trifft man die falsche Entscheidung, d. h., man begeht in diesem Fall einen α-Fehler (Fehler 1. Art), dem die Wahrscheinlichkeit α (Irrtumswahrscheinlichkeit, Signifikanzniveau) entspricht.
β-Fehler
Aber auch die Beibehaltung von H0 aufgrund des Testergebnisses kann eine falsche Entscheidung bedeuten, wenn nämlich der Inhalt der Nullhypothese in Wirklichkeit falsch ist, d. h., man begeht in diesem Fall einen so genannten β-Fehler (Fehler 2. Art):
|
H0 richtig |
H0 falsch |
H0 akzeptieren |
1 - α |
β |
H0 ablehnen |
α |
1 - β |
Ziel des Statistikers ist es, das Testverfahren so zu gestalten, dass die Wahrscheinlichkeiten für den α-Fehler und den β-Fehler in vertretbaren Grenzen gehalten werden. Ist die Nullhypothese richtig, so beträgt die Wahrscheinlichkeit genau α % dafür, dass das Stichprobenergebnis so weit vom Nullhypothesenwert abweicht, dass die Nullhypothese verworfen wird. Genau diese Entscheidung ist aber im Fall der Gültigkeit der Nullhypothese falsch, sodass die Wahrscheinlichkeit des Fehlers 1. Art genauso groß ist wie das vorgegebene Signifikanzniveau.
Um den β-Fehler berechnen zu können, ist es erforderlich, der Nullhypothese die Alternativhypothese Ha gegenüberzustellen. Der β-Fehler drückt gerade die Wahrscheinlichkeit dafür aus, an einer unzutreffenden Nullhypothese festzuhalten, obwohl diese falsch ist. Die Wahrscheinlichkeit β des Fehlers 2. Art verhält sich dabei gegenläufig zur Irrtumswahrscheinlichkeit α, d. h., je größer α, desto kleiner β und umgekehrt.
Während α allein durch den Statistiker über die Festlegung des Signifikanzniveaus fixiert wird, hängt die Größe des β-Fehlers davon ab, wie dicht die beiden Verteilungen der Nullhypothese und der Alternativhypothese zusammenliegen, d. h., je dichter die beiden Verteilungen zusammenliegen, desto größer wird β (s. Abb. 3).
Abb. 3:Wahrscheinlichkeiten von α- und β-Fehlern
Die Wahrscheinlichkeit des β-Fehlers entspricht im Diagramm der linken Fläche unter der roten Verteilung im Bereich der Annahme der Nullhypothese. Immer dann, wenn das Stichprobenergebnis im Annahmebereich der Nullhypothese liegt, wird die Nullhypothese bestätigt. Ist aber die rote Alternativhypothese zutreffend, so stellt die Bestätigung der Nullhypothese einen Entscheidungsfehler dar, d. h., es ist ein β-Fehler unterlaufen. Bei festem α lässt sich dabei β durch eine Vergrößerung des Stichprobenumfangs verkleinern.