Diskussion:F-Test
Warum 18,4%...
Bearbeiten...wenn das Ergebniss doch 1,188 ist... müssten es nicht 18,8 % sein???
--Berliner_Tino 13:25, 30. Sept 2007 (CEST)
Ja, stimmt, aber warum korrigiert das niemand?
Ich hab das jetzt mal gemacht, ungeachtet der grundsätzlichen Fragen zu diesem Teil (s.u.)--Janstr 16:18, 12. Feb. 2008 (CET)
Und wenn ich jetzt die Varianzen 2.04 und 0.177 habe, was einen Quotient von 11.5 ergibt: Beträgt die Irrtumswahrscheinlichkeit dann 1050% ?!? (11.5-1)*100=1050 -- 77.57.200.35 17:07, 18. Dez. 2009 (CET)
Seite verbessert
BearbeitenHabe mir erlaubt, den Artikel etwas zu präzisieren.
- Den F-Test gibt es auch im "Einstichprobenfall", wobei es Geschmacksache ist, bei einer Regression die Wertetupel als Ein- oder Mehrstichprobenfall zu bezeichnen. Ich würde Einstichprobenfall sagen, weil der Regressor (die Regressoren) fest vorgegeben ist.
- Vielleicht könnte man begründen, warum in dem Beispiel die Variante A bevorzugt wird.
- Ansonsten diverse kleinere Fehlerla.
--Philipendula 09:25, 1. Jul 2004 (CEST)
Hallo - sehr informativ. Nur habe ich exakt den gleichen Text unter [1] gefunden. Problem?
Guckst Du auf der Seite unten: "Dieser Artikel stammt aus Wikipedia, der freien Enzyklopädie und steht unter der GNU Free Dokumentation Licence." 93.213.88.161 18:08, 28. Sep. 2014 (CEST)
--Strike 13:28, 1. Feb 2005 (CET)
- Also das mit dem Bestimmtheitsmaß stammt eindeutig von mir. Also haben die von uns geklaut. Gruß --Philipendula 16:44, 1. Feb 2005 (CET)
Warum 18,4%...
Bearbeiten...wenn das Ergebniss doch 1,188 ist... müssten es nicht 18,8 % sein???
- Wie schon unten angemerkt: Das Beispiel ist miserabel, von der Intention her unverständlich und man muss alles selber zusammenreimen. Ansonsten verwechselst du Quantil und Wahrscheinlichkeit. --Philipendula 17:25, 30. Sep. 2007 (CEST)
Toter Weblink
BearbeitenBei mehreren automatisierten Botläufen wurde der folgende Weblink als nicht verfügbar erkannt. Bitte überprüfe, ob der Link tatsächlich down ist, und korrigiere oder entferne ihn in diesem Fall!
--Zwobot 21:34, 29. Jan 2006 (CET)
varianzanalyse
BearbeitenSeit Jan. 2004 ist ein unvollständiger Satz im Artikel. Das zum Thema, dass wir mal locker auf den einen oder anderen Experten verzichten können, weil ja alle zusammenhelfen. Das gilt nur für Harry Potter etc. --Philipendula 13:53, 27. Jul 2006 (CEST)
"Wenn sich zwei Stichproben schon in ihren Varianzen unterscheiden, dann unterscheiden sie sich allgemein natürlich auch." Bitte das "allgemein" näher spezifizieren. Wenn das nicht möglich ist, sollte man den Satz rausstreichen. Sonst ist der Gehalt der Aussage ungefähr derselbe wie bei "Wenn sich zwei Äpfel in ihrer Farbe unterscheiden, dann unterscheiden sie sich." Nämlich Null.
--Sbuehler 12:01, 17. Aug 2006 (CEST)
Zufriedenheitsfragebogen
BearbeitenWie ist das Beispiel zu verstehen? Präferiert das Unternehmen die Anwendung mit der größeren Varianz in der Zufriedenheitsbefragung, weil man meint, dass dann eher auch zufriedene Anwender dabei sind? Was ist unter einer einseitigen Überprüfung zu verstehen?
- Dieses Beispiel fällt nach meinem Geschmack in die Kategorie Wirres Zeug. Ich vermute eher, dass das Unternehmen von vornherein A favorisierte und dann noch die Varianz abtesten wollte. Außerdem haben wir es bei diesen Daten möglicherweise mit rangskalierten Merkmalen zu tun, für die sowieso keine Varianz berechnet werden kann. Siehe auch die Disku zu Median. Wenn ich mal Zeit hab, werde ich das Beispiel umarbeiten. --Philipendula 14:23, 26. Sep 2006 (CEST)
Die Interpretation des p-Wertes 0.184 ist sehr abenteuerlich: "... eine Irrtumswahrscheinlichkeit von 18,4%. Das heißt also: Mit der Wahrscheinlichkeit 81,6% unterscheiden sich die Varianzen der beiden Stichproben signifikant." Das ist Quatsch. Man kann die Nullhypothese bei Signifikanztests NICHT beweisen! Die 0.816 sind die Wahrscheinlichkeit, unter der Annahme gleicher Varianzen (=H0) einen geringeren als den tatsächlich beobachteten Varianzunterschied zu bekommen (d.h. ein Ergebnis in Richtung der Nullhypothese).
Bestimmtheitsmaß-Test auch für andere restringierte Modelle?
BearbeitenHallo! Der Test, ob das Bestimmtheitsmaß (gemeint ist doch R^2?) sich signifikant von Null unterscheidet, gilt ja nur für den Spezialfall, dass im restringierten Modell ALLE Schätzparameter (außer der Konstanten) gleich Null gesetzt werden. Wie sieht das bei anderen restringierten Modellen aus? Z.B. wenn ich jetzt die Erklärungskraft eines Modell mit zehn unabhängigen Variablen vergleiche mit der eines restringierten Modells, in dem die Schätzparameter von nur ein paar (z.B. vier) Variablen gleich Null gesetzt werden, kann ich die Interpretation genauso machen? Also wird generell getestet, ob ein signifikanter Unterschied zwischen den R^2 zweier Modelle (voll/restringiert) besteht? Eine Antwort würde mir sehr helfen! --84.143.93.164 11:20, 17. Mai 2009 (CEST)
- Ja, gilt auch bei restringierten Modellen. -- Philipendula 12:18, 17. Mai 2009 (CEST)
Beispiel
BearbeitenIm Beispiel stand:
und am naechsten:
Da werden Zufallsvarable und ihre Wert nicht gut unterschieden. Deshalb die Aenderung. Nijdam 16:55, 23. Apr. 2010 (CEST)
Definition
BearbeitenIch moechte den Abschnitt "Definition" anders formulieren, damit die Situation in der man den F-Test anwendet deutlicher wird. Ich denke mein Deutsch sei nicht ausreichend, und schreibe es deshalb hier, in der Hoffnung jemand sei mir behilflich.
(siehe Artikel)
Vielen Dank, Nijdam 22:51, 12. Nov. 2011 (CET)
Hallo Sigbert, vielen Dank für deine Mühe. Ich habe noch einige geändert.
- Ich möcht erst dann von der Stichprobenvariablen reden wenn darüber tatsächlich gesprochen ist.
- Wiel dies eine Enzyklopädie möchte ich ausführlich sagen ... Freiheitsgraden im Zähler und ... im Nenner.
- Willst du wirklich beschreiben, was das empirische Signikanzniveau bedeutet? Es ist nicht speziell für den F-Test. Gruß --Sigbert 16:07, 20. Nov. 2011 (CET)
- Nein besser nicht, aber ich habe es bisher so gelassen weil dies zuvor schon im Artikel stand. Werden wir es streichen? Nijdam 17:17, 22. Nov. 2011 (CET)
HilberTraum, auch dir Vielen Dank. Werden wir es so wie es jetzt ist im Artikel eintragen?Nijdam 12:33, 24. Nov. 2011 (CET)
Beispiel
BearbeitenIch verstehe den Kontext des Beispiels nicht.Nijdam 12:42, 27. Nov. 2011 (CET)
- +1. Ja das Beispiel ist auch meiner Meinung nach völlig ungeeignet: Bei einer Untersuchung der Zufriedenheit interessieren doch hauptsächlich die Lageparameter. Ein besseres anschauliches Beispiel wäre vielleicht der Vergleich zweier Messinstrumente: Beide zeigen zwar im Mittel die gleichen Werte, aber das schlechtere Instrument hat die größere Varianz. -- HilberTraum 14:51, 27. Nov. 2011 (CET)
Oder ein neues Produktionsverfahren, das zwar billiger ist, aber vielleicht eine groessere Streuung vorweist.Nijdam 01:46, 28. Nov. 2011 (CET)
(eigebaut worden)
Nijdam 12:06, 29. Nov. 2011 (CET)
- Ich denke jetzt passt es gut und kann meiner Meinung nach so in den Artikel eingebaut werden. -- HilberTraum 21:05, 29. Nov. 2011 (CET)
Erweiterung
BearbeitenIch moechte zum besseren Verstehen das Beispiel eerweitern mit eine Berechnung der Tetsstaerke.
(eingefuegt)Nijdam 00:15, 5. Dez. 2011 (CET)
Was haltet ihr davon? Und bitte: korrigiere den Tekst.Nijdam 16:11, 2. Dez. 2011 (CET)
- Kann man mMn nach gut einfügen. Vielleicht sollte noch ganz kurz erklärt werden, was die Teststärke hier genau ist. -- HilberTraum 11:55, 3. Dez. 2011 (CET)
Bedeutung
BearbeitenWas bedeutet im Artikel der Satz: Allerdings können aus der erhaltenen Wahrscheinlichkeit P(F|H0) keine direkten Rückschlüsse auf die Wahrscheinlichkeit der Gültigkeit der Alternativhypothese gezogen werden.? Nijdam (Diskussion) 08:14, 27. Apr. 2012 (CEST)
Berechnung von f(Stichprobe)
BearbeitenBin ich blind, oder steht nirgends, dass grundsätzlich die größere Varianz in den Zähler und die kleinere in den Nenner muss? Im Beispiel ist keine solche Bedingung angegeben, aber dann kommt bei der Berechnung größerer Unfug raus...
LG Jorinde
H_0 wird verworfen, wenn die Statistik < F[\alpha / 2] oder > F[1-\alpha/2] ist. Damit ist ein grundsätzliches größere Varianz in den Zähler etc. unnötig.
F-Test einseitig & zweiseitig testen
BearbeitenWenn mich nicht alles täuscht, dann stimmt das Ergebnis im Beispiel von 18,8% nur bei einer zweiseitigen Testung (F-Test testet immer zweiseitig). Allerdings wurde die Alternativhypothese als einseitige Testung ">" formuliert. Demnach müsste die Wahrscheinlichkeit halbiert und bei 9,4% liegen.
Hier der Link auf den ich mich beziehe: http://www.phimea.de/fachbeitraege/chi-quadrat-test-f-test-einseitig-zweiseitig
Auszug: "Möchten wir einen einseitigen Test durchführen und benötigen einen Chi-Quadrat-Test (oder F-Test), so ist das alpha-Niveau zu verdoppeln oder der empirisch ermittelte p-Wert zu halbieren, um die gerichtete Hypothese auf statistische Signifikanz zu testen.
VG Armin (nicht signierter Beitrag von 212.18.10.130 (Diskussion) 14:56, 25. Apr. 2014 (CEST))
- Ja, da muss man ziemlich aufpassen, aber es scheint schon so zu stimmen wie’s im Artikel steht. Ich hab’s mal schnell mit R ausprobiert:
> A <- rnorm(120); A <- sqrt(95)*A/sd(A) > B <- rnorm(100); B <- sqrt(80)*B/sd(B) > var.test(A,B,alternative="greater")$p.value [1] 0.1887569
Diskrepanz in den Ergebnissen R
BearbeitenIch habe das Beispiel nachvollzogen. Da ich aber kein R habe, bediente ich mich WolframAlpha. Jedoch komme ich dort auf ein anderes Ergebnis für
"f distribution 199 99 >= 1.188" --> 0.168711
Ich habe leider die Diskrepanz für mich nicht auflösen können. Einzige Vermutung ist die interne Genauigkeit der Rechensysteme. (nicht signierter Beitrag von Chipotng (Diskussion | Beiträge) 14:54, 9. Feb. 2016 (CET))
- Wenn du 119 statt 199 nimmst, dann stimmt es ;) -- HilberTraum (d, m) 18:24, 9. Feb. 2016 (CET)