Die einfaktorielle Varianzanalyse in SPSS: Output, Darstellung, Interpretation

Im folgenden erkläre ich Ihnen, wie die SPSS-Ausgabe der einfaktorielle Varianzanalyse (ANOVA) zu lesen und das Ergebnisse aufzuschreiben ist.

 Beispiel und Fragestellung

Es geht in dem Beispiel um die Untersuchung der Wirkung von drei verschiedenen Dosierungen. Es gibt also drei Gruppen von Patienten (niedrige Dosis, mittlere Dosis, hohe Dosis) und es wird die Wirkung des Medikaments bei jedem Patienten gemessen. Die ANOVA soll untersuchen, ob es einen signifikanten Unterschied in der Wirkung zwischen den drei Gruppen gibt.

Voraussetzungen der ANOVA

Ich setzte voraus, dass vor der Durchführung der Varianzanalyse die Normalverteilung der Messungen in jeder Gruppe überprüft wurde.

SPSS Ausgabe

Wenn Sie die Varianzanalyse mit SPSS rechnen, bekommen Sie folgenden Output:

Abb-SPSS-Ausgabe-ANOVA

Test auf Varianzhomogenität

In der ersten Tabelle „Varianzhomogenitätstest“ wird mittels des Levene-Test überprüft, ob die Varianzen zwischen den Gruppen sich nicht unterscheiden (= homogen sind). Das ist eine Voraussetzung für die ANOVA. Das Ergebnis lesen Sie in dieser Tabelle in der Spalte „Sig.“ ab. Hier steht der p-Wert des Levene-Tests. Er ist in diesem Fall 0,913, also nicht signifikant (>0,05). Es gibt also keinen signifikanten Unterschied in den Varianzen zwischen den drei Gruppen. Wir können also von Varianzhomogenität ausgehen und dürfen die ANOVA durchführen.

Ergebnis der ANOVA

In der zweiten Tabelle „ANOVA“ steht nun das eigentliche Ergebnis der Varianzanalyse. Interessant ist vor allem die erste Zeile „Zwischen den Gruppen“. In der letzten Spalte „Sig.“ steht der p-Wert. In diesem Beispiel ist p gleich 0,025, also signifikant (p<0,05). Das bedeutet, dass es einen signifikanten Unterschied zwischen den drei Gruppen gibt.

Formulierung laut APA-Styles

Dieses Ergebnis wird laut APA-Styles so aufgeschrieben: F(2,12)=5.119, p=.025

Alles Zahlen dazu finden Sie in der zweiten Tabelle. Die Zahlen 2 und 12 in Klammern sind die Freiheitsgrade, Spalte „df“ (df=degrees of freedom). Der Wert 5.119 ist die Teststatistik (F-Wert) und steht in der Spalte „F“. Der p-Wert .025 steht in der letzten Spalte „Sig.“.

Und was kommt jetzt? Post-Hoc Tests, Abbildungen und Interpretation

Das Ergebnis ist in dem Beispiel signifikant. Es gibt einen signifikanten Unterschied zwischen den drei Gruppen. Um herauszufinden, wo genau dieser Unterschied liegt, sollten Paarvergleiche durchgeführt werden (Post-Hoc-Tests). Hier muss darauf geachtet werden, dass das Signifikanzniveau gegebenfalls angepasst werden muss (z.B. Bonferroni-Holm-Korrektur).

Außerdem wird das Ergebnis natürlich schön dargestellt, z.B. mit gruppierten Boxplots und die Mittelwerte und Standardabweichungen angegeben, um auch die Richtung des Unterschieds interpretieren zu können.

Wenn Du Interesse hast, die Analyse für Deine Abschlussarbeit mit SPSS von mir angeleitet und in der Gruppe umzusetzen, dann ist der in 2017 startende Onlinekurs für Dich interessant. Hier kannst Du Dich genauer informieren!

134 Gedanken zu “Die einfaktorielle Varianzanalyse in SPSS: Output, Darstellung, Interpretation

  1. Hallo Frau Keller,

    tolle Seite und ein informativer Blog. Ich habe eine kurze Frage zur VA. Ich sitze gerade an einer VA, allerdings einer mehrfaktoriellen. Dort habe ich insgesamt 8(!) Faktoren, die 2 bzw. 3 Faktorstufen haben. Wenn ich da ein vollständiges Modell rechne, ist mein Homogenitätstest immer signifikant. Wenn ich ein bestimmtes Modell zusammenstelle und dann dort nur die Haupteffekte reinnehme sind einzelne Haupteffekte signifikant – wäre auch plausibel. Wenn ich alle möglichen paarweisen Wechselwirkungen zusätzlich mit ins Modell nehme, ist zwar keine Wechselwirkung signifikant, dafür aber auch kein Haupteffekt mehr.

    Wie kann ich denn nun am einfachsten prüfen, ob ggf. irgendwo Wechselwirkungen stattfinden. Reicht es aus, hierfür die Interaktionsdiagramme zu sichten und zu gucken, ob die Linien hier parallel laufen, oder müssen in jedem Fall die Interaktionen (auch wenn sie nicht signifikant sind) in das Modell mit aufgenommen werden? Haben Sie hier einen Tipp?

    Viele Grüße und einen schönen Sonntagabend
    Michi

    • Hallo Michi,
      in Ihrem Fall vermute ich, dass das Modell mit allen Interaktionen zu komplex für die Daten ist. Deshalb kommen keine sinnvollen Ergebnisse mehr heraus. Ich würde mich langsam an das endgültige Modell anpassen und für jede Interaktion ein eigenes Modell rechnen, das alle Haupteffekte und eine einzige Interaktion enthält. Dort entscheiden Sie dann, ob diese Interaktion ins komplette Modell kommt (wenn sie hier signifikant ist) oder nicht. Zusätzlich können Sie die Interaktionen auch grafisch über die Interaktionsdiagramme beurteilen, wie Sie schon vorgeschlagen haben.
      Schöne Grüße
      Daniela Keller

      • Vielen Dank für die Antwort. Das ging ja total schnell 🙂

        Wäre es auch denkbar, dass ich ein Modell mit meinen Haupteffekten rechne und hierbei ausschließlich mittels Interaktionsdiagramm prüfe, ob da Interaktionen vorliegen? Falls das nicht so ist, könnte ich doch darauf verzichten, die Interaktionen in mein Modell aufzunehmen, oder?

        Viele Grüße und einen schönen Abend.
        Michi

        • Ja, das ist auch möglich. Es kann allerdings auch passieren, dass die Diagramme Interktionen zeigen, die laut Berechnung nicht signifikant sind. Dieser Fall wird dann nicht aufgedeckt, wenn die Interaktion nicht im Modell mit berechnet wird.

          • Vielen Dank für die tolle Hilfe. Wäre echt super, wenn meine Dozenten an der Uni auch so reagieren würden.

            Viele Grüße

          • Hallo,

            noch eine letzte Frage:

            Verlaufen die Diagramme eigentlich immer parallel, wenn keine Interaktionen in das Modell einbezogen werden?

            Oder sind die Diagramme nur dann nicht parallel, wenn tatsächlich Interaktionen vorliegen (auch wenn sie nicht ins Modell einbezogen wurden)?

            Mir ist nämlich aufgefallen, dass die Diagramme – solange ich keine Interaktionen in das Modell aufnehme – perfekt parallel laufen. Sobald aber eine Interaktion hinzunehme, selbst wenn diese sich als nicht signifikant erweist, kreuzen sich die Diagramme.

          • Hallo,

            ja. Wenn keine Interaktion im Modell enthalten ist, dann können die Profilplots die Interaktion auch nicht überprüfen. Sie müssen also das Modell mit Interaktion rechnen, dort die Profilplots ansehen und dann danach entscheiden, ob Sie für das endgültige Modell die Interaktion drin lassen oder nicht.

            Schöne Grüße
            Daniela Keller

  2. Hi!

    Ziemlich coole Seite. Hier wird so viel Interessantes erklärt. Ich bin bei meiner Suche auf diesen Blog aufmerksam geworden. Diana, du scheinst echt richtig Plan zu haben!

    Darf ich auch eine Frage stellen?
    Ich habe auch eine Varianzanalyse gerechnet aber mit zwei Faktoren. Da scheints eine so genannte „disordinale Interaktion“ zu geben. Die Linien kreuzen sich in beiden Diagrammen.

    Darf ich dann trotzdem die „deskriptive Statistik“ für die beiden Faktoren verwenden? Also z.B. die Mittelwerte. Oder ist das wegen der Wechselwirkung verboten?

    Denn eigentlich bezieht sich die Wechselwirkung ja nur auf den Effekt, also quasi den Erklärungsbeitrag für meine abhängige Variable. Oder?

    Euch allen einen schönen Tag
    Thom

    • Hallo Thomas,

      wenn es eine disordinale Interaktion gibt, die signifikant ist, solltest Du diese auflösen und den Einfluss der einzelnen Faktoren unabhängig vom anderen Faktor betrachten. Das heißt im Klartext, dass Du die deskriptive Statistik gruppiert anschaust: wenn z.B. der eine Faktor Geschlecht und der andere Faktor Bildungsstand ist, dann schaust Du Dir die Mittelwerte für jeden Bildungsstand nur für die Männer und die Mittelwerte für jeden Bildungsstand nur für die Frauen an. Mit diesen gruppiert betrachteten Werten lassen sich die einzelnen Faktoren besser beschreiben, als wenn Du die Daten zusammenlässt. Wenn Du die kompletten Mittelwerte betrachtest, dann steckt da jeweils noch der Effekt des anderen Faktors drin und die Mittelwerte werden Dir nicht das zeigen, was Dich interessiert. Die Interaktion verwischt die anderen Effekte.
      Schöne Grüße
      Daniela

      • Hallo Daniela!

        Vielen Dank für den Tipp. Aber was, wenn meine Faktoren z.B. drei Stufen haben? Dann wird doch auch die Aufschlüsselung total verwirrend.

        Kann ich nicht einfach auch die Interaktionen weg lassen? :))

        Viele Grüße
        Thom

        • Wenn die Interaktion signifikant ist und disordinal, dann ist die Aufschlüsselung die einzige Möglichkeit, die Haupteffekte zuverlässig zu beschreiben. Wenn die Interktion nicht ins Modell aufgenommen wird, macht das das Ergebnis unzuverlässig, da sie ja eigentlich vorliegt.

  3. Hallo Frau Keller,

    ich habe eine kurze Frage. Auch ich sitze gerade an einer Varianzanalyse und frage mich folgendes. Der Levene-Test wird nicht signifikant, so lange ein paar Ausreißer/Extremwerte in meinen Daten enthalten sind. Wenn die Werte nicht drin sind, ist der Levene-Test OK.

    Ist es möglich, diese Werte auszuschließen oder handelt es sich dabei schon um „Manipulation“? Mich verwirren die vielen Angaben im Netz über „Manipulation“, da ich in vielen Standardlehrbüchern lese, dass man Ausreißer durchaus ausschließen darf, wenn die Ergebnisse sonst verzerrt sind.

    Die Ausreißer sind scheinbar über eine offen formulierte Frage zum Einkaufsbetrag zu Stande gekommen und liegen weit weit über allen anderen Werten und verzerren die Mittelwerte erheblich. Es sind jedoch nur ganz wenige Einzelfälle.

    Viele Grüße
    Jan

    • Hallo Jan,

      wie eben schon im anderen Kommentar beantwortet: Wenn die Ausreißer wirklich extrem sind und nicht zur Stichprobe passen (z.B. weil es unrealistische Werte sind, oder eben wie hier durch die offene Frage entstanden), dann können sie schon ausgeschlossen werden. Das muss aber dokumentiert und berichtet werden. Also nicht unter den Tisch fallen lassen. Eventuell zum Vergleich die Mittelwerte und Streuungen, Minimum und Maximum für die Daten mit und ohne Ausreißer angeben, dann wird das nachvollziehbar.

      Schöne Grüße
      Daniela Keller

      • Hallo Frau Keller

        Vielen Dank für die Antwort.
        Ich muss mir das mal genau angucken.

        Eine zweite Frage hätte ich auch noch. Ich habe insgesamt fünf Faktoren (mit 2-3 Stufen), bei denen sich insgesamt drei Wechselwirkungen zeigen. Mein n liegt bei 220. Nun habe ich schon oft von Stichprobengrößen gelesen.

        Aber ich habe ja eine Befragung durchgeführt. Kein Experiment. Da kann man das natürlich nicht alles so planen. Ist da meine Stichprobe überhaupt groß genug?

        Also die Ergebnisse wirken plausibel. Und mir viele auch sonst ehrlich gesagt kein anderes passendes Verfahren ein, um Mittelwertunterschiede zu finden.

        Viele Grüße
        Jan

        • Hallo Jan,

          das lässt sich nicht pauschal beantworten, wie groß die Stichprobe hier sein muss. Wenn die Voraussetzungen alle erfüllt sind (Normalverteilung, Varianzhomogenität…) und die Ergebnisse plausibel sind, müsste alles in Ordnung sein.

          Schöne Grüße
          Daniela Keller

          • Hallo Frau Keller,

            da bin ich nun aber beruhigt. Ich habe schon gedacht, dass ich die Varianzanalyse gar net rechnen darf.

            Kann es sein, dass man eine VA mit zu vielen Faktoren und zu wenigen VPN nicht rechnen *darf* oder muss man dann bei der Interpretation abstriche machen?

            Wünsche Ihnen einen schönen Abend
            Jan

          • Hallo,
            es kommt wieder darauf an, ob die Voraussetzungen erfüllt sind. Und die sind mit einer kleinen Fallzahl und vielen Faktoren schlecht zu halten: die Normalverteilung zum Beispiel muss dann für jede Merkmalskombination gelten. Durch die vielen Faktoren reduziert sich die Anzahl der Fälle pro Merkmalskombination aber sehr und dann wird es auch schwierig, hier mit normalverteilten Daten zu argumentieren.

            Schöne Grüße
            Daniela Keller

  4. Liebe Frau Keller,
    ich hoffe, ich darf das hier fragen.
    Ich schreibe momentan an meiner Dissertation.
    Ich habe 2 Untersuchungsgruppen (je 4 Unterrichtsklassen).
    Nun möchte ich herausfinden, ob sich der Leistungszuwachs in beiden Gruppen unterscheidet. Nehme ich dazu die einfaktorielle Varianzanalyse oder macht man das nicht, weil man dafür ja eigtl. mehr als zwei Gruppen braucht (stimmt das?). Also dann doch eher einen t-Test für unabhängige Stichproben?
    Viele Grüße von der Uni Regensburg
    Anna

    • Hallo Anna,

      ja, beim Vergleich von 2 Gruppen nehmen Sie den t-Test für unabhängige Stichproben. Die ANOVA brauchen Sie da nicht.

      SChöne Grüße
      Daniela Keller

  5. Hallo Frau Keller,

    sie haben im Text direkt unter der Ersten Tabelle geschrieben, dass der p-Wert nicht signifikant ist also >0,005. Im weiteren Textverlauf bei „Ergebnis der ANOVA“ heisst es nicht signifikant wenn >0,05.
    Ist es so richtig, dass bei dem Varianzhomogenitätstest (1.Tabelle) der p-Wert >0,005 sein soll oder ist das ein Tippfehler?

    Vielen Dank im Vorraus!

    Viele Grüße
    Victoria

    • Hallo Victoria,

      danke für den Hinweis! Das ist ein Tippfehler. Ich habe ihn bereits ausgebessert. Es gilt p signifikant wenn p<0,05. In beiden Fällen. Der Unterschied ist nur, dass man beim Test auf Varianzhomogenität ein nicht signifikantes Ergebnis sehen möchte, damit Varianzhomogenität vorliegt. Bei der eigentlichen ANOVA soll p signifikant sein, damit man einen signifikanten Unterschied nachgewiesen hat.

      Danke nochmal!
      Schöne Grüße
      Daniela Keller

  6. Hallo Frau Keller,

    haben Sie vielleicht auch ein Beispiel zum Welch-Test (also wie man ihn bei SPSS abliest?)
    Bis jetzt lese ich ihn so ab > nach der Auswahl Welch-Test erscheint bei SPSS
    ein Fenster mit der Überschrift „ANOVA“ dort betrachte ich die Werte „zwischen Gruppen“ + die dazugehörige Test-Statistik F, sowie den Signifikanzwert (in der gleichen Zeile)
    Anschließend schaue ich mir df „innerhalb von Gruppen“ an. Ist das korrekt?

    Viele Grüße

    Richard

    PS Schön es diese Seite gibt :). Vielen Dank!

    • Hallo Richard,

      wenn Sie den Welch-Test auswählen, wird er zusätzlich zur „normalen“ ANOVA berechnet. Das heißt, die Tabelle „ANOVA“ ist die normale Ausgabe der ANOVA, nicht der Welch-Test. Weiter unten finden Sie die Tabelle „Zuverlässige Tests“. Hier steht das Ergebnis des Welch-Tests. Hier lesen Sie die Teststatistik, die zwei Freiheitsgrade df1 und df2 und den p-Wert (Sig.) ab.

      Ich freue mich, dass Ihnen meine Seite gefällt!

      Schöne Grüße
      Daniela Keller

      • Hallo Frau Keller,

        vielen Dank für Ihre hilfreiche Antwort :).

        In diesem Zusammenhang ergibt sich für mich noch eine Frage. Wie kann es sein, dass eine ANOVA signifikant wird und Post-hoc-Tests keine signifikanten Ergebnisse aufzeigen? Leider fallen mir dazu keine Ursachen ein.

        Viele Grüße

        Richard

        • Hallo Richard,
          bei den Post-Hoc Tests werden – um das globale Signifikanzniveau zu halten – die p-Werte korrigiert. Die unterschiedlichen Methoden machen das auf unterschiedliche Art und unterschiedlich streng. Dadurch kann es sein, das nach einer signifikanten ANOVA kein Paarvergleich als Post-Hoc Test signifikant wird.
          Schöne Grüße
          Daniela Keller

          • Hallo Frau Keller,

            vielen Dank für Ihre hilfreiche Antwort 🙂

            Viele Grüße

            Richard

  7. Hallo Frau Keller, ich frage mich, was ich nun gemäß APA beim Welch Test berichte, doch nur die Ergebnisse aus der Welch Tabelle, oder? Die ANOVA darf doch nicht angegeben werden, wenn der Levene Test signifikant ist, oder bin ich auf der falschen Fährte. Es wäre nett, wenn Sie mir sagen könnten, wie der Welch Test gemäß APA berichtet wird. Lieben Dank! Viele Grüße Marion

    • Hallo Marion,
      das Ergebnis des Welch-Tests wird genauso präsentiert wie das Ergebnis der ANOVA, also „(F(df1, df2)=Statistik, p=Sig)“. Nur diese Zahlen werden anstatt aus der „ANOVA“-Tabelle aus der Tabelle „Zuverlässige Tests“ genommen.
      Schöne Grüße
      Daniela Keller

  8. Hallo Frau Keller,

    im Rahmen meiner Masterarbeit habe ich eine ANOVA und eine ANCOVA gerechnet. Dabei sind sowohl signifikante Haupteffekte, als auch signifikante Interaktionen herausgekommen. Die Post-Hoc Tests beschreiben dann genauer, wo die Unterschiede bei den Haupteffekten liegen. Gibt es auch die Möglichkeit quasi einen „Post-Hoc Test“ für die Interaktion zu rechnen, um zu gucken, welche Kombinationen den Unterschied ergeben oder guckt man sich dafür alleine die Abbildungen an. Ggf. es gibt hier auch ein rechnerisches Vorgehen, wäre das für eine MANOVA/ MANCOVA identisch?

    • Hallo,

      um die Interaktion genauer zu untersuchen, können Sie auf Untergruppen einzeln analysieren: nach einem Faktor die Daten aufteilen und dann auf jedem Teil der Daten den anderen Faktor mit ANOVA oder Paarvergleichen untersuchen.

      Schöne Grüße
      Daniela Keller

  9. Hallo Frau Keller,

    ich bitte um Hilfe für folgendes Problem:

    Im Rahmen meiner Dissertation vergleiche ich zwei Patientengruppen hinsichtlich eines Quotienten von Interleukin 6 und Interleukin 10. Diesen IL6/IL10-Quotienten habe ich für 4 verschiedene Zeitpunkte der Studie bestimmt.
    Nun denke ich, dass dafür ANOVA geeignet ist, komme jedoch damit nicht klar.

    Mein Ziel wäre, eine Grafik zu erhalten, die mir nebeneinander die Verläufe des IL6/IL10-Quotienten als Boxplot für die 4 Zeitpunkte visualisiert.

    Vielen Dank schon im Voraus für Ihre Hilfe!

    VG
    Markus Landinger

    • Hallo Herr Landinger,
      wenn Sie die Darstellung mit SPSS erstellen möchten, gehen Sie über Analysieren -> Deskriptive Statistik -> Explorative Datenanalyse. Dort geben Sie die Messungen zu den 4 Zeitpunkten als abhängige Variablen ein und die Gruppenvariable als Faktor. Dann gehen Sie auf Grafiken und klicken dort an, dass Sie einen Boxplot mit „abhängige Variablen zusammen“ erstellen möchten. Das müsste die Abbildung liefern, die Sie suchen.

      Schöne Grüße
      Daniela Keller

  10. Hallo Frau Keller,

    Ihr Blog ist sehr sehr hilfreich! Und trotzdem gibt es noch offene Fragen.

    Ich hab eine ANOVA durchgeführt mit drei Faktoren aus der Faktorenanalyse, Normalverteilung ist gegeben, keine signifikanten Ergebnisse beim Levene-Test, bei der ANOVA schon.
    Beim Scheffe-Test kommen signifikante Paare raus.
    z.B.: Im Faktor 3. sind die Unternehmen signifikant die über 80.000 Euro Gewinn haben sowie die Unternehmen die 10.0001-30.000 Euro Gewinn haben und die die 30.001 -50.000 Euro Gewinn haben.

    Was bedeutet das? Leider kann ich kein Bild beifügen, dann wäre mein Problem vielleicht verständlicher.

    Vielen Dank!

    Gisela

    • Hallo Gisela,
      können Sie mir einen Screenshot der Ausgabe der ANOVA und des Scheffe-Tests per Mail schicken?
      So verstehe ich im Moment nicht genau, wie Ihre Analyse aufgebaut ist und wie das Ergebnis aussieht.
      Schöne Grüße
      Daniela Keller

      • Hallo Frau Keller,

        ich möchte einen Mittelwertvergleich zwischen drei Gruppen rechnen und habe deswegen die Varianzanalyse gewählt. Der Levene-Test ist nicht signifikant (0.085), das Ergebnis der Varianzanalyse knapp auch nicht (0,067) (die Ergebnisse der aus Interesse durchgeführten post-hoc-Tests dementsprechend natürlich auch nicht).

        Rechne ich nun allerdings einen T-Test zwischen den zwei unterschiedlichsten Gruppen und lasse die dritte schweigend außen vor, bekomme ich ein signifikantes Ergebnis (Levene Test 0,044, T-Test 0,03 bzw. 0,001).

        Wie können diese Unterschiede erklärt werden? Ich bin mir nun sehr unsicher, ob zwischen den Gruppen ein signifikanter Unterschied besteht oder ob keiner besteht.

        Vielen Dank im Voraus für eine kurze Info!

        Viele Grüße

        • Hallo Jerry,
          hm, es besteht wohl nur ein deutlicher Unterschied zwischen den extremsten Gruppen. Dass der bei Post-Hoc Tests nicht signifikant wird, kann daran liegen, dass bei den Post-Hoc Tests das Fehlerniveau korrigiert wird, damit insgesamt der Fehler von z.B. 5 % eingehalten wird (siehe auch mein Blogbeitrag dazu). Die ANOVA ist ja nicht weit vom Signifikanzniveau entfernt. Was mich eher wundert ist der sehr kleine p-Wert 0,001 im Vergleich zu dem der ANOVA. Wie sieht es denn mit den Voraussetzungen (Normalverteilung) aus? Ist die gegeben?
          Schöne Grüße
          Daniela

          • Hallo Daniela,

            vielen Dank für die schnelle Hilfe!

            Ich habe die Normalverteilung tatsächlich nicht bedacht. Schon der Test der ersten Gruppe ergab beim KS-Test ein Signifikanzniveau von <0,05. Dementsprechend habe ich den Drei-Gruppen-Vergleich mit dem Kruskal-Wallis-Test gerechnet (Sig. 0,014). Der Post-Hoc-Test in SPSS ergab für die beiden extremsten Gruppen dann Sig. 0,011.

            So dürfte es nun also stimmen, oder?

            Viele Grüße

  11. Hallo,
    leider konnte ich bei den vielen hilfreichen Hinweisen Ihrer Seite keine Antwort auf folgende Fragen finden:
    1. wenn ich bei meiner einfaktoriellen Varianzanalyse mit normalverteilten Variablen einen signifikanten Levene-Test (p = ,005), dürfte ich dann die Ergebnisse der ANOVA (p = ,003), Welch-Test (p = ,003) und Post-Hoc (Tukey) nicht berücksichtigen??? Wenn doch, wie interpretiere ich dann meine Ergebnisse? Wenn nicht, was für Alternativen bieten sich mir dann???
    Vielen Dank schon einmal dafür, dass Sie sich diese Mühe hier machen,
    Conny

      • Hallo Frau Keller,
        ich habe ein ähnliches Problem. Allerdings bei der univariaten Anova mit 2 unabhängigen Variable mit jeweils 2 Ausprägungen und einer abhängigen Variable.
        Was macht man bei einer univariaten ANOVA, wenn der Levene’s Test signifikant ist? Hier kann man ja keine Tests auswählen, wenn keine Varianzhomogenität gegeben ist (grau hinterlegt). Vielen Dank für die Hilfe, Maren

        • Hallo Maren,
          bei SPSS kann man hier zwei Anpassungen auswählen, die bei fehlender Varianzhomogenität zu verwenden sind: Welch oder Brown-Forsythe. Das muss nur vorher aktiviert werden.
          Gruß
          Daniela

  12. Hallo Frau Keller,
    ich habe noch eine weitere Frage zur einfaktoriellen Varianzanalyse….
    Wenn ich beim Vergleich von 4 Gruppen (Normalverteilung ist gegeben), Levene-Test ist nicht signifikant (p = ,937) in der ANOVA eine Signifikanz (F(3;71) = 2.849, p = ,043 habe, (Welch-Test nicht signifikant, p = ,130) und sich im Post-Hoc (Tukey) keine Angaben finden, die die Unterschiede signifikant werden lassen, kann ich dann die Ergebnisse eines nachträglich angesetzten LSD bzw. Games-Howell verwenden, da diese positiv wurden??? Und müsste ich dann auch all meine anderen Tests, die im Tukey signifikant wurden, mit den Ergebnissen von LSD + Games-Howell erweitern???
    Sonnige Grüße,
    Conny

  13. Hallo Frau Keller,

    nachdem ich für meine Abschlussarbeit eine ANOVA mit Messwiederholung gerechnet habe, geht es an das Berichten der Ergebnisse und ich habe 2 dringende Fragen.

    1. Die Ergebnisse (F Wert, p- Wert und 2x df) entnehme ich der SPSS Output Tabelle „Innersubjekteffekte“. Ist das richtig?

    2. Woher entnehme ich, ob der p-Wert mit einem oder = Zeichen angegeben werden muss?

    Gruß Verena

    • Hallo Verena, du liest den p-Wert aus genau dieser Tabelle und gibst ihn so an. Wenn da bei der Spalte „Sig.“ z.B. .002 steht, schreibst du p=0,002. Oder du schreibst p<0,05, wenn du nur angeben möchtest, ob er signifikant ist oder nicht.

  14. Hallo Frau Keller,

    Ich hätte ein paar Fragen bezüglich der Berechnung einer zweifaktoriellen ANOVA.
    Die beiden unabhängigen Variablen sind Gruppe ( KG(n=24) und VG(n=26)) und Bedienung (2 Kategorien) sowie eine AV.
    1.
    Nun haben wir nachträglich die VG jenach Übungsintensität in 3 Kleingruppen aufgeteilt (n=6, n=8,n=12). Bei der Überprüfung der Normalverteilung bekomme ich häufiger das Ergebnis, dass die Stichproben (KG vs. VG) nicht normalverteilt sind (–> Ausweichung auf nonparameterische Verfahren) aber die vier Gruppen normalverteilt sind. Nun weiß ich nicht ob ich da dann trotzdem die Varianzanalyse rechnen soll. Eigentlich sind sie ja keine Zufallsstichprobe und es sind ja auch sehr unterschiedliche Gruppengrößen…. ? Könnte ich das damit argumentieren, dass ich immer den Kruskal-Wallis-Test verwende (?)

    2. reicht es aus für die zweifaktorielle VA die Normalverteilung und die Varianzenhomogenität zu überprüfen ? Man liest immer wieder von weiteren Voraussetzungen aber tatsächlich werden sie selten erwähnt

    3. Muss ich die Normalverteilung nur in der Gruppe oder auch für die Bedingung überprüfen.Bei der VA mit Messwiederholung muss dies ja für jeden Zeitpunkt geschehen (?)

    4. Würden sie bei N = 50 (n=26, n=24) empfehlen immer die Varianzanalyse zu rechnen,wenn die Normalverteilung nicht gegeben ist aber die Varianzenhomogenität. Es wird im Fields immer erwähnt, das das Verfahren robust ist aber im Zweifel sind die nonparamterischen Verfahren ja die bessere Alternative dann oder ?

    Vielen Dank für ihre tolle Seite und die vielen Anregungen, die man hier findet.

    • Hallo Jannika,
      wenn die Voraussetzungen nicht sicher erfüllt sind, und du eine Alternative hast (z.B. statt der einfaktoriellen ANOVA den Kruskal-Wallis-Test), dann würde ich diese Alternative nehmen.
      Wenn du eine zweifaktorielle ANOVA rechnen willst, hast du keine nichtparametrische Alternative. Da würde ich nochmal genau hinsehen, welche Voraussetzungen erfüllt sind und welche nicht (Normalverteilung am besten mit QQ-Plots prüfen statt mit Tests) und dann eventuell die ANOVA auch bei Verletzung rechnen mit dem Hinweis darauf, dass sie robust ist auf Verletzung der Normalverteilungsannahme. Zudem besteht auch die Möglichkeit, Bootstrapping in so einem Fall anzuwenden.
      Die Voraussetzungen für die ANOVA sind Normalverteilung in jeder Gruppen/Messwiederholungskombination, Varianzhomogenität zwischen den Gruppen und Sphärizität bei der Messwiederholung.
      Schöne Grüße
      Daniela

      • Liebe Daniela,
        ich verfolge Deine Beiträge und bin total begeistert! Mit vielen Tips bin ich schon echt weiter gekommen!
        Ich habe nun das Problem, dass ich bei meiner zweifaktoriellen Varianzanalyse (2×2 within sybject design) gerne die Voraussetzungen in SPSS überprüfen möchte. Wie ich das mit der Normalverteilung mache, ist mir bereits klar. Aber ist es korrekt, dass ich bei jeweils nur zwei Faktorstufen die Sphärizität vernachlässigen kann? Und wie überprüfe ich in SPSS die Voraussetzung der Varianzhomogeniät?
        Schon mal ganz lieben Dank für die Hilfe.
        Viele Grüße,
        Katha

        • Hallo Katha,
          das freut mich, dass meine Tipps dir so gut helfen!
          Bei einer Messwiederholungsanova brauchst du keine Varianzhomogenität zu prüfen, dafür gibt es hier die Sphärizität. Varianzhomogenität wird nur bei einem Gruppenfaktor geprüft.
          Und ja, bei 2 Faktorstufen fällt die Prüfung der Sphärizität weg. Die Sphärizität ist die Varianzgleichheit bei allen paarweisen Differenzen. Da du nur 2 Stufen hast, gibt es nur eine Differenz und deshalb wird da keine Varianhgleichheit geprüft.
          Schöne Grüße
          Daniela

  15. Hallo Daniela,

    super Homepage hast du da ;-)! Ich hätte mal eine Frage an dich und zwar habe ich 2 Datensätze bzw. einen Datensatz mit Probanden (X1) und der andere Datensatz ist die Kontrollgruppe! Wenn ich jetzt die zwei Gruppen (Probanden und Kontrollgruppe) aus den Datensätzen bezüglich einener Variable vergleichen möchte bzw. die Unterschiede sehen mächte (bspw. Anzahl der Verstöße gegen das Gesetz) wie muss ich dann vorgehen? Ich muss doch zunächst eine neue Maske erstellen oder? Wie mach ich das denn am Besten? Habe jetzt mal die Variable von der Kontrollgruppe und die Variable von den Probanden in eine neues SPSS Maske eingefügt aber irgendwie weiß ich dann bei der einfaktorielle Varianzanalyse nicht, welche Variable ich wo nehemen soll und irgendwie fehlt da glaub was (Habe irgendwo gelesen man braucht eine Gruppenvariable?). Kannst du mir da irgendwie weiter helfen, habe schon einiges gelesen aber ich steh grad irgendwie auf dem Schlauch. Liebe Grüße und Danke

    • Hallo Nina,
      du brauchst einen Datensatz, in dem alle Daten stehen. Jede Person hat eine Zeile, die Messungen einer Variablen (z.B. Anzahl Verstöße) stehen alle untereinander sowohl die von den Probanden als auch die von der Kontrolle in einer Spalte und in einer Variablen definierst du die Gruppe (Proband oder Kontrolle). Das ist auch die Variable, die du dann in der Analyse als Gruppenvariable nimmst.
      Wenn du nur 2 Gruppen vergleichst, brauchst du übrigens keine ANOVA, sondern den t-Test (vorausgesetzt es liegt Normalverteilung vor, falls nicht, dann den Mann-Whitney U).
      LG
      Daniela

      • Danke, du hast mir sehr weiter geholfen 🙂 hattte irgendwie voll den Denkfehler :-P!!! Darf man die Anova bei 2 Gruppen dann trotzdem nehmen oder ist das dann falsch? LG

  16. Hallo Daniela!

    Danke für deine Unterstützung.

    Ich habe mit SPSS ein „zweifaktorielle ANOVA mit Messwiederholung (zAM)“ Test erstellt.
    Unabhängige Variable „Jahr“ mit zwei Gruppe: 2012 und 2014 (numerisch nominal)
    Abhängige Variablen „Zeitpunkte“ mit 7 Zeiträume: 0h 12h 24h … 72h (numerisch skala)

    Voraussetzungen: Normalität, Varianz Homogenität und Spherizität sind verletzt und ich suche deshalb ein Nichtparametrische Ersatz für ein zAM und dazugehörigen Post Hoc.

    Wäre ein „Friedmans zweifaktorielle ANOVA nach Rang (k-Stichproben)“ der richtige Test?
    Falls ja, mit welchen Post Hoc dazu?

    Herzlichen Dank.

    • Hallo,

      deine Messwiederholung sind die 7 Zeitpunkte, oder? Und was ist deine abhängige Variable? Was misst du?

      Wie hast du die Normalverteilung überprüft? Die Tests auf Normalverteilung sind oft zu streng. Versuche es mal mit einem Q-Q-Diagramm. Außerdem könnte auch eine Transformation helfen, dass doch Normalverteilung vorliegt. Vielleicht sind dann auch Varianzhomogenität und Spherizität besser erfüllt. Mit welcher Software rechnest du? „Friedmans zweifaktorielle ANOVA nach Rang“ klingt richtig, ich weiß aber nicht, in welcher Software es sie gibt und wie sie da umgesetzt wird, kann also keine Empfehlung dazu geben. Bei den Post-Hoc Tests kommt es dann wieder darauf an, woran du genau interessiert bist, an welchen Vergleichen.

  17. Danke für die schnelle Rückmeldung!

    Ja Genau 7 Zeitpunkte sind die Meßwiederholung; ein Laborparameter (z.B.: Kalzium) ist je 12h gemessen worden. Es ist 1 abhängige Variable mit 7 Stichproben/Stufen.
    Diese Laborparameter sind von 2 verschiedenen Gruppe gemessen worden. Es ist 1 unabhängige Variable mit 2 Gruppe/Stichproben (Jahr 2012 und Jahr 2014).
    Laborparameter wird verglichen zwischen Gruppen und zwischen Zeitpunkte. Die Hauptvergleich ist zwischen die zwei Gruppe „Jahr“.

    Ich habe SPSS benutz um die Normal Verteilung zu überprüfen.
    QQ Diagramm zeigen alle Punkte entlang die Normalverteilung Linie bis auf die Ende die sich ein bisschen abweicht.
    Es ist mir noch unklar wie ich am bestens die Transformation durchführen soll ohne die Daten zu verfälschen.

    Mit den Post Hoc möchte ich finde auf welchen Zeitpunkte hat sich den Laborparameter am meistens geändert (12h? 24h?… 72h?)

    Ich suche weiter ein weg den „Friedmans zweifaktorielle ANOVA nach Rang“ mit SPSS durchzuführen.

    Herzlichen Dank

    • Hallo, wenn die QQDiagramme gut aussehen (die Punkte liegen nahe an der Geraden), dann hast du annähernd Normalverteilung und kannst die ANOVA verwenden. So wie du deine QQ-Diagramme beschreibst, klingt das ganz gut. Eine Transformation würde da wohl nichts verbessern.

      Wenn dich bei den Post-Hoc Tests der Vergleich zwischen jeweils zwei Zeitpunkten interessiert, kannst du z.B. gepaarte t-Tests jeweils zwischen den zwei Zeitpunkten rechnen. Entweder für beide Gruppen (Jahre) gemeinsam, oder getrennt. Kommt aber auf die genaue Fragestellung an.

      Die Friedman zweifaktorielle ANOVA gibt es soweit ich weiß nicht in SPSS.

      Schöne Grüße
      Daniela

  18. Hallo Frau Keller,

    momentan schreibe ich meine Masterarbeit und muss eine univariate Varianzanalyse durchführen. Meine Frage dreht sich vor allem um die Interpretation der Werte. Was sagt mir der F-Wert denn genau? Ich kann leider nur widersprüchliche Information dazu finden, wie er interpretiert wird. Ich habe bereits davon gelesen, dass er etwas über die Testsignifikanz aussagt. Nur, was ist dann der Unterschied zu p?

    Ich hoffe meine Frage ist nicht zu laienhaft, eigentlich komme ich aus einem anderen Fachgebiet und kenne mich im Statistikbereich nicht wirklich gut aus.

    Vielen Dank für die Hilfe.
    Carmen

    • Hallo Carmen,
      der F-Wert ist die Teststatistik. Aus ihr und den Freiheitsgraden (df) wird der p-Wert ermittelt. Direkt interpretieren musst du den F-Wert nicht, er soll aber der Vollständigkeit halber beim Ergebnis in der Arbeit mit angegeben werden (die Freiheitsgrade auch). Es reicht für das Ergebnis, wenn du den p-Wert betrachtest (signifikant oder nicht). Für die Richtung des Unterschieds kannst du dann die Mittelwerte oder einen Boxplot betrachten.
      Schöne Grüße
      Daniela

  19. Hallo Frau Keller,

    ich habe eine mehrfaktorielle Varianzanalyse mit Messwiederholung berechnet. Als Innersubjektfaktoren habe ich zwei jeweils 3stufige Faktoren, als Zwischensubjektfaktoren habe ich das Geschlecht der Probanden und das Alter (aufgteilt in 2 Gruppen) einbezogen.
    Nun möchte ich die Gesamtmittelwerte und Standardabweichungen dieser Gruppen berichten. Leider finde ich in der SPSS-Ausgabe nur die Mittelwerte mit Standardfehler der Gruppen. Die SD wird nur einzeln für meine neun verwendeten Variablen ausgegeben.
    Wie kann ich denn an die Gesamt-SDs der Mädchen und Jungen bzw. der drei Altersgruppen kommen?
    Gibt es Einstellungen, damit mir für die Gruppen ein Gesamtmittelwert + Standardabweichung über mehrere Variablen ausgegeben wird?

    Vielen Dank und schöne Grüße,
    Lisann

    • Hallo Lisann,
      willst du alle Messwiederholungen in einen Topf schmeißen und daraus die Mittelwerte und SDs berechnen? Dann geht das wohl am besten, wenn du die Daten (Messwiederholungen) alle in der Datendatei untereinander in eine Spalte kopierst (in einen neuen Datensatz, um die Originaldaten nicht zu ändern). Oder willst du für jede Person einen Mittelwert über die Zeit bilden und dann für diese Durchschnittswerte die deskriptiven Werte berechnen? Dann kannst du eine neue Variable in SPSS als MIttelwert aus den Messwiederholungen berechnen und diese dann analysieren.
      Schöne Grüße
      Daniela

  20. Hallo Frau Keller,

    auch ich habe eine Frage. Ich habe mit SPSS eine repeat meassures ANOVA durchgeführt.
    Unabhängige Variable Gruppe mit den Ausprägungen A,B,C und D
    Abhängige Variable: gemessene Zeit.
    Innersubjektfaktor Messwiederholungen 1-14
    Zwischensubjektfaktoren: Gruppe
    In dem Versuch habe ich 4 verschieden Gruppen von Mäuse jeweils 14 mal über einen Balken laufen lassen und dabei die Zeit gestoppt. Mit der ANOVA wollte ich messen, ob es einen Unterschied über die Zeit (Messwiederholugen) gibt und ob es eine Interaktion zwischen Gruppe und Messwiederholung gibt. Wenn es signifikant ist, habe ich t-Test mit Bonferroni angeschlossen als post hoc.
    In meinem SPSS output ist beim Test der Innersubjekteffekte die Messwiederholung signifikant, die Interaktion Messwiederholung-Gruppe aber nicht (p=0.291). Trotzdem hat SPSS eine post hoc Test durchgeführt, der auch signifikanze Unterschiede zwischen allen Gruppen zeigt.
    Wie muß ich das interpretieren? Ich darf doch eigentlich den post hoc gar nicht durchfähren, wenn die Wechselwirkung nicht signifikant ist?

    Vielen Dank und viele Grüße,
    Nadine Scholz

    • Hallo Nadine,
      der Post Hoc Test hat die Gruppenunterschiede geprüft, oder? Nicht die Interaktion? Dann vermute ich, dass der Haupteffekt der Gruppe vorher in der ANOVA auch signifikant war. Dann passt das.
      Schöne Grüße
      Daniela

      • Hallo Frau Keller,
        ja, post hoc testet die Unterschiede zwischen den Gruppen, wenn vorher die InteraktionGruppe-Messwiederholung signifikant war. Wo sehe ich denn den Haupteffekt der Gruppe in meinem SPSS Output?

        Vielen Dank für Ihre Hilfe und viele Grüße,
        Nadine

        • Der Haupteffekt der Gruppen steht in einer anderen Tabelle weiter unten im SPSS-Output („Zwischensubjekteffekte“). Ein Post-Hoc Test auf Unterschiede zwischen den Gruppen macht SInn, wenn dieser Haupteffekt signifikant war.
          Schöne Grüße
          Daniela

  21. Liebe Frau Keller,
    darf ich Ihnen über einen bestimmten Aspekt der ANOVA eine Frage stellen, über die ich mir schon lange den Kopf zerbreche und auch nach Literaturrecherche keine Antwort finde?
    Wenn ich eine zweifaktorielle ANOVA berechne, kann ich mir die geschätzten Randmittel ausgeben lassen (z.B. für einen signifikanten Haupteffekt). Diese stimmen nicht exakt mit den Mittelwerten aus der Stichprobe (in SPSS in der Tabelle „deskriptive Statistiken“ bei einer ANOVA) überein, weichen teilweise sogar größer davon ab. Berichtet man in einer Arbeit die geschätzten Randmittel oder die Mittelwerte? Ganz ähnlich: Zur grafischen Veranschaulichung: Verwende ich die geschätzten Randmittel mit den entsprechenden Standardfehlern oder die Schätzungen aus der Stichprobe (Mittelwerte und Standardabweichungen)? Wissen Sie darauf eine Antwort?
    Viele Dank schon mal!
    Marion

    • Hallo Marion,
      bei der zweifaktoriellen ANOVA spielen zwei Faktoren ins Modell hinein. Bei der deskriptiven Analyse hast du immer nur nach einem Faktor gruppiert. Deshalb können die Werte voneinander abweichen. Ich würde die deskriptiven Werte berichten.
      Schöne Grüße
      Daniela

  22. Hallo Fau Keller,

    danke schonmal für die vielen Tipps auf Ihrem Blog.
    Ich arbeite gerade an einer mehrfaktoriellen Varianzanalyse, bei der leider die Varianzhomogenität nicht gegeben ist. Trotzdem würde ich gerne die Ergebnisse interpretieren (und auf die Robustheit der ANOVA gegen die Verletzung der Annahmen verweisen). Doch gibt mir SPSS beim Test der Zwischensubjekteffekte für den F-WErt un die Signifikanz fast keine Werte in der Tabelle aus, sondern nur Punkte. Nur für das korrigierte Modell und den konstanten Term gibt es Werte. Können Sie mir sagen was das zu bedeuten hat? -> Ausreißer habe ich bereits ausgeschlossen und bin am Ende mit meinem Wissen.

    Herzlichen Dank
    Clara Schrenk

    • Hallo Clara,
      darauf kann ich mir im Moment auch keinen Reim bilden. Kannst du mir mal einen Screenshot von der Tabelle per Mail schicken?
      Schöne Grüße
      Daniela

  23. Hallo Frau Keller,
    Bei der Untersuchung von ERP- Daten durchliefen die Probanden 3 Bedingungen. Die Varianzanalyse zeigte einen signifikantes Ergebnis. Anschließend wurde als Post- Hoc Test der Scheffe- Test eingesetzt.
    Meine Frage ist nun, in welcher Weise ich die Ergebnisse des Scheffe- Tests berichte.
    Vielen Dank schon einmal,

    Annika

    • Hallo Annika,
      wie sieht denn die Ausgabe aus? Bei SPSS würde ich für jeden Vergleich die Differenz, das Konfidenzintervall dazu und den p-Wert berichten.
      Schöne Grüße
      Daniela

  24. Liebe Frau Keller,

    Ich habe eine Frage zur Überprüfung einer Hypothesen (Zulassungsarbeit).
    Ich habe 12 Items (Fragen), die zu einer Kategorie (Wettkampf-Orientierung) gehören. Ich möchte jetzt mit dem Mittelwert dieser 12 Fragen weiterarbeiten. Den Mittelwert habe ich erstellt, aber jetzt weiß ich nicht, wie ich damit weiter arbeiten kann.
    Der Mittelwert soll nämlich unterschiedlich mit der Schulart (4 Möglichkeiten) korrelieren.
    (Gar nicht so leicht zum Erklären, wenn man kein Experte ist…)
    Haben Sie mir da einen Tipp?

    • Hallo Lisa,
      ich vermute, du hast nun eine Spalte mit diesen Mittelwerten in deinen Daten (nenne ich nun abhängige Variable). Dazu eine Spalte mit der Schulart (z.B. kodiert als 1,2,3 oder 4). Dann willst du nun sehen, ob sich die abhängige Variable zwischen den Schularten unterscheidet? Mit welcher Software arbeitest du?
      Schöne Grüße
      Daniela

      • Wow, dass Du so schnell antwortest, habe ich nicht erwartet. Vielen Dank schon mal!!!!

        Ja genau. Ich möchte herausfinden, ob die Wettkampforientierung sich bezüglich der Schulart unterscheidet.
        Leider weiß ich nicht, wie ich mit dem errechneten Mittelwert weiterarbeiten kann.
        (Ich arbeite mit SPSS 21)
        Hättest Du einen Ratschlag für mich?
        Viele Grüße,
        Lisa

  25. Hallo Daniela,
    erstmal vielen Dank für diese übersichtlichen Statistik-Darstellungen und auch die kompetente Hilfe hier auf dieser Seite.
    Ich kämpfe immernoch mit fehlenden Messwerten, die eine Messwiederholungs-ANOVA quasi unmöglich machen, da so der Stichprobenumfang massiv reduziert würde. Ich lese immer wieder, dass in solchen Fällen „neuere statistische Methoden“ zur Anwendung kommen, wie linear gemischte Modelle und „generalized estimating equations“. Kannst du ein Buch oder eine Seite empfehlen, die auf solche Modelle übersichtlich eingehen? (Toll wäre natürlich, wenn du entsprechendes hier im Blog aufnehmen würdest, aber ich vermute, dass du schon viele andere Themen geplant hast und dieses sicherlich nicht oberste Priorität hätte).
    Viele Grüße
    Lena

    • Hallo Lena,
      ja, das ist ein interessantes Thema! Mal sehen, wann ich darüber mal etwas schreiben kann. Wenn du die Methode umsetzt, kannst du mir gern von deinen Erfahrungen berichten. Oft kommt das Thema in der Beratung nicht vor und Anwendungsbeispiele sind für mich immer super!
      Als Buch kann ich – wie so oft – Andy Field empfehlen: Discovering statistics using SPSS, 2013, Kapitel 20. 🙂
      Schöne Grüße
      Daniela

  26. Liebe Daniela,

    ich schlage mich mal wieder mit einem Problem herum und bin mir nicht sicher, ob ich den t-Test oder die ANOVA durchführen muss.

    Ich habe eine metrische AV und eine UV1 mit drei Ausprägungen (Dummies –> UV1a: trifft zu/ trifft nicht zu, UV1b: trifft zu/ trifft nicht zu sowie UV1c: trifft zu/ trifft nicht zu). Nun möchte ich untersuchen, wie sich die Mittelwerte der AV je nach Ausprägung der UV1 unterscheiden. Gleichzeitig soll in das Modell noch eine weitere UV (UV2) hineingebracht werden. Die Beispiel-Hypothesen wären demnach:

    H0: Bei Personen, die in der UV1a die Ausprägung 1 (d.h. UV1a trifft zu) und in der UV2 die Ausprägung 0 haben, ist die AV NIEDRIGER als bei Personen, die zwar UV1a=1, aber dafür UV2=1 haben.

    H1: Bei Personen, die in der UV1a die Ausprägung 1 (d.h. UV1a trifft zu) und in der UV2 die Ausprägung 0 haben, ist die AV HÖHER als bei Personen, die zwar UV1a=1, aber dafür UV2=1 haben

    D.h. Gibt es einen Unterschied in der AV je nach UV1 und UV2?

    Wie kann ich das untersuchen?

    Ich hoffe es ist einigermaßen verständlich geworden, was ich prüfen möchte.

    Ein großes Dankeschön im Voraus!

    LG

    • Hallo,

      wenn du genau nur diese Hypothese testen willst, kannst du einfach genau diese beiden Gruppen verwenden (in SPSS über „Fälle auswählen“). Du nimmst also nur die Fälle für die Analyse, die UV1a=trifft zu. Dann vergleichst du bei diesen Fällen die beiden Gruppen UV2=0 und UV2=1. Das geht dann mit t-Test.

      Wenn du die kompletten Fälle in ein Modell packen willst, wo dann deine hier formulierte Hypothese nur ein Teil davon ist, dann wäre das eine zweifaktorielle ANOVA mit einem Faktor UV1 und einem Faktor UV2. Da würdest du dann sehen, ob es einen Unterschied hinsichtlich UV1 gibt, ob es einen Unterschied hinsichtlich UV2 gibt (jeweils kontrolliert für den anderen Faktor), und ob es eine Interaktion zwischen den beiden gibt, ob also UV1 anders wirkt, je nach Level von UV2 (oder umgekehrt).

      Schöne Grüße
      Daniela

  27. Guten Tag
    Ich sitze momentan an einer Metaanalyse.
    Zusätzlich habe ich jeweils noch den n^2 (eta) wert…hängt der mit F zusammen?
    Wissen sie zufällig noch wie man die werte F, p, n^2 für eine Meta.. verwendet?
    Freundliche Grüsse

    • Hallo Oli,
      eta-quadrat ist das Effektstärkemaß der ANOVA, siehe auch Blogbeitrag hier: http://www.statistik-und-beratung.de/2015/07/effektstaerke/
      Es berechnet sich aus den Quadratsummen der ANOVA. Der F-Wert wird auch aus den Quadratsummen berechnet. Habe ich vor kurzem erst auf Facebook gepostet: „Statistik-Tipp: Wenn du eine ANOVA gerechnet hast, dir aber die Effektstärke eta-quadrat noch fehlt, kannst du sie ganz leicht selbst berechnen. Teile einfach die Quadratsumme des Faktors durch die Gesamtquadratsumme und du erhälst eta-quadrat.“ Verwendest du eine spezielle Software für die Meta-Analyse? Z.B. RevManager?
      Schöne Grüße
      Daniela

  28. Hallo Frau Keller,
    vielen Dank für die bisherigen Erklärungen. Ich habe die Fragen der anderen Nutzer und die dazugehörigen Fragen jeweils nur überflogen und hoffe deswegen, dass ich nicht eine bereits gestellte Frage wiederhole!
    Ich schreibe derzeit meine Bachelorarbeit und habe dafür mehrere (lineare) Regressionsanalysen mit SPSS durchgeführt. Aus der Gesamtheit meiner Beobachtungen (N=942) wurden mir sieben Ausreißer angezeigt. Diese habe ich bereits entfernt und eine weitere Regressionsanalyse durchgeführt.
    Mir ist bewusst, dass Ausreißer nur dann aus der Untersuchung herausgenommen werden sollten, wenn sie die Ergebnisse (Signifikanzen) verändern und diese Herausnahme dann statistisch oder inhaltlich begründet werden muss.
    Meine offene Frage ist jedoch, ab welcher Veränderung der Signifikanzen das Herausnehmen der Ausreißer als begründet angesehen wird. Ich habe sowohl einige kleinere Änderungen der Signifikanzen als auch größere Veränderungen, die das Signifikanzniveau ändern, vorliegen.
    Ich hoffe als grobe Darstellung des Problems ist das soweit ausreichend.
    Über eine Antwort wäre ich Ihnen sehr dankbar!

    Beste Grüße,
    Pascal

    • Hallo Pascal,
      für Regressionsmodelle gibt es Daumenregeln, die Ausreißer anhand Ihrer Standardfehler definieren. Hier sollte laut Andy Field (Discovering Statistics Using SPSS) kein Wert einen Standardfehler größer 3 oder kleiner -3 haben. Höchstens 1 % größer/kleiner 2,5/-2,5 und höchstens 5 % größer/kleiner 2/-2. Werte, die diese Regel nicht einhalten, kannst du also mit Hinweis auf diese Regel löschen.
      Schöne Grüße
      Daniela

  29. Liebe Frau Keller,

    ich hätte noch eine Frage zu der Post-hoc-Testung, hoffe sie wurde nicht schon in vorherigen Posts beantwortet.
    Hochbergs GT2 verwende ich, wenn die Gruppengrößen unterschiedlich sind sowie Varianzhomogenität vorliegt. Stimmt es, dass dieser Test keine händische Alpha-Fehlerkorrektur mehr verlangt, weil er sie ohnehin schon durchführt. Gibt es für die einzelnen Post hoc Testungen dann auch F-Werte mit Freiheitsgraden, die angeführt werden müssen, oder reicht es anzugeben, dass ein signifikanter Unterschied zwischen den Gruppen besteht; F (df1, df2) = xxxx, p =; und in einem weiteren Schritt nur unter Angabe des Signifikanzniveaus darauf hinzuweisen, welche Gruppen sich voneinander unterscheiden.

    • Hallo Elli,
      ja, bei allen schon in der Software implementierten Post-Hoc Tests muss keine händische Anpassung des Fehlerniveaus vorgenommen werden. Diese Anpassung ist schon enthalten, die p-Werte können direkt verwendet werden. Zur Darstellung: Wenn die Ergebnisse komplett von der Software ausgegeben werden, kannst du sie wie bei einer ANOVA berichten. Falls nicht, oder du wenig Platz in der Arbeit hast, verwendest du nur die p-Werte, bzw. was die Software ausgibt.
      Schöne Grüße
      Daniela

  30. Hallo,
    Ich wollte auch gerne etwas zu VA fragen.
    Ich verstehe noch nicht ganz den Zusammenhang was mir VA jetzt sagen möchte. Was verstehe ich darunter dass die varianz nicht gleich ist bei allen Faktoren? Und deshalb ein Unterschied in den Wirkungen wie im Beispiel besteht irgendwie habe ich den Sinn der Schritte nicht verstanden was sie jetzt genau einem sagen sollen.
    Lg

    • Hallo Linda,

      die Varianzanalyse untersucht, ob sich mehr als 2 Gruppen signifikant voneinander unterscheiden, ob also die Werte „im Schnitt“ unterschiedlich sind, ob die Gruppenvariable einen Einfluss auf die abhängige Variable hat …
      Schöne Grüße
      Daniela

  31. Hallo Frau Keller,
    vielen Dank für ihre tolle informative Seite!
    Auch ich habe eine Frage an Sie auf die ich leider einfach keine Frage finde.
    Ich habe sechs Gruppen á 3 Messwerte sowie eine Gruppe mit nur 2 Messwerten und würde gerne mit diesen 7 Gruppen den Scheffé-Test durchführen. Jedoch berechnen wir an meiner Uni erst ab drei Messwerten die Standardabweichung, mit zwei Messwerten berechnen wir die Range (größter Messwert – kleinster Messwert) als Abweichung. Da ist nun mein Problem: Der Scheffe-Test berechnet doch aus den zwei Werten der Gruppe auch die Standardabweichung und nicht die Range, oder? Ist das relevant für das Ergebnis?
    Ich danke schon mal für ihre Bemühungen,
    viele Grüße

    Bettina

    • Hallo Bettina,
      warum hast du vor, den Scheffe-Test zu verwenden? Ich kenne ihn als Post-Hoc Test für die ANOVA und da sollte Normalverteilung vorliegen. Bei den extrem kleinen Gruppen rate ich deshalb in deinem Fall davon ab. Warum nimmst du nicht eine nichtparametrische Methode?
      Schöne Grüße
      Daniela

  32. Hallo Frau Keller,
    ich bin unendlich froh und dankbar, dass ich auf Ihre Seite gestoßen bin. Viele Fragen konnten sich so für mich klären. Allerdings hätte ich noch eine Frage bezüglich der Voraussetzungen für die Angemessenheit der ANOVA, nämlich die Normalverteilung.
    Ich habe die Verteilung meiner AV in meinen 3 Experimentalgruppen überprüft. Zunächst mittels Histogramm, dann mittels Shapiro – Wilk und Kolmogorow – Smirnov Test. Mein Problem: der SW Test zeigt an, dass meine Daten normalverteilt sind. KS und Histogramm hingegen zeigen keine Normalverteilung.
    Sollte ich mich allein auf die Ergebnisse des Shapiro – Wilk Tests stützen (da dieser die sehr viel geeignetere Wahl zu sein scheint als der K – S Test) oder auf die Ergebnisse aus Histogramm und K – S Test?

    • Hallo Julia,
      das hängt auch immer von der Fallzahl ab, da die Tests abhängig von der Fallzahl sehr unterschiedlich reagieren. Ich empfehle aber IMMER, sich auch Q-Q-Diagramme anzusehen.
      Schöne Grüße
      Daniela

  33. Liebe Frau Keller,

    ich hätte auch eine Frage zu Gruppenvergleichen. Meine Daten scheinen (laut Shapiro-Wilk) leider nicht normalverteilt zu sein. Ich habe 2 UVs mit je 2 Ausprägungen und möchte prüfen, ob bestimmte natürliche Variable (z. B. Geschlecht, Alter u. a.) in meinen experimentellen Gruppen gleich häufig auftreten.
    Da es um Häufigkeiten geht, dachte ich an den Chi²-Test. Aber den kann man nur für die gesamte Stichprobe vornehmen, nicht aber für den Vergleich der durch die experimentelle Manipulation entstandenen Substichproben, oder?
    Herzlichen Dank vorab für Ihre Antwort und vielen Dank auch für diese hoch informative Seite !!

    Viele Grüße
    Eva

  34. Hallo Frau Keller,
    ich bin im Moment bei der Auswertung meiner selbst durchgeführten Untersuchung und habe dabei 3 Gruppen, die zu 14 Aussagen Stellung nehmen sollten: auf einer Skala von stimme ganz zu (1) bis stimme gar nicht zu (5). Habe daher zu jeder Frage die einfaktorielle Varianzanalyse durchgeführt. Dabei ist nur eine Frage bei der Auswertung signifikant. Was kann ich damit also ausdrücken bzw. in meiner Arbeit erklären? Wie ist es möglich, um den Rahmen nicht zu sprengen, auf jede Aussage einzugehen? Oder wäre es sinnvoll, dass einige Aussagen zusammengefasst werden?
    Und noch eine letzte Frage: muss ich für jede Aussage eine eigene Hypothese bilden, die dann entsprechend angenommen bzw. abgelehnt wird?
    Vielen Dank vorab!Damit hoffentlich einige Fragezeichen aus meinem Kopf verschwinden 😉
    Viele Grüße
    Chris

    • Hallo Chris,
      du kannst die Testergebnisse alle in einer Tabelle auflisten und im Text dann nur auf die interessanten eingehen, wenn du nicht genug Platz hast, oder auch mehrere Fragen gemeinsam zusammenfassend interpretieren. Und ja: Du brauchst für jede Aussage eine eigene Hypothese (nicht unbedingt einzeln aufgelistet), sonst bekommst du Probleme mit multiplem Testen. Für weitere spezielle Fragen kannst du meine Facebookgruppe Statistikfragen nutzen: https://www.facebook.com/groups/785900308158525/

      Schöne Grüße
      Daniela

  35. Hallo Frau Keller,

    danke zuerst mal. Ich bin nicht der größte Statistik-Crack unter der Sonne und habe mich riesig über die Seite hier gefreut. Sie hat mir bei meiner aktuellen Arbeit sehr geholfen. Also merci!

    Ich wende ebenfalls GT2 als Post-Hoc-Methode an und habe eine ähnliche Frage wie Elli weiter oben. Leider habe ich daraus noch keine Lösung ziehen können.

    Dem GT2 ging eine einfaktorielle ANOVA mit einer Faktorvariablen mit drei Gruppen voraus. Die gefundenen Unterschiede habe ich dann mit Post-Hoc test spezifischer differenzieren wollen.
    Ich habe bereits die Unterschiede durch GT2 identifiziert (p < .05 = Unterschied). Aber mir ist nicht klar, wie ich nun korrekt interpretieren, oder besser, einfach berichten soll. Bislang mache ich das mit der Mittelwertdifferenz, Standardabweichung und p (Beispiel: (M = 0.20, SD = 0.13, p = .353).

    Ist das korrekt, teil-korrekt oder gar Humbug?

    LG
    Christian Saßen

    • Hallo Christian,
      ja, das passt so. Zusätzlich halt noch die ANOVA selbst berichten.
      Schöne Grüße
      Daniela

  36. Hallo Frau Keller,

    ich sitze vor einem Problem. Ich habe eine Varianzanalyse mit 3 Faktoren gerechnet, mit 3, 3 und 2 Faktorstufen.

    Meine geschätzten Randmittel unterscheiden sich bei der Analyse der einfachen Haupteffekte (Paarweise Vergleiche) sehr von den deskriptiven Werten. Ich will die Ergebnisse in meiner MA berichten und weiß nicht, was genau ich berichten soll. Wenn ich die Ergebnisse mit den deskriptiven Werten berichte, klingt das in etwas so: Guppe A zeigte mehr Reue (M = 1.75, SD = 0.79) als Gruppe B (M = 2.05, SD = 0.81)….. Das macht ja keinen Sinn.

    Wie geht man mit so etwas um?

    Liebe Grüße
    Raphael

    • Hallo Raphael,
      dass sich die geschätzten Randmittel deutlich von den deskriptiven Werten unterscheiden kann an den unterschiedlichen Stichprobengrößen in den einzelnen Gruppen liegen, und natürlich auch am mehrfaktoriellen Design. Gibt es vielleicht auch signifikante Interaktionen?
      Schöne Grüße
      Daniela

      • Hallo Frau Keller,

        vielen Dank für die Antwort.

        Die Stichprobengrößen sind in der Tat sehr unterschiedlich, von 10 bis 200 ist da alles dabei.
        Es gibt auch 2 signifikante Interaktion jedoch immer nur zwischen 2 Faktoren.
        Ich könnte das Problem gewissermaßen umgehen, in dem ich das Alpha-Level auf p 5 zu Problemen führe können.

        • Alpha-Level auf .001 setze, dann würde die unsinnige Abweichung raus fallen, aber ich weiß nicht ob das sinnvoll ist.

          P.s der obige Kommentar wurde abgeschnitten

  37. Hallo Daniela,

    zunächst einmal tausend Dak für Ihren tollen Blog und die vielen, äußerst hilfreichen Informationen. Sie machen das wirklich toll und sind vielen eine große Hilfe mit Ihren Beiträgen.

    Ich habe auch eine Frage. Ich habe eine einfaktorielle Varianzanalyse gerechnet und bin etwas über die SPSS-Ausgabe verwundert. In dieser wird mir in der Tabelle ANOVA angezeigt, dass der Effekt signifikant ist, d. h. mindestens ein sign. Mittelswertsunterschied vorliegt.
    Wenn ich dann in den Posthoc-Test (Turkey) gehe, um zu sehen, zwischen welchen Gruppen der Unterschied signifikant ist, wird kein Unterschied als signifkant angezeigt.
    Wie muss ich das deuten? Was sind die Gründe dafür? Habe ich bei der Berechnung etwas falsch gemacht oder kann das vorkommen? Wie würde ich das dann in den Ergebnissen darstellen?

    Ich würde mich sehr über eine Antwort freuen und danke Ihnen bereits im Voraus!

    Liebe Grüße
    Aileen

    • Hallo Aileen,
      sind die p-Werte denn knapp? Grundsätzlich: ja, sowas kann vorkommen…
      Schöne Grüße
      Daniela

  38. Hallo Daniela Keller,
    im Rahmen einer Hausarbeit sollten wir vor einer ANOVA einen t-Test machen und ich bin mir nicht mehr ganz sicher ob meine Erklärung korrekt ist.
    Wir hatten pro Hypothese zwei Gruppen (MIttelwerte) miteinander verglichen von insgesamt vier unterschiedlichen Gruppen.
    Z.B. die vier Obstsorten Kirschen, Äpfel, Kiwis und Orangen werden hinsichtlich ihrer positiven Wirkung auf den Menschen betrachtet. Die Skala „positive Wirkung“ besteht aus 4 Subskalen (Zufriedenheit, Fitness, Leistungsfähigkeit und Gesundheit)

    > 2 mögliche Hypothesen könnten lauten :
    H1: Kirschen und Äpfel unterscheiden sich nicht bezüglich ihren positiven Beitrags zur Gesundheit.
    H2: Kiwis zeigen im Vergleich zu Orangen höhere Werte auf der Skala Zufriedenheit

    Mit einer Varianzanalysen würde man nur noch einmal schauen ob z.B. bei H1 die anderen Obstsorten Zusammenhänge mit der Subskala Gesundheit zeigen, die bei positiven Befunden mit Post-hoc-Tests abgesichert werden würden. Ist das so korrekt?

    Viele Grüße

    Ricardo

    • Hallo Ricardo,
      normalerweise geht man hier so vor: ANOVA für die Nullhypothese „Es gibt insgesamt keinen Unterschied zwischen den Obstsorten“. Wenn hier ein signifikanter Unterschied heraus kommt, geht man weiter mit Post-Hoc-Tests, mit denen man jedes Obstpaar einzeln vergleicht.
      Weitere Fragen können gern in meiner Facebookgruppe Statistikfragen diskutiert werden: https://www.facebook.com/groups/785900308158525/
      Schöne Grüße
      Daniela

  39. Hallo Frau Keller,
    ich vergleiche mit Hilfe der Varianzanalyse die Gruppe 1 mit der Gruppe 2, habe nur 60 Beobachtungen und vier Ausreißer (alle in Gruppe 1).
    Die Ausreißer sind durch eine offene Abfrage eines (akzeptablen) Einkaufspreises entstanden und geben keinen Hinweis auf ein fehlerhaftes Verständnis der Frage. Wenn ich die Ausreißer drin lasse, verzerren diese das Ergebnis. Wenn ich Sie eliminiere, kommt es aufgrund des geringen Stichprobenumfangs ebenfalls zu einer Verzerrung. Aus meiner Sicht wäre es sinnvoll, die vier Ausreißer auf einen Maximalwert zu begrenzen und dies auch so darzustellen (gewisse Subjektivität …). Ergänzend würde ich die Ergebnisse für die „Rohdaten“ und die „Rohdaten abzgl. der vier eliminierten Werte“ angeben, um den Einfluss weniger Beobachtungen auf das Ergebnis transparent darzustellen.

    Zu einer Anpassung auf einen „Maximalwert“ habe ich nirgendwo etwas gefunden… ist so etwas zulässig?
    LG Jens

    • Hallo Jens,
      ja, das ist zulässig. Solange Du das so transparent beschreibst, ist das völlig in Ordnung und eine gute Entscheidung!
      Schöne Grüße
      Daniela

  40. Hallo Frau Keller,

    ich habe im Rahmen meiner Bachelorarbeit den Kursaal-Wallis-Test gerechnet, da keine Normalverteilung und keine Varianzhomogenität gegeben war. Die Ergebnisse habe ich auch so aufgeführt. Nun meiner zwei Fragen: Muss ich auch wenn keine Normalverteilung gegeben ist, die Ergebnisse des Welch-Tests ebenfalls mit aufführen? Welchen Post-hoc-Test kann ich in Verbindung mit dem Kursaal-Wallis-Test nutzen, um die genauen Mittelwertunterschiede zwischen den Gruppen zu ermitteln? Bonferroni?

    Viele Grüße
    Sandra

    • Hallo Sandra,
      den Welch-Test brauchst Du hier nicht. Als Post Hoc Test kannst Du paarweise Mann-Whitney U Tests rechnen und mit Bonferroni z.B. das Signifikanzniveau anpassen. Das macht SPSS auch über „Paarweise Vergleiche“ für Dich. Oder Du verwendest in SPSS die „Homogenen Subsets“.
      Schöne Grüße
      Daniela

  41. Hallo Frau Keller,
    Ich habe eine Frage zu einer zweifaktoriellen ANOVA mit Messwiederholung, die ich gerechnet habe. Der Zwischensubjektfaktor ist Gruppe mit 2 Stufen, der Innersubjektfaktor ist die Aufenthaltszeit an 4 Positionen. Im SPSS- Output werden mir kein F- und kein Signifikanzwert für den Zwischensubjektfaktor angezeigt. Dort sind nur Punkte zu sehen. Wissen Sie eine Erklärung dafür? Schon mal vielen Dank im Voraus.
    Beste Grüße Alina

    • Hallo Alina,
      komisch. Vielleicht ist der Faktor konstant (hat also nur eine Ausprägung)?
      Schöne Grüße
      Daniela

  42. Liebe Frau Keller,

    auch ich habe eine Frage zum Thema Varianzanalyse.
    Und zwar habe ich eine vierfaktorielle ANOVA mit einem Innersubjektfaktor (3 Stufen) und drei Zwischensubjekfaktoren (jeweils 2 Stufen) gerechnet.
    Ich erhalte nun einen signifikanten Haupteffekt für einen der Zwischensubjektfaktoren.
    Meine Frage ist nun, wie ich die Mittelwerte (Standardabweichung) berichten kann bzw. woher ich diese erhalte. In den geschätzten Randmitteln ist ja keine Standardabweichung angegen.

    Und wie wäre das Vorgehen, wenn ich eine signifikante Interaktion zwischen zwei Zwischensubjektfaktoren erhalte? Muss ich mir diese dann für jede Stufe des Innersubjektfaktor ansehen?

    Liebe Grüße und vielen Dank schon jetzt,

    Anna

    • Hallo Anna,

      die deskriptiven Werte bekommst Du über „Explorative Datenanalyse“ (zum Beispiel). Bei signifikanten Interaktionen macht es Sinn, sie sich gruppiert für die Stufen anzusehen, ja.

      Schöne Grüße
      Daniela

  43. Liebe Frau Keller,
    ich möchte die einfaktorielle Varianzanalyse berechnen. Nun habe ich folgendes Problem: in meinem Datensatz befinden sich drei Fragebögen. Alle drei wurden zum gleichen Thema durchgeführt, der einzige Unterschied bestand darin, dass die Teilnehmer per Zufallsprinzip nur einen dieser Fragebögen erhielten. (Fragebögen unterschieden sich im Einleitungstext).
    Jetzt würde ich gern den signifikaten Unterschied in Bezug auf eine abhängige Variable berechnen. Allerdings wird mir die Option von SPSS nicht angezeigt, de Fragebögen als unabhängige Variable zu bestimmen. Hab schon alles ausprobiert! Ich hoffe, Sie können meinem Problem folgen und mir weiter helfen 🙂

    LG
    Maria

    • Hallo Maria,
      die Frage kann ich so nicht beantworten, wenn ich nicht weiß, wie die Daten aufgebaut sind, was die abhängige Variable ist usw.
      Schöne Grüße
      Daniela

  44. Hallo Frau Keller,
    wir müssen für die FernUni Hagen eine Hausarbeit schreiben. In den APA Hinweisen steht, dass eine Tabelle für Varianzanalysen eher unüblich sei. Leider hält sich die Tutorin sehr bedeckt, was die Verwendung von Tabellen in der HA angeht. Nun wäre meine Frage, ob man einen t-Test sowie einen Welch-Test auch als Varianzanalyse bezeichnen kann oder ob darunter tatsächlich nur ANOVAs fallen…? Es wäre nett, wenn Sie den Knoten in unserem Kopf lösen könnten 😉 LG Denise

    • Hallo Denise,
      t-Test und Welch-Test sind keine Varianzanalysen. Ob und wo eine Tabelle sinnvoll ist, hängt sehr vom individuellen Fall ab. Das kann ich so nicht beantworten.
      Schöne Grüße
      Daniela

  45. Hallo kurze Frage,

    Ergebnis bei einer einfaktoriellen Anova sind nicht signifikant aber laut dozent ist ein Trend erkennbar. wie / an welchem Feld /Graphik kann ich diesen Trend ausmachen?

    Grüße

    • Hallo Paul,

      vielleicht an einem p-Wert, der zwar klein ist, aber für Signifikanz nicht klein genug, z.B. p<0.1.

      Schöne Grüße
      Daniela

  46. Hallo Frau Keller,

    ich hab auch ein Problem ;/ Und zwar möchte ich bestimmte Winkel bei Kieferbewegungen mit Zahnstellungen vergleichen. Winkel hab ich von circa 85 Patienten, Zahnstellungen ( 4 Gruppen – 0=nicht,1 = nach vorne, 2 = nach hinten, 3 kombiniert) sind jedoch bei den meistens normal und vor allem die Gruppe 3 umfasst nur 2 Patienten. Laut Statistiker der Uni sollen wir PostHoc hier mit Bonferroni machen, dabei sind jedoch jetzt meistens die Fallzahlen zu klein – kann ich dann die Signifikanzen der ANOVA nehmen oder ist das mit einer so kleinen Gruppengröße sowieso Quatsch und ich sollte lieber Gruppe 1-3 in eine zusammenfassen?

    Gleiche Frage hab ich zu den nicht normalverteilten Werten: Ich wollte die Gruppen jetzt untereinander mit dem U-Test testen – sinnhaft bei so kleinen Gruppen oder große gemeinsame ? Dabei gehen halt leider definitiv Info´s verloren ;/ Oder kann man da einmal mit dem Kruskal-Wallis-Test arbeiten und wenn sowieso keine Signifikanz da ist, wird sich auch unter den Gruppen keine zeigen ?!

    liebe grüßse

    • Hallo Jasmin,
      zusammenfassen wäre eine Möglichkeit, oder Du sagst, dass Dich nur die paarweisen Vergleiche interessieren und vergleichst die 4 Gruppen miteinander jeweils paarweise und prüfst damit jeweils eigene Nullhypothesen, dann kommst Du um die Korrektur mit Bonferroni herum.
      Weitere Fragen könnt Ihr gern in meiner Facebook-Gruppe Statistikfragen https://www.facebook.com/groups/785900308158525/ diskutieren.

      Schöne Grüße
      Daniela

  47. Hallo Frau Keller,
    jetzt habe ich auch eine Frage zu der ich im Internet bisher keine zufriedenstellende Antwort gefunden habe…

    Ich habe 10 Gruppen je 5 Messungen. Viele der 95%-Konfidenzintervalle der Gruppen überschneiden sich. Aufgrund der „nur“ 5 Wiederholungsmessungen, sind die Werte innerhalb der Gruppen nicht normalverteilt. Bei weiteren Messungen würde sich hingegen wahrscheinlich eine ausbilden..
    Ich möchte eine Aussage über die Variabilität treffen und suche nach einer greifbaren, prakmatischen Größe. Im Grunde soll das eine Aussage über die Präzision des Messverfahrens sein.

    Dafür hatte ich an eine einfache ANOVA gedacht und würde als Maß der Präzision den Quotienten aus Within-Groups-Varianz und Total-Varianz bilden, mal 100. Ist der Wert hoch, ist das Messverfahren unpräzise, weil die Mittelwerte inkl. Unsicherheit zwischen den Gruppen nicht voneinander unterschieden werden können.

    Wäre das ein nachvollziehbarer Ansatz? Kann die ANOVA bei so kleinen Stichproben angewandt werden und kann man die nicht-Normalverteilung in diesem Fall außer Acht lassen?

    Eine Antwort würde mir sehr weiterhelfen.
    Vielen Dank

    • Hallo Johannes,

      die Idee, die Varianzen der ANOVA dafür zu verwenden passt. Eigentlich wäre die Voraussetzung für die ANOVA nicht gegeben (aufgrund der kleinen Fallzahl und der Nicht-Normalverteilung). Da Du aber ja nicht die ANOVA als Signifikanztest verwendest, sondern die Varianzen, die von der ANOVA berechnet werden, also deskriptives Maß für die Präzision, wäre das aus meiner Sicht in Ordnung.
      Schöne Grüße
      Daniela

  48. Guten Tag Frau Keller,

    ich stehe vor einem Rätsel. Bei SPSS habe ich eine ANOVA durchgeführt (mit einer abhängigen Variablen und zwei feste Faktoren (das sind nominale Variablen von denen ich eine Interaktion erwarte).

    Der Levene-Test zeigt ein signifikantes Ergebnis an, sodass ich jetzt eigentlich den Kruskall-Wallis-Test andwenden wollte. An dieser Stelle gibt es ein Problem: Beim Feld „Gruppierungsvariable“ kann nur eine (nominale) Variable eingetragen werden. Und auch bei „Nicht parametrische Tests“ habe ich nichts passendes gefunden 🙁 Haben Sie vielleicht einen Ratschlag?

    Viele Grüße
    Ricardo

Die Kommentarfunktion ist geschlossen.