Die Varianzanalyse – oder für die Eingeweihten: ANOVA (Analysis of Variance) – ist neben der Regression eines der am häufigsten verwendeten Verfahren in der Psychologie und die Methode der Wahl bei Experimenten.
Damit du auf der nächsten Party so richtig mit deinem diesbezüglichen Wissen angeben kannst, folgt nun das Rundum-sorglos-Paket für die ein- und zweifaktorielle Varianzanalyse!
Die ANOVA ist die Erweiterung des t-Tests:
Beim t-Test können nur zwei Mittelwerte miteinander verglichen werden – will man nun aber mindestens drei Mittelwerte miteinander vergleichen, so kommt die ANOVA zum Einsatz.
D. h., die ANOVA ist eine Methode zur Ermittlung von Mittelwerts-Unterschieden. Vorbedingung ist dabei, dass zwischen der abhängigen und der/den unabhängigen Variablen ein linearer Zusammenhang besteht.
Es wird geprüft, ob eine Variable mit mindestens drei Stufen bzw. Ausprägungen (einfaktorielle ANOVA) bzw. zwei Variablen mit jeweils mindestens zwei Stufen (zweifaktorielle ANOVA) einen Einfluss auf die abhängige Variable haben.
Die unabhängigen Variablen (UV) sind meist diskret / kategorial (oder eine metrische Variable wird in Kategorien eingeteilt und somit "diskretisiert"), die abhängige Variable (AV) stetig / metrisch.
Damit du alles selbst nachvollziehen kannst, schreibe ich dir wieder die einzelnen Schritte dazu, um die abgebildeten Ergebnistabellen zu erhalten.
Dabei gehe ich davon aus, dass du statistisches Vorwissen hast und dich mit der grundsätzlichen Bedienung von SPSS auskennst. Natürlich kannst du dir alles auch nur so durchlesen, ohne die Daten selbst aufzurufen.
Nachlesen kannst du das alles (inkl. Auswertungen mit R) in meinem ganz wunderbaren Buch "Schließende Statistik einfach erklärt! Von Null auf Statistik-Profi mit Schritt-für-Schritt-Anleitungen", das du HIER bekommst.
Hast du was anderes gesucht? Klick' hier für SPSS für die deskriptive Statistik, hier für Zusammenhangsmaße sowie hier für t-Test und Regression.
Wo du Datensätze zum Üben herbekommst
Datensätze bekommst du auf verschiedensten Seiten im Internet sowie direkt im Programm SPSS.
Ich empfehle z. B. die Datensätze von Andy Field, die hier zu finden sind.
Praktischerweise liefert SPSS aber auch eine Fülle von Datensätzen mit, die du folgendermaßen erreichen kannst:
Windows: C:/Programme/IBM/SPSS/Statistics/29 (oder eine andere Version)/Samples/German
Mac: Im Finder: Applications oder Programme/IBM/SPSS/Statistics/29 (oder eine andere Version)/Samples/German
Setting der Beispiele: Ü30-Party
Folgendes fiktives Setting:
Auf einer Ü30-Party soll die Paarungswilligkeit der Besucher*innen untersucht werden.
- Im einfaktoriellen Fall in Abhängigkeit von der Art des konsumierten Alkohols in den Abstufungen kein Alkohol, Prosecco und Wodka.
- Im zweifaktoriellen Fall in Abhängigkeit vom konsumierten Alkohol in den Abstufungen kein Alkohol / Alkohol sowie dem Geschlecht, ganz old school kodiert nach Männlein und Weiblein.
Die nachfolgenden Outputs entstammen einem von mir liebevoll selbst gebastelten Datensatz, dessen Daten ich dir gleich zeige, so dass du sie in dein Programm eingeben kannst. Ansonsten gilt das hier gezeigte Vorgehen selbstverständlich für jeden beliebigen Datensatz.
Einfaktorielle Varianzanalyse
Die einfaktorielle ANOVA untersucht, ob sich die einzelnen Stufen oder Ausprägungen eines Faktors signifikant voneinander unterschieden.
Der dazugehöfige F-Test prüft die Nullhypothese, dass alle Mittelwerte gleich sind, also keine Faktorstufe irgendeinen Einfluss auf die AV hat.
Dieser Test wird auch "Globaler F-Test" oder "Omnibus-Test" genannt. "Global" deshalb, weil ein signifikantes Ergebnis nur aussagt, dass sich mindestens zwei Mittelwerte voneinander unterscheiden – welche das sind, erfährt man jedoch nicht.
Daher dient die Varianzanalyse als Basis für weitere Verfahren wie Post-hoc-Tests, mit deren Hilfe die genauen Mittelwerts-Unterschiede untersucht werden können. Zudem kann man sich natürlich auch die deskriptiven Statistiken ansehen, um zu sehen, welche Mittelwerte sich in welcher Richtung voneinander unterscheiden. Wir machen im Folgenden beides.
Doch zunächst zum Datensatz mit 30 fiktiven Versuchspersonen. Es wurden zwei Variablen angelegt:
- Die UV bzw. der Faktor Alkoholart (alc), kodiert mit 1 = kein Alkohol, 2 = Prosecco, 3 = Wodka
- Die AV Paarungswilligkeit (paarw) wird auf einer Skala von 0 (keinerlei sexuelles Interesse) bis 10 (alles, was nicht bei 3 auf dem Baum ist...) erfasst.
Hier ist die Datenmaske, falls du die Daten so eingeben willst, dass die im Folgenden gezeigten Ergebnisse herauskommen:
Um die einfaktorielle ANOVA aufzurufen, gehe auf "Analysieren", "Mittelwerte vergleichen", "Einfaktorielle Varianzanalyse".
Im sich öffnenden Fenster verschiebst du in das Feld "Abhängige Variable" diejenige metrische Variable, bezüglich derer sich die Ausprägungen der Faktorstufen (vermutlich) unterscheiden. Wir nehmen hierfür die Paarungswilligkeit.
Danach definierst du den "Faktor": in diesem Falle die Alkoholart.
Zudem kannst du bei "Optionen" die deskriptiven Statistiken nebst dem Test auf Homogenität der Varianzen (Homoskedastizität) anfordern.
Bei "Post hoc ..." klicken wir auf "Scheffé" sowie "Tukey" (zwei der gängigsten Post-hoc-Verfahren), dann auf "Weiter" und danach auf "OK".
Es erscheint der folgende Output:
Zunächst betrachten wir die deskriptiven Statistiken:
Das Gesamtmittel lag bei 5.2 auf einer Skala von 0 bis 10, was bedeutet, dass die Ü-30 Besucher*innen im Durchschnitt mittelmäßig paarungswillig waren.
Zudem kann man erkennen, dass die Paarungswilligkeit bei Genuss von Prosecco ziemlich hoch war und bei Wodka am niedrigsten. Ob diese Unterschiede ausreichen, um signifikant zu werden, sehen wir gleich im F-Test.
Doch zuvor betrachten wir noch den Levene-Test der Homogenität der Varianzen, den wir bereits beim t-Test kennengelernt haben.
Dieser Test überprüft, ob die Varianzen in allen Gruppen gleich sind, wobei die Nullhypothese lautet: alle Varianzen sind gleich.
D. h., wir hätten hier sehr gerne ein nicht-signifikantes Ergebnis, damit diese Voraussetzung für die Varianzanalyse nicht verletzt ist (zudem bestehen weitere Voraussetzungen, auf die hier jedoch nicht näher eingegangen wird).
Und das scheint tatsächlich der Fall zu sein: Lies in der rechten Spalte bei "Signifikanz", basierend auf dem Mittelwert, ab.
Hier siehst du einen p-Wert größer 0.05, also ist Varianzhomogenität gegeben und wir dürfen den F-Test berechnen.
Nun zum "eigentlichen" Test der ANOVA, dem F-Test:
Daher sehen wir uns jetzt die Einzelvergleiche der Mittelwerte mit den Post-hoc-Tests an:
GUT zu wissen:
Die einfaktorielle ANOVA kann auch über den Befehl "Analysieren", "Allgemeines Lineares Modell", "Univariat" aufgerufen werden.
Hier können unter "Optionen" die "Schätzungen der Effektgröße" angefordert werden, welche beim zuvor beschriebenen Weg nicht angezeigt werden.
Hier ist die entsprechende Ergebnistabelle für den F-Test (wenn man den Weg über das allgemeine lineare Modell geht), die ein wenig komplexer als die vorherige aussieht. Die zusätzliche Information ist nun das in der Fußnote angegebene "R-Quadrat" bzw. Eta-Quadrat von .775.
Wenn man diesen Wert mit 100 multipliziert, sagt das aus, wie viel Prozent der Varianz der Paarungswilligkeit vom Modell bzw. dem Faktor Alkoholart erklärt wird. Dieser Wert ist extrem hoch und liegt vermutlich daran, dass es sich um fiktive Daten handelt. Denn nach Cohens Konventionen ist ein Eta-Quadrat größer 0.14 bereits ein starker Effekt – und wir haben hier 0.775!
Zweifaktorielle Varianzanalyse
Um Zusammenhänge etwas lebensnäher abzubilden und die Varianzaufklärung zu erhöhen, wird bei der zweifaktoriellen ANOVA ein weiterer Faktor mit mindestens zwei Ausprägungen bzw. Faktorstufen hinzugenommen.
Dadurch kann man den Einfluss jedes Faktors separat prüfen (Haupteffekte) und zudem Wechselwirkungseffekte bzw. Interaktionen aufdecken. Diese zeigen sich darin, dass der Einfluss eines Faktors auf die AV von der jeweiligen Ausprägung des anderen Faktors abhängig ist – im Sinne von: "Nur wenn ..., dann ...". Beispiel folgt sogleich.
In unserer Ü30-Studie zur Paarungswilligkeit wird nun an 40 fiktiven Versuchspersonen der Faktor Geschlecht erhoben (kodiert mit 1 = Mann und 2 = Frau) sowie ob überhaupt Alkohol konsumiert wurde (Alkoholkonsum: kein Alkohol = 1, Alkohol = 2), wobei nicht zwischen den Alkoholarten differenziert wird (um die Komplexität gering zu halten). Die AV ist die Paarungswilligkeit.
Hier sind die Daten (sex = Geschlecht, alc = Alkoholkonsum und "paarw" = Paarungswilligkeit):
Gehe für die Auswertung auf "Analysieren", "Allgemeines lineares Modell", "Univariat" (univariat, da EINE abhängige Variable).
Im sich öffnenden Fenster verschiebst du "Paarungswilligkeit" in das Feld "Abhängige Variable". In das Feld "Feste Faktoren" verschiebst du "Geschlecht" und "Alkoholkonsum".
Bei "Diagramme" schiebst du einmal das Geschlecht auf die "Horizontale Achse" und den Alkoholkosum in "Separate Linien", klickst auf "Hinzufügen" und wiederholst das Ganze dann umgekehrt, also Alkoholkonsum auf die horizontale Achse etc. Bestätige mit "Weiter".
Bei "Optionen" kannst du die deskriptiven Statistiken, Homogenitätstest sowie Schätzungen der Effektgröße anklicken. Gehe dann auf "Weiter" und auf "OK". Du erhältst folgenden Output:
ÜBRIGENS:
Da pro Faktor nur zwei Ausprägungen vorhanden sind, können keine Post-hoc-Tests durchgeführt werden!
Was wir uns nun zu guter Letzt noch ansehen, sind die Profildiagramme, einmal mit Geschlecht auf der x-Achse, und einmal mit Alkoholkonsum – guckst du:
Was kannst du hier herauslesen?
Wir betrachten uns das obere Diagramm (das untere enthält die gleiche Information, nur anders dargestellt). Auf der Ordinate ist die Paarungswilligkeit abgetragen, auf der Abszisse das Geschlecht. Die rote Linie steht für Alkoholkonsum, die blaue für kein Alkohol.
Hier sieht man, dass Männer generell weniger paarungswilllig sind als Frauen (zumindest in dieser fiktiven Stichprobe...) – das ist der Haupteffekt Geschlecht (zu sehen an der Höhe des blauen und roten Kringels bei Mann).
Frauen starten also bereits ohne Alkohol paarungswütiger als Männer (blauer Kringel höher als bei den Herren), und wenn sie dann auch noch Alkohol trinken, ist kein Mann (oder Frau) mehr vor ihnen sicher. Dies siehst du daran, dass die Paarungswilligkeit bei der roten Linie, die für Alkoholkonsum steht, stark ansteigt. Bei den Männern steigt sie zwar auch an, aber nicht so stark. Da der Trend bei beiden Geschlechtern in die gleiche Richtung geht, liegt ein Haupteffekt Alkohol vor.
Der Wechselwirkungseffekt zeigt sich darin, dass die Linien (die sog. Responsekurven) nicht parallel sind! Dies ist ein Beispiel für eine ordinale Interaktion. Hier könnten wir also Folgendes formulieren: Nur wenn Frau, dann wirkt sich Alkohol besonders stark auf die Paarungswilligkeit aus! Again what learned...
Fühlst du dich lost im dschungel der Statistischen methoden?
Dann schnapp' dir das E-Book (0,-€):
Endlich Durchblick in Statistik!
in 4 einfachen schritten zur wahl der richtigen methode
Geschafft!
Na bitte, geht doch!
Wenn du bis hierher tapfer durchgehalten hast, bekommst du ein virtuelles Fleißbild von mir sowie die offizielle Erlaubnis, dich erst einmal fette zu belohnen (Anregung siehe unten).
Und dann kannst du ja vielleicht zeitnah im Sinne von "Turning insight into action" dein Wissen mit einem anderen Datensatz testen!
QUELLEN (Als Amazon-Partnerin verdiene ich an qualifizierten Verkäufen):
Bühner, M., & Ziegler, M. (2017). Statistik für Psychologen und Sozialwissenschaftler. Pearson.
Bortz, J., & Schuster, C. (2017). Statistik für Human- und Sozialwissenschaftler. Springer.
Field, A. (2018). Discovering Statistics using IBM SPSS Statistics. SAGE.
Suuuuper gut erklärt, vielen Dank !!
Sehr gerne, liebe Kim!
Freut mich sehr, wenn dir der Blog Post weiterhilft.
Happy learning und liebe Grüße,
Melanie
Hallo Melanie, wie interpretiere ich denn die Ergebnisse, wenn mein Faktor viel mehr Stufen hat als nur drei. Wenn ich bspw. die Variable „Alter“ in Gruppen einteile (20-30, 31-40, 41-50, 51-60, 61-70, 71-80 und 81-90), muss ich dann jeden Gruppe mit jeder vergleichen? Das gibt doch ein totales Durcheinander, oder nicht? Ich bin da etwas verwirrt gerade.
Viele Grüße,
Franziska
Liebe Franziska,
ja, das wird dann in der Tat etwas anspruchsvoller!
In meinem Powerkurs zur Inferenzstatistik zeige ich, wie das geht.
Liebe Grüße,
Melanie