SPSS Outputs lesen leicht gemacht! Teil 4: Varianzanalyse

Die Varianzanalyse – oder für die Eingeweihten: ANOVA (Analysis of Variance) – ist neben der Regression eines der am häufigsten verwendeten Verfahren in der Psychologie und die Methode der Wahl bei Experimenten.

Damit du auf der nächsten Party so richtig mit deinem diesbezüglichen Wissen angeben kannst, folgt nun das Rundum-sorglos-Paket für die ein- und zweifaktorielle Varianzanalyse! 

Die ANOVA ist die Erweiterung des t-Tests:

Beim t-Test können nur zwei Mittelwerte miteinander verglichen werden – will man nun aber mindestens drei Mittelwerte miteinander vergleichen, so kommt die ANOVA zum Einsatz.

D. h., die ANOVA ist eine Methode  zur Ermittlung von Mittelwerts-Unterschieden. Vorbedingung ist dabei, dass zwischen der abhängigen und der/den unabhängigen Variablen ein linearer Zusammenhang besteht.

Es wird geprüft, ob eine Variable mit mindestens drei Stufen bzw. Ausprägungen (einfaktorielle ANOVA) bzw. zwei Variablen mit jeweils mindestens zwei Stufen (zweifaktorielle ANOVA) einen Einfluss auf die abhängige Variable haben.

Die unabhängigen Variablen (UV) sind meist diskret / kategorial (oder eine metrische Variable wird in Kategorien eingeteilt und somit "diskretisiert"), die abhängige Variable (AV) stetig / metrisch.

Damit du alles selbst nachvollziehen kannst, schreibe ich dir wieder die einzelnen Schritte dazu, um die abgebildeten Ergebnistabellen zu erhalten.

Dabei gehe ich davon aus, dass du statistisches Vorwissen hast und dich mit der grundsätzlichen Bedienung von SPSS auskennst. Natürlich kannst du dir alles auch nur so durchlesen, ohne die Daten selbst aufzurufen. 

Nachlesen kannst du das alles (inkl. Auswertungen mit R) in meinem ganz wunderbaren Buch "Schließende Statistik einfach erklärt! Von Null auf Statistik-Profi mit Schritt-für-Schritt-Anleitungen", das du HIER bekommst.

Hast du was anderes gesucht? Klick' hier für SPSS für die deskriptive Statistik, hier für Zusammenhangsmaße sowie hier für t-Test und Regression.

Wo du Datensätze zum Üben herbekommst

Datensätze bekommst du auf verschiedensten Seiten im Internet sowie direkt im Programm SPSS.

Ich empfehle z. B. die Datensätze von Andy Field, die hier zu finden sind. 

Praktischerweise liefert SPSS aber auch eine Fülle von Datensätzen mit, die du folgendermaßen erreichen kannst:

Windows: C:/Programme/IBM/SPSS/Statistics/29 (oder eine andere Version)/Samples/German

Mac: Im Finder: Applications oder Programme/IBM/SPSS/Statistics/29 (oder eine andere Version)/Samples/German

Setting der Beispiele: Ü30-Party

Folgendes fiktives Setting:

Auf einer Ü30-Party soll die Paarungswilligkeit der Besucher*innen untersucht werden.

- Im einfaktoriellen Fall in Abhängigkeit von der Art des konsumierten Alkohols in den Abstufungen kein Alkohol, Prosecco und Wodka.

- Im zweifaktoriellen Fall in Abhängigkeit vom konsumierten Alkohol in den Abstufungen kein Alkohol / Alkohol sowie dem Geschlecht, ganz old school kodiert nach Männlein und Weiblein.

Die nachfolgenden Outputs entstammen einem von mir liebevoll selbst gebastelten Datensatz, dessen Daten ich dir gleich zeige, so dass du sie in dein Programm eingeben kannst. Ansonsten gilt das hier gezeigte Vorgehen selbstverständlich für jeden beliebigen Datensatz.

Einfaktorielle Varianzanalyse

Die einfaktorielle ANOVA untersucht, ob sich die einzelnen Stufen oder Ausprägungen eines Faktors signifikant voneinander unterschieden.

Der dazugehöfige F-Test prüft die Nullhypothese, dass alle Mittelwerte gleich sind, also keine Faktorstufe irgendeinen Einfluss auf die AV hat. 

Dieser Test wird auch "Globaler F-Test" oder "Omnibus-Test" genannt. "Global" deshalb, weil ein signifikantes Ergebnis nur aussagt, dass sich mindestens zwei Mittelwerte voneinander unterscheiden – welche das sind, erfährt man jedoch nicht.

Daher dient die Varianzanalyse als Basis für weitere Verfahren wie Post-hoc-Tests, mit deren Hilfe die genauen Mittelwerts-Unterschiede untersucht werden können. Zudem kann man sich natürlich auch die deskriptiven Statistiken ansehen, um zu sehen, welche Mittelwerte sich in welcher Richtung voneinander unterscheiden. Wir machen im Folgenden beides.

Doch zunächst zum Datensatz mit 30 fiktiven Versuchspersonen. Es wurden zwei Variablen angelegt: 

- Die UV bzw. der Faktor Alkoholart (alc), kodiert mit 1 = kein Alkohol, 2 = Prosecco, 3 = Wodka

- Die AV Paarungswilligkeit (paarw) wird auf einer Skala von 0 (keinerlei sexuelles Interesse) bis 10 (alles, was nicht bei 3 auf dem Baum ist...) erfasst.

Hier ist die Datenmaske, falls du die Daten so eingeben willst, dass die im Folgenden gezeigten Ergebnisse herauskommen:

daten-einfaktorielle-anova-spss

Um die einfaktorielle ANOVA aufzurufen, gehe auf "Analysieren", "Mittelwerte vergleichen", "Einfaktorielle Varianzanalyse".

Im sich öffnenden Fenster verschiebst du in das Feld "Abhängige Variable" diejenige metrische Variable, bezüglich derer sich die Ausprägungen der Faktorstufen (vermutlich) unterscheiden. Wir nehmen hierfür die Paarungswilligkeit.

Danach definierst du den "Faktor": in diesem Falle die Alkoholart.

Zudem kannst du bei "Optionen" die deskriptiven Statistiken nebst dem Test auf Homogenität der Varianzen (Homoskedastizität) anfordern.

Bei "Post hoc ..." klicken wir auf "Scheffé" sowie "Tukey" (zwei der gängigsten Post-hoc-Verfahren), dann auf "Weiter" und danach auf "OK".

Es erscheint der folgende Output:

spss-output-einfaktorielle-ANOVA

Zunächst betrachten wir die deskriptiven Statistiken:

deskriptivstatistik-einfaktorielle-anova

Das Gesamtmittel lag bei 5.2 auf einer Skala von 0 bis 10, was bedeutet, dass die Ü-30 Besucher*innen im Durchschnitt mittelmäßig paarungswillig waren.

Zudem kann man erkennen, dass die Paarungswilligkeit bei Genuss von Prosecco ziemlich hoch war und bei Wodka am niedrigsten. Ob diese Unterschiede ausreichen, um signifikant zu werden, sehen wir gleich im F-Test.

Doch zuvor betrachten wir noch den Levene-Test der Homogenität der Varianzen, den wir bereits beim t-Test kennengelernt haben.

Dieser Test überprüft, ob die Varianzen in allen Gruppen gleich sind, wobei die Nullhypothese lautet: alle Varianzen sind gleich.

D. h., wir hätten hier sehr gerne ein nicht-signifikantes Ergebnis, damit diese Voraussetzung für die Varianzanalyse nicht verletzt ist (zudem bestehen weitere Voraussetzungen, auf die hier jedoch nicht näher eingegangen wird).

Und das scheint tatsächlich der Fall zu sein: Lies in der rechten Spalte bei "Signifikanz", basierend auf dem Mittelwert, ab.

Hier siehst du einen p-Wert größer 0.05, also ist Varianzhomogenität gegeben und wir dürfen den F-Test berechnen.

levene-test

Nun zum "eigentlichen" Test der ANOVA, dem F-Test:

f-test-einfaktorielle-anova
  • Du kannst das Ergebnis in der Spalte "Signifikanz" ablesen. Da hier .000  steht, liegt ein hochsignifikantes Ergebnis vor. 
  • Wenn wir uns die deskriptiven Statistiken nicht angeschaut hätten, wüssten wir jetzt nur, dass sich mindestens zwei von drei Mittelwerten unterscheiden. Welche das sind, kann hier nicht herausgelesen werden.

Daher sehen wir uns jetzt die Einzelvergleiche der Mittelwerte mit den Post-hoc-Tests an:

post-hoc-einfaktorielle-anova
  • Diese Tabelle ist ziemlich verwirrend. Die obere Hälfte stellt die Ergebnisse des Tukey-Tests dar, die untere diejenigen des Scheffé-Tests. Da beide hier zu annähernd gleichen Ergebnissen kommen, ist das Wichtige nur im oberen Teil eingekringelt.
  • Im grauen Bereich oben links siehst du die Spalte "(I) Alkoholart" und daneben "(J) Alkoholart",. Hier wird jeweils die in der ersten Spalte angegebene Alkoholart mit einer der danebenstehenden verglichen. Manche Informationen in der Tabelle sind daher doppelt vorhanden (was ja oft bei SPSS der Fall ist), wie z. B. in der ersten Zeile der Vergleich von "kein Alkohol" mit "Prosecco", dessen Ergebnis sich in Zeile 3 wiederholt.
  • Wir wenden unser geschultes Auge nun der Spalte "Signifikanz" zu. Hier sehen wir, dass sich die Versuchspersonen in ihrer Paarungswilligkeit signifikant unterscheiden, wenn sie Prosecco oder keinen Alkohol trinken. Das Gleiche gilt für Prosecco und Wodka. Es scheint also einen Unterschied für die Paarungswilligkeit zu machen, ob man Prosecco oder Wodka trinkt.
  • Um herauszufinden, in welche Richtung dieser Unterschied geht, also um die Frage: "Was macht paarungswilliger?" zu beantworten, kannst du dir entweder die "Mittlere Differenz (I-J)" ansehen – oder vielleicht etwas user-freundlicher noch einmal die deskriptiven Statistiken:
deskriptivstatistik-einfaktorielle-anova
  • FAZIT: Prosecco steigert bei Ü-30 Besucher*innen signifikant die Paarungswilligkeit!
  • Wer diesen Effekt nicht wünscht, sollte entweder nichts trinken oder sich an Wodka halten! Wodka macht nämlich deutlich weniger paarungsbereit.

GUT zu wissen:

Die einfaktorielle ANOVA kann auch über den Befehl "Analysieren", "Allgemeines Lineares Modell", "Univariat" aufgerufen werden. 

Hier können unter "Optionen" die "Schätzungen der Effektgröße" angefordert werden, welche beim zuvor beschriebenen Weg nicht angezeigt  werden.

Hier ist die entsprechende Ergebnistabelle für den F-Test (wenn man den Weg über das allgemeine lineare Modell geht), die ein wenig komplexer als die vorherige aussieht. Die zusätzliche Information ist nun das in der Fußnote angegebene "R-Quadrat" bzw. Eta-Quadrat von .775. 

einfaktorielle-anova-alm

Wenn man diesen Wert mit 100 multipliziert, sagt das aus, wie viel Prozent der Varianz der Paarungswilligkeit vom Modell bzw. dem Faktor Alkoholart erklärt wird. Dieser Wert ist extrem hoch und liegt vermutlich daran, dass es sich um fiktive Daten handelt. Denn nach Cohens Konventionen ist ein Eta-Quadrat größer 0.14 bereits ein starker Effekt – und wir haben hier 0.775!

Zweifaktorielle Varianzanalyse

Um Zusammenhänge etwas lebensnäher abzubilden und die Varianzaufklärung zu erhöhen, wird bei der zweifaktoriellen ANOVA ein weiterer Faktor mit mindestens zwei Ausprägungen bzw. Faktorstufen hinzugenommen.

Dadurch kann man den Einfluss jedes Faktors separat prüfen (Haupteffekte) und zudem Wechselwirkungseffekte bzw. Interaktionen aufdecken. Diese zeigen sich darin, dass der Einfluss eines Faktors auf die AV von der jeweiligen Ausprägung des anderen Faktors abhängig ist – im Sinne von: "Nur wenn ..., dann ...". Beispiel folgt sogleich.

In unserer Ü30-Studie zur Paarungswilligkeit wird nun an 40 fiktiven Versuchspersonen der Faktor Geschlecht erhoben (kodiert mit 1 = Mann und 2 = Frau) sowie ob überhaupt Alkohol konsumiert wurde (Alkoholkonsum: kein Alkohol = 1, Alkohol = 2), wobei nicht zwischen den Alkoholarten differenziert wird (um die Komplexität gering zu halten). Die AV ist die Paarungswilligkeit.

Hier sind die Daten (sex = Geschlecht, alc = Alkoholkonsum und "paarw" = Paarungswilligkeit):

daten-zweifaktorielle-anova

Gehe für die Auswertung auf "Analysieren", "Allgemeines lineares Modell", "Univariat" (univariat, da EINE abhängige Variable).

Im sich öffnenden Fenster verschiebst du "Paarungswilligkeit" in das Feld "Abhängige Variable". In das Feld "Feste Faktoren" verschiebst du "Geschlecht" und "Alkoholkonsum". 

Bei "Diagramme" schiebst du einmal das Geschlecht auf die "Horizontale Achse" und den Alkoholkosum in "Separate Linien", klickst auf "Hinzufügen" und wiederholst das Ganze dann umgekehrt, also Alkoholkonsum auf die horizontale Achse etc. Bestätige mit "Weiter".

Bei "Optionen" kannst du die deskriptiven Statistiken, Homogenitätstest sowie Schätzungen der Effektgröße anklicken. Gehe dann auf "Weiter" und auf "OK". Du erhältst folgenden Output:

zweifaktorielle-anova
  • Bei "Deskriptive Statistiken" siehst du, dass sich die MIttelwerte von Männern und Frauen sowohl ohne als auch mit Alkohol unterscheiden und die Frauen durchschnittlich jeweils paarungswütiger sind.
  • Der Levene-Test auf Gleichheit der Fehlervarianzen ist der gleiche wie oben, heißt hier nur etwas anders (ein beliebtes Spiel innerhalb der bunten Welt der Statistik). Hier wird die Nullhypothese, dass die Varianzen gleich sind, verworfen, da der p-Wert kleiner 0.05 ist (0.002). Also ist eine der Voraussetzungen verletzt. Da die ANOVA jedoch relativ robust auf Voraussetzungsverletzungen reagiert und die Stichproben der Frauen und Männer gleich groß sind, machen wir uns keine allzu großen Sorgen und schreiten voran.
  • Beim F-Test, hier angegeben als "Test der Zwischensubjekteffekte", interessieren dich erst die Werte ab der dritten Zeile.  Hier kannst du in der Spalte "Sig." die p-Werte für die einzelnen Faktoren sowie den Wechselwirkungseffekt ablesen.
  • Der p-Wert in der Spalte "Sig." von .000 bei "sex" = Geschlecht zeigt ein hochsignifikantes Ergebnis an. Der Haupteffekt Geschlecht ist somit bestätigt. Offenbar unterscheiden sich die Versuchspersonen in ihrer Paarungswilligkeit bezüglich des Geschlechts signifikant. In welche Richtung dieser Unterschied geht, wissen wir aus dieser Tabelle nicht. Da wir jedoch bereits einen Blick auf die deskriptiven Statistiken riskiert haben, haben wir schon eine vage Vorstellung, wer paarungswilliger ist.
  • Bei "alc" = Alkoholkonsum liegt der p-Wert bei in der Spalte "Sig." bei .002, ebenfalls hochsignifikant. Somit liegt auch ein Haupteffekt Alkoholkonsum vor. Es scheint also einen Unterschied in der Paarungswilligkeit zu machen, ob man Alkohol getrunken hat oder nicht – was uns jetzt sehr erstaunt ;).
  • In der Zeile "sex * alc" (Wechselwirkung, immer am Sternchen zu erkennen) ist der p-Wert mit .017 ebenfalls signifikant, diesmal auf dem 5%-Niveau. Es liegt ein signifikanter Wechselwirkungs- oder Interaktionseffekt zwischen dem Geschlecht und dem Alkoholkonsum vor. Wie dieser aussieht, wissen wir jedoch aus der Tabelle nicht.
  • In der Spalte "Partielles Eta-Quadrat" ganz rechts werden die Effektgrößen angegeben. Auch hier sind die Effekte wieder als sehr stark einzustufen, da oberhalb von .14. SPSS gibt kein Eta-Quadrat aus, sondern nur das partielle Eta-Quadrat – Eta-Quadrat müsste man mit der Hand berechnen. Das partielle Eta-Quadrat gibt an, welcher Anteil der Unterschiede der AV Paarungswilligkeit auf den jeweiligen Faktor und Messfehler zurückzuführen sind, wobei der Einfluss der anderen Faktoren unberücksichtigt bleibt.
effektstaerke-anova

ÜBRIGENS:

Da pro Faktor nur zwei Ausprägungen vorhanden sind, können keine Post-hoc-Tests durchgeführt werden!

Was wir uns nun zu guter Letzt noch ansehen, sind die Profildiagramme, einmal mit Geschlecht auf der x-Achse, und einmal mit Alkoholkonsum – guckst du:

diagramm-zweifaktorielle-anova

Was kannst du hier herauslesen?

Wir betrachten uns das obere Diagramm (das untere enthält die gleiche Information, nur anders dargestellt). Auf der Ordinate ist die Paarungswilligkeit abgetragen, auf der Abszisse das Geschlecht. Die rote Linie steht für Alkoholkonsum, die blaue für kein Alkohol.

Hier sieht man, dass Männer generell weniger paarungswilllig sind als Frauen (zumindest in dieser fiktiven Stichprobe...) – das ist der Haupteffekt Geschlecht (zu sehen an der Höhe des blauen und roten Kringels bei Mann).

Frauen starten also bereits ohne Alkohol paarungswütiger als Männer (blauer Kringel höher als bei den Herren), und wenn sie dann auch noch Alkohol trinken, ist kein Mann (oder Frau) mehr vor ihnen sicher. Dies siehst du daran, dass die Paarungswilligkeit bei der roten Linie, die für Alkoholkonsum steht, stark ansteigt. Bei den Männern steigt sie zwar auch an, aber nicht so stark. Da der Trend bei beiden Geschlechtern in die gleiche Richtung geht, liegt ein Haupteffekt Alkohol vor.

Der Wechselwirkungseffekt zeigt sich darin, dass die Linien (die sog. Responsekurven) nicht parallel sind! Dies ist ein Beispiel für eine ordinale Interaktion. Hier könnten wir also Folgendes formulieren: Nur wenn Frau, dann wirkt sich Alkohol besonders stark auf die Paarungswilligkeit aus! Again what learned...

Fühlst du dich lost im dschungel der Statistischen methoden?

Dann schnapp' dir das E-Book (0,-€):

Endlich Durchblick in Statistik!

in 4 einfachen schritten zur wahl der richtigen methode

cover-endlich-durchblick-in-statistik

Geschafft!

Na bitte, geht doch! 

Wenn du bis hierher tapfer durchgehalten hast, bekommst du ein virtuelles Fleißbild von mir sowie die offizielle Erlaubnis, dich erst einmal fette zu belohnen (Anregung siehe unten).

Und dann kannst du ja vielleicht zeitnah im Sinne von "Turning insight into action" dein Wissen mit einem anderen Datensatz testen!

Boxplot einfach erklärt!
Median verständlich erklärt
  • Hallo Melanie, wie interpretiere ich denn die Ergebnisse, wenn mein Faktor viel mehr Stufen hat als nur drei. Wenn ich bspw. die Variable „Alter“ in Gruppen einteile (20-30, 31-40, 41-50, 51-60, 61-70, 71-80 und 81-90), muss ich dann jeden Gruppe mit jeder vergleichen? Das gibt doch ein totales Durcheinander, oder nicht? Ich bin da etwas verwirrt gerade.
    Viele Grüße,
    Franziska

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

    Vielleicht interessiert dich auch ...

    SPSS Outputs lesen leicht gemacht! Teil 5: Varianzanalyse mit Messwiederholung

    SPSS Outputs lesen leicht gemacht! Teil 5: Varianzanalyse mit Messwiederholung

    SPSS Outputs lesen leicht gemacht! Teil 4: Varianzanalyse

    SPSS Outputs lesen leicht gemacht! Teil 4: Varianzanalyse

    SPSS Outputs lesen leicht gemacht! Teil 3: t-Test & Regression

    SPSS Outputs lesen leicht gemacht! Teil 3: t-Test & Regression
    >

    BUCH: Schließende Statistik einfach erklärt!

    Von Null auf Statistik-Profi mit Schritt-für-Schritt-Anleitungen