SPSS Outputs lesen leicht gemacht! Teil 3: t-Test & Regression

In diesem Teil stürzen wir uns in zwei der gebräuchlichsten Verfahren innerhalb der Psychologie, nämlich den t-Test für unabhängige Stichproben sowie die einfache und multiple Regression. Wenn du diese Methoden gut beherrschst, bist du schon recht gut aufgestellt: du kannst dann mit dem t-Test die Mittelwerte zweier Gruppen vergleichen ("Sind Männer optimistischer als Frauen?") und mit der Regression ganz ohne Glaskugel Vorhersagen machen ("Lässt sich die Hilfsbereitschaft aus der Empathiefähigkeit, der Sensibilität und dem Geschlecht vorhersagen?"). Das ist doch was, oder?

Damit du alles selbst nachvollziehen kannst, schreibe ich dir wie üblich die jeweiligen Schritte dazu, um die abgebildeten Ergebnistabellen zu erhalten.

Dabei gehe ich davon aus, dass du statistisches Vorwissen hast und dich mit der grundsätzlichen Bedienung von SPSS auskennst. Natürlich kannst du dir alles auch nur so durchlesen, ohne die Daten selbst aufzurufen. 

Nachlesen kannst du das alles (inkl. Auswertungen mit R) in meinem ganz wunderbaren Buch "Schließende Statistik einfach erklärt! Von Null auf Statistik-Profi mit Schritt-für-Schritt-Anleitungen", das du HIER bekommst.

Hast du was anderes gesucht? Klick' hier für SPSS für die deskriptive Statistik, hier für Zusammenhangsmaße sowie hier für die Varianzanalyse.

Wo du Datensätze zum Üben herbekommst

Datensätze bekommst du auf verschiedensten Seiten im Internet sowie direkt im Programm SPSS. Ich empfehle z. B. die Datensätze von Andy Field, die hier zu finden sind. 

Praktischerweise liefert SPSS aber auch eine Fülle von Datensätzen mit, die du folgendermaßen erreichen kannst:

Windows: C:/Programme/IBM/SPSS/Statistics/29 (oder eine andere Version)/Samples/German

Mac: Im Finder: Applications oder Programme/IBM/SPSS/Statistics/29 (oder eine andere Version)/Samples/German

Die nachfolgenden Outputs entstammen alle dem Datensatz survey_sample.sav im SPSS-Samples-Folder, der knackige 46 Variablen und 2.832 Fälle aus den USA enthält. Bitte suche und öffne ihn – und los geht's.

t-Test für unabhängige Stichproben

Der t-Test für unabhängige Stichproben untersucht, ob sich zwei Gruppen bezüglich eines bestimmten Merkmals signifikant unterscheiden. Dafür werden zwei Mittelwerte einer normalverteilten metrischen Variable miteinander verglichen.

Er wird verwendet, wenn es um Fragen geht wie: "Unterscheiden sich Frauen und Männer in ihrer sozialen Kompetenz?", "Weisen Jugendliche eine höhere Risikoaversion auf als Erwachsene?" oder "Sind Studierende stärker psychisch belastet als Schüler?".

Das Wort "unabhängig" meint hier, dass bei jeder Person nur eine Messung durchgeführt wird und es sich nicht um die Messungen von eng miteinander verwobenen Menschen handelt, wie z. B. Zweier-Teams oder Zwillinge.

Doch nun zur Umsetzung: Gehe auf "Analysieren", "Mittelwerte vergleichen", "t-Test für unabhängige Stichproben". Im sich öffnenden Fenster verschiebst du in das Feld "Testvariable(n)" diejenige metrische Variable, bezüglich derer sich die beiden Gruppen (vermutlich) unterscheiden. Wir nehmen "Wie viele Stunden Fernsehen pro Tag".

Danach definierst du die "Gruppierungsvariable". Die Gruppierungsvariable legt die Gruppen fest, die miteinander verglichen werden sollen. Wenn du nun die Gruppierungsvariable, um die es in deiner Untersuchung geht, in das dazugehörige Feld verschiebst, siehst du, dass du noch nicht auf "OK" klicken kannst. Du musst zuvor die Gruppierungsvariable definieren. Da wir es jedoch nicht immer automatisch mit dichotomen Variablen zu tun haben, die bereits als zwei Gruppen vorliegen, ist es manchmal gar nicht so leicht, die zwei zu vergleichenden Gruppen zu definieren. 

Wir nehmen für unser Beispiel "Zufriedenheit in der Ehe". Dabei interessiert uns, ob Menschen, die in ihrer Ehe sehr zufrieden sind, weniger fernsehen als Menschen, die ziemlich zufrieden oder nicht sehr zufrieden sind (linksseitiger Test).

Klick' dazu auf "Gruppe def...". Im sich öffnenden Fenster kannst du entweder bei "Angegebene Werte verwenden" die Werte für die beiden Merkmalsausprägungen eingeben, die dich interessieren, oder im unteren Bereich einen Trennwert eingeben, der die Stichprobenwerte unterteilt. Wir machen Letzteres.

Um einen Trennwert eingeben zu können, musst du zuvor in die Variablen-Ansicht gehen und dir ansehen, welche Merkmalsausprägungen es gibt und wie diese kodiert wurden. Das sieht bei "Zufriedenheit in der Ehe" folgendermaßen aus:

merkmalsausprägungen-ehe-spss

Hier sind letztlich nur die Ausprägungen 1 bis 3 relevant (NZ, KA und NA sind fehlende Angaben). Wir setzen nun den Trennwert auf 2, was bedeutet, dass die Gruppe unterteilt wird in Menschen mit der Ausprägung 1, die in ihrer Ehe sehr zufrieden sind, und in Menschen, die entweder Ausprägung 2 oder 3 haben, also ziemlich oder nicht sehr zufrieden sind.

Der Trennwert unterteilt den Datensatz immer in eine Gruppe, die einen Wert kleiner als der Trennwert hat (hier wäre das die 1), und in eine Gruppe, die die Ausprägung des Trennwerts oder eine größere hat. D. h., es werden mehrere Untergruppen zu einer zusammengefasst. Dies ist wichtig, da es beim t-Test ja immer um den Vergleich von zwei Mittelwerten, also von zwei Gruppen geht. Daher muss man einen Datensatz mit mehr als zwei Fallgruppen immer künstlich in zwei Gruppen unterteilen oder nur zwei bestimmte Ausprägungen herausgreifen. 

Hätte man beispielsweise nur Frauen (kodiert mit 1), und Männer (kodiert mit 2), im Datensatz, könnte man einfach bei "Angegebene Werte verwenden" definieren, wer Gruppe 1 und Gruppe 2 sein soll und dann entweder 1 für Frau oder 2 für Mann bei der jeweiligen Gruppe eingeben.

Aber nun zurück zu unserem Beispiel: nachdem du den Trennwert 2 eingegeben hast, klickst du auf "weiter" und dann auf "OK". Du erhältst den nachfolgenden Output.

spss-t-test

Was du hier ablesen kannst, ist Folgendes:

  • Oben bei "Gruppenstatistiken" siehst du, bei wie vielen Fällen/Personen das Merkmal erfasst wurde. 687 Personen hatten angegeben, in ihrer Ehe sehr zufrieden zu sein, 426 waren ziemlich oder nicht zufrieden. In der Spalte "Mittelwert" sind die jeweiligen Gruppenmittelwerte angegeben.
  • Hier lässt sich bereits erkennen, dass die Mittelwerte nicht besonders weit auseinander liegen: 2.78 Stunden Fernsehen pro Tag bei den ziemlich und nicht Zufriedenen sowie 2.58 Stunden bei den sehr Zufriedenen. Diesen Abstand siehst du auch in der unteren Tabelle bei "Mittlere Differenz": .201 oder 0.201. Das entspricht ungefähr 12 Minuten: SPSS gibt keine Minuten an, daher muss man das umrechnen, hier ein Fünftel (0.2) einer Stunde.
  • Die Tabelle "Test bei unabhängigen Stichproben" ist zweigeteilt, was man leider nicht unmittelbar erkennen kann. Auf der linken Seite wird der sog. Levene-Test durchgeführt, welcher überprüft, ob die Varianzen in beiden Gruppen (ungefähr) gleich sind (selbstverständlich werden sie nie komplett gleich sein).
  • Die Nullhypothese dieses Tests lautet: "Die Varianzen sind in beiden Gruppen gleich.". Dies bedeutet, dass ein signifikanter Levene-Test anzeigt, dass sich die Varianzen der beiden Gruppen signifikant unterscheiden. Da die Standardabweichung die Wurzel aus der Varianz ist, könnte man sagen, dass der Test überprüft, ob die Standardabweichungen gleich sind. Dies wiederum kannst du bereits oben bei Gruppenstatistiken annähernd erkennen.
  • Wofür braucht man den Levene-Test? Er sagt uns, in welcher Zeile wir das Ergebnis des t-Tests ablesen sollen.
  • Hier sehen wir in der Spalte "Signifikanz" beim Levene-Test den Wert .606 oder 0.606. Da dieser deutlich über dem konventionellen kritischen p-Wert von .05 liegt, haben wir ein nicht-signifikantes Ergebnis, was bedeutet, dass die Varianzen (Standardabweichungen) der beiden Gruppen ähnlich sind. Das kannst du bei Gruppenstatistiken verifizieren: in der Spalte "Std.-Abweichung" siehst du die Werte 2.167 und 1.986, also recht ähnliche Standardabweichungen. 
  • Daher lesen wir das Ergebnis des t-Tests in der Zeile "Varianzen sind gleich" ab.
spss-t-test
  • Nun endlich zum t-Test: Du kannst das Ergebnis in der Spalte "Sig. (2-seitig)" ablesen. Da steht .113, also ein nicht signifikantes Ergebnis. 
  • Aber vielleicht denkst du dir jetzt: wir haben doch einseitig (links) getestet – wieso steht hier jetzt zweiseitig? SPSS testet bei den älteren Versionen immer zweiseitig! Bei den neueren Versionen siehst du auch den p-Wert für die einseitige Testung.
t-test-varianten

für hinter die löffelchen:

Bei DEN ÄLTEREN VERSIONEN VON SPSS lässt sich kein einseitiger t-Test berechnen!

Es wird immer ein zweiseitiger Test ausgegeben.

Was tun?

Wenn die Daten bei "Gruppenstatistiken" in Richtung der Hypothese gehen (also hier geringere Fernsehdauer bei den sehr Zufriedenen), kann der p-Wert einfach halbiert werden, um den "wahren" p-Wert für den einseitigen Test zu erhalten. 

BEI DEN NEUEREN VERSIONEN ERHÄLTST DU VON VORNHEREIN DIE EIN- UND ZWEISEITIGE AUSGABE & KANNST DANN JEWEILS DEN p-WERT ABLESEN, OHNE IHN TEILEN ZU MÜSSEN.

  • Da hier die Werte in Richtung der Hypothese gehen und die sehr Zufriedenen etwas weniger fernsehen (durchschnittlich 2.58 Stunden) als die andere Gruppe (2.78 Stunden), kann man den p-Wert teilen. Damit haben wir einen p-Wert von .0565, was streng genommen immer noch ein nicht-signifikantes Ergebnis ist, da größer .05 (diese Art des Schwarz-Weiß-Denkens beim Hypothesentesten wird übrigens immer mehr kritisiert).
  • Die mittlere Differenz der beiden Gruppen-Mittelwerte siehst du gleich in der Spalte daneben: .201. Das waren die bereits oben angesprochenen ca. 12 Minuten Unterschied im täglichen Fernsehkonsum.
  • Fazit: Menschen, die in ihrer Ehe sehr zufrieden sind, sehen genauso viel (oder wenig) fern wie Menschen, die ziemlich oder nicht sehr zufrieden sind. Again what learned ...

Einfache lineare Regression

Die Regression ist eines der am häufigsten verwendeten Verfahren innerhalb der Psychologie und dient dazu, aus einer (einfache Regression) oder mehreren Variablen (multiple Regression) eine andere (metrische) Variable vorherzusagen.

Die Vorbedingung ist dabei, dass zwischen dem Prädiktor bzw. den Prädiktoren und dem Kriterium ein linearer Zusammenhang besteht. Dies kannst du dir durch Aufrufen der Korrelationen ansehen. Wie das geht, findest du hier.

Zudem bestehen weitere Voraussetzungen, auf die hier jedoch nicht näher eingegangen wird: normalverteilte Residuen sowie Homoskedastizität (Gleichheit der (Fehler-) Varianzen) – eines meiner absoluten Lieblingswörter! Das heutige Lernziel ist übrigens bereits erreicht, wenn du drei Mal hintereinander flott und fehlerfrei Homoskedastizität sagen kannst.

Eine Erklärung der einfachen linearen Regression findest du hier.

Beginnen wir zunächst mit der einfachen Regression: eine Variable sagt eine andere vorher. Wir machen das nun mit dem bereits bekannten TV-Konsum und wollen diesen aus dem höchsten abgeschlossenen Schuljahr vorhersagen. Also: Lässt sich aus dem höchsten abgeschlossenen Schuljahr vorhersagen, wie lange jemand täglich fernsieht?

Gehe dazu auf "Analysieren", "Regression", "Linear". Im sich öffnenden Fenster verschiebst du "Wie viele Stunden Fernsehen pro Tag" in das Feld "Abhängige Variable". In das Feld "Unabhängige Variable" verschiebst du "Höchstes abgeschlossenes Schuljahr". Wir könnten uns nun natürlich bei "Statistiken" und "Diagramme" alle möglichen weiteren Dinge auswerfen lassen, aber wir beschränken uns darauf, einfach nur auf "OK" zu klicken. Du erhältst folgenden Output:

einfache-regression-spss
  • Bei "Aufgenommene/Entfernte Variablen" wird angegeben, welche Variablen bzw. Prädiktoren in das Regressionsmodell aufgenommen wurden. Dieses Feld spielt besonders dann eine Rolle, wenn man z. B. theoriegeleitet schrittweise Variablen entfernt oder hinzufügt – was wir hier jedoch nicht tun. Außerdem haben wir momentan ohnehin nur einen Prädiktor definiert. Zudem wird in der rechten Spalte die verwendete Methode angegeben, hier "Einschluss", d. h. alle definierten Prädiktoren wurden ins Modell aufgenommen. In der Fußnote kannst du immer ablesen, was die abhängige Variable bzw. das Kriterium ist.
  • Bei "Modellzusammenfassung" findest du die Varianzaufklärung. Wie viel Prozent der gesamten Variabilität der Werte erklärt unser Regressionsmodell? Dazu schaust du bei der einfachen Regression bei "R-Quadrat" und siehst .068. Wenn du das mit 100 multiplizierst, erhältst du den Prozentsatz der aufgeklärten Varianz. Das wären sage und schreibe 6.8%, also nicht besonders viel.
  • Die Tabelle "ANOVA" zeigt die Ergebnisse eines F-Tests, der (auch) zur Welt der Varianzanalyse gehört (Analysis of Variance, ANOVA). Dass er hier angezeigt wird, liegt daran, dass sowohl die Regression als auch die Varianzanalyse demselben mathematischen Modell entstammen, nämlich dem Allgemeinen linearen Modell, ALM. Daher lässt sich jede Regression als Varianzanalyse rechnen – und umgekehrt.
  • Beim F-Test interessiert dich letztlich nur der p-Wert, der bei "Sig." steht: .000 zeigt ein hochsignifikantes Ergebnis an. Die Aussage dieses sog. globalen F-Tests ist einfach nur, dass das Modell etwas taugt und sich die Wirkung des Prädiktors von 0 unterscheidet. Mehr wissen wir erst einmal nicht. 
  • Doch um mehr über den Effekt des Prädiktors herauszufinden, gibt es die Tabelle "Koeffizienten". Hier kannst du in der Spalte "Regressionskoeffizient ß" in der ersten Zeile die Konstante a sowie den Effekt des Prädiktors in der Original-Einheit ablesen und somit die Regressionsgerade basteln: y = a + bx. Hier wäre das: y = 5.523 – 0.201x
  • Zu guter Letzt siehst du dir ganz rechts bei "Sig." an, ob der Effekt des Prädiktors signifikant ist: .000 deutet auf ein hochsignifikantes Ergebnis hin (die Signifikanz der Konstante in der ersten Zeile interessiert nicht).
  • Fazit: Die Fernsehdauer lässt sich zu einem kleinen Teil (6.8%) aus dem höchsten abgeschlossenen Schuljahr vorhersagen. Der Effekt des Prädiktors von -.201 besagt, dass mit jedem weiteren abgeschlossenen Schuljahr die Fernsehdauer um ca. 12min absinkt (negativer Zusammenhang: je höher das Schuljahr, desto geringer die Fernsehdauer – oder: je weniger Schuljahre, desto mehr Zeit vor dem Fernseher).

Multiple lineare Regression

Um die sog. Multideterminiertheit des Verhaltens besser abzubilden und mehr Varianz aufzuklären, nehmen wir bei der multiplen Regression weitere Variablen ins Modell auf, denn unser Erleben und Verhalten wird stets von einer Fülle von Faktoren beeinflusst – und nicht nur von einem wie bei der einfachen Regression.

Dabei gilt jedoch das Prinzip der Parsimonität, der Sparsamkeit. Dies bedeutet, dass versucht wird, mit möglichst wenig Variablen möglichst viel Varianz aufzuklären. Ziel ist also nicht, mit 78 Variablen fast 100% der Varianz zu erklären, sondern diejenigen wenigen Variablen zu finden bzw. aus der Theorie, dem aktuellen Forschungsstand abzuleiten, die einen möglichst großen Teil der Variabilität der Werte aufklären.

Doch nun zur Umsetzung: Gehe wieder auf "Analysieren", "Regression", "Linear". Im sich öffnenden Fenster verschiebst du wieder "Wie viele Stunden Fernsehen pro Tag" in das Feld "Abhängige Variable". In das Feld "Unabhängige Variable" verschiebst du wie vorher "Höchstes abgeschlossenes Schuljahr" sowie zudem "Geschlecht" und "Alter". Wenn du nun auf "OK" klickst, erhältst du den nachfolgenden Output.

Was du hier ablesen kannst, ist Folgendes:

  • Bei "Aufgenommene/Entfernte Variablen" wird wie vorher angegeben, welche Variablen bzw. Prädiktoren in das Regressionsmodell aufgenommen wurden. In diesem Fall alle (ich gehe hier nicht auf die verschiedenen Berechnungsmethoden wie vorwärts, rückwärts etc. ein – bitte in einschlägigen Lehrbüchern nachlesen).
  • Bei "Modellzusammenfassung" findest du die Varianzaufklärung. Bei der multiplen Regression liest du bei "Korrigiertes R-Quadrat" ab und siehst .071. Wenn du das mit 100 multiplizierst, erhältst du den Prozentsatz der aufgeklärten Varianz.
  • Das wären nur 7.1%, also nach wie vor nicht besonders viel. D. h., dass durch die Hinzunahme der beiden Prädiktoren nur weitere 0.3% der Varianz aufgeklärt wurden. Daher kann man sich hier die berechtigte Frage stellen, ob es im Sinne der Parsimonität nicht vielleicht sinnvoller wäre, nur bei unserem ersten Prädiktor "Höchstes abgeschlossenes Schuljahr" zu bleiben oder im Datensatz nach anderen sinnvollen Prädiktoren zu suchen, mit denen mehr Varianz aufgeklärt werden kann (kleine Fleißaufgabe für dich!).
multiple-regression-spss
  • Die Tabelle "ANOVA" zeigt die Ergebnisse des F-Tests. Die getestete Nullhypothese lautet: Keiner der Prädiktoren hat einen Einfluss auf das Kriterium. Sobald der Test wie hier signifikant wird (.000), bedeutet das, dass mindestens einer der Prädiktoren einen signifikanten Einfluss auf das Kriterium hat. Welcher das ist, wird jedoch nicht angezeigt
  • Um das herauszufinden, sehen wir wieder in die Tabelle "Koeffizienten". In der Spalte "Regressionskoeffizient ß" siehst du wie oben in der ersten Zeile die Konstante a sowie darunter die Effekte der einzelnen Prädiktoren in der Original-Einheit. Jetzt könntest du wieder die Regressionsgerade aufstellen, hier: y = 4.955 – 0.192x1 + 0.045x2+0.008x3.
  • Wie du siehst, hat sich der Einfluss des höchsten abgeschlossenen Schuljahrs im Vergleich zum Output bei der einfachen Regression leicht verringert. Meist verändern sich die Effekte der Prädiktoren (die sog. ß-Koeffizienten), wenn man Variablen hinzunimmt oder entfernt. Stell' dir das systemisch vor oder wie ein Mobile, das aus Papiervögeln besteht. In dem Moment, in dem du einen Papiervogel entfernst oder hinzufügst, ändert sich das Gefüge und Zusammenspiel der anderen. So ähnlich ist das hier auch.
  • Da die Effekte der Prädiktoren in den Einheiten vorliegen, in denen sie gemessen wurden, lassen sie sich nicht direkt vergleichen. Dafür gibt es  jedoch die Spalte "Standardisierte Koeffizienten". Hier kannst du den Effekt der einzelnen Koeffizienten/Prädiktoren direkt miteinander vergleichen.
  • Kleiner Hinweis: nur weil ein Prädiktor negativ ist, heißt das nicht, dass er einen kleineren Effekt hat! Es gilt beim Vergleichen von Koeffizienten zunächst nur der Betrag, der absolute Effekt. Und dieser kann positiv oder negativ sein.
  • Nun zum Vergleich der Prädiktoren bei "Standardisierte Koeffizienten": hier sieht man, dass das höchste abgeschlossene Schuljahr bei weitem den größten Effekt hat (-.249), gefolgt vom Alter (.063)und dann vom Geschlecht (.010). 
  • Jetzt sehen wir uns noch ganz rechts bei "Sig." an, ob die einzelnen Prädiktoren einen signifikanten Effekt auf das Kriterium haben: .000 beim höchsten abgeschlossenen Schuljahr ist ein hochsignifikantes Ergebnis. Das Geschlecht ist kein signifikanter Prädiktor (.618), das Alter hingegen schon (.002), ebenfalls hochsignifikant (die Signifikanz der Konstante in der ersten Zeile interessiert nicht). Hier zeigt sich übrigens am Beispiel des Alters, dass ein Effekt auch dann (hoch-) signifikant sein kann, wenn er verschwindend gering ist!
  • Es macht also Sinn, das Geschlecht aus dem Modell zu entfernen. Hier siehst du den Output für das Modell mit den Prädiktoren Alter und höchstes abgeschlossenes Schuljahr (man könnte jedoch, wie bereits vorher erwähnt, auch das Alter ohne große Varianzaufklärungs-Verluste aus dem Modell entfernen und wäre dann wieder bei obigem Output für die einfache Regression).
multiple-regression-2-spss
  • Fazit: Die Fernsehdauer pro Tag lässt sich zu einem kleinen Teil (7.1%) aus dem höchsten abgeschlossenen Schuljahr und dem Alter vorhersagen. Der Effekt des Prädiktors von -0.192 besagt, dass mit jedem weiteren abgeschlossenen Schuljahr die Fernsehdauer um knappe 12min absinkt (negativer Zusammenhang: je höher das Schuljahr, desto geringer die Fernsehdauer). Und der nahezu vernachlässigbare Effekt des Alters von 0.008 bedeutet, dass mit jedem Lebensjahr die Fernsehdauer um ein paar Sekunden ansteigt (positiver Zusammenhang).
superwoman-statistik-crashkurs

Geschafft!

Sehr tapfer! Ich hoffe, es fällt dir nun wieder ein Stück leichter, dich in den Ergebnistabellen zurechtzufinden! 

Und vielleicht hast du ja Lust, dir gleich einen weiteren Datensatz zu schnappen und das Ganze anzuwenden.  

Oder zumindest dreimal hintereinander "Homoskedastizität" zu sagen. Und wenn du das beherrschst, kannst du dich dann an dreimal "Heteroskedastizität" heranwagen.

Jetzt ist aber erst mal Zeit für eine wohlverdiente Belohnung!

cupcakes
SPSS Outputs lesen leicht gemacht! Teil 2: Zusammenhangsmaße
Boxplot einfach erklärt!
  • Hallo Melanie,
    vielen Dank für diesen Text. Hast Du auch einen Text über logistische Regressionsanalysen? Das würde mir sehr helfen.
    Danke 🙂
    Lg
    Marlen

    • Hallo liebe Marlen,

      sehr gerne!

      Leider habe ich zur logistischen Regression aktuell noch keinen Text und werde auch so schnell nicht dazu kommen. Tut mir Leid!

      Liebe Grüße und gutes Lernen,
      Melanie

  • Hei Melanie

    Danke für diese super Erklärungen!
    Sie helfen mir enorm weiter, die generierten Outputs aus SPSS richtig zu interpretieren.
    Danke dir!
    Liebe Grüse und einen guten Rutsch
    Ronja

  • Hallo,

    Ich mag Ihre Beiträge sehr.
    Ich habe noch eine kleine Frage zum t- Test. Wenn ich mehre t-Tests gerechnet habe und die Ergebnisse miteinander vergleichen möchte, muss ich dann standardisierte Daten verwenden? Oder standardisiert der t-Test schon die Ergebnisse?

    Viele Grüße
    Angela

    • Hallo liebe Angela,
      vielen Dank für Ihren Kommentar!
      Die t-Werte sind gewissermaßen schon standardisierte Mittelwerts-Unterschiede, daher müssen Sie nicht gesondert standardisieren.
      Beste Grüße,
      Melanie Paul

    • Sehr gerne, lieber Fabian!
      Das steht für die Testung des Regressionskoeffizienten beta auf Signifikanz.
      Diese wird mit Hilfe der t-Verteilung durchgeführt, daher siehst du hier ein T.
      Liebe Grüße und happy learning!

  • {"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

    Vielleicht interessiert dich auch ...

    SPSS Outputs lesen leicht gemacht! Teil 5: Varianzanalyse mit Messwiederholung

    SPSS Outputs lesen leicht gemacht! Teil 5: Varianzanalyse mit Messwiederholung

    SPSS Outputs lesen leicht gemacht! Teil 4: Varianzanalyse

    SPSS Outputs lesen leicht gemacht! Teil 4: Varianzanalyse

    SPSS Outputs lesen leicht gemacht! Teil 3: t-Test & Regression

    SPSS Outputs lesen leicht gemacht! Teil 3: t-Test & Regression
    >