Wissenswertes auf einen Blick

Daten, die in empirischen Untersuchungen gewonnen werden, geben Informationen über die Ausprägung bestimmter Merkmale und Eigenschaften oder die Häufigkeit bestimmter Verhaltensweisen bei Personen oder Personengruppen. Im Forschungsprozess werden Daten zur Überprüfung von bestimmten Fragestellungen und Hypothesen erhoben. Auf der Basis der systematischen Datensammlung und deren statistischer Analyse können Entscheidungen oder Maßnahmen getroffen werden.
Abhängig von der Art der gewählten Methode (quantitatives Vorgehen oder qualitatives Vorgehen) müssen die Datenerhebungsinstrumente festgelegt werden. Will man qualitativ vorgehen, wählt man Instrumente wie das problemzentrierte Interview, das narrative Interview, Gruppendiskussionen, teilnehmende Beobachtung oder projektive Verfahren. Bei quantitativem
Vorgehen werden im Regelfall standardisierte (normierte) Testverfahren und/oder Fragebogenverfahren angewendet.

Bei der Datenanalyse werden je nach Art der vorliegenden Daten (qualitative oder quantitative Daten) unterschiedliche Analysemethoden gewählt.


Qualitative Daten werden im Regelfall in ein Kategoriensystem eingetragen. So können zum Beispiel bei offenen Fragen ähnliche oder gleiche Antworten gezählt werden. Bei Beobachtungen kann aufgrund der Literatur eruiert werden, ob zum Beispiel ein sicheres oder unsicheres Bindungsmuster vorliegt, je nachdem, wie das Kind die Geschichten weitererzählt. Ähnlich werden projektive Verfahren (Zeichenverfahren, Formdeuteverfahren) analysiert. Aus der Literatur werden bestimmte Indikatoren für das fragliche Merkmal gesucht und die fraglichen Eigenschaften aus der Beobachtung oder dem Interview werden auf dieser Basis unter einem bestimmten Aspekt zusammengefasst. Nach dieser Systematisierung können entsprechende Schlussfolgerungen gezogen werden (Viernickel & Völkel, 2005, S. 127ff.; Gläser-Zikuda & Hascher, 2007, S. 295ff.).


Bei quantitativen Daten berechnet man im Normalfall statistische Maßzahlen, um einen Überblick über Mittelwert, Streuung und Verteilung der Daten zu bekommen.


 Handelt es sich bei den Daten um metrisch skalierte Daten, so wählt man das arithmetische
Mittel als Maß für die zentrale Tendenz, die Varianz/Standardabweichung als Streuungsmaß.
 Sind die Daten ordinalskaliert, ist das geeignete Maß für die zentrale Tendenz („Mittelwert“) der Median. Dieser teilt die Daten in der Mitte und gibt an, unter welchem Wert 50 % der Fälle liegen. Als Streuungsmaß wird hier der Quartilsabstand bzw. die Quartile
gewählt. Die Art der Verteilung kann mittels Häufigkeitstabellen und einfachen Balkendiagrammen eruiert werden.
 Handelt es sich bei den erhobenen Merkmalen um nominalskalierte Merkmale kann man als Maß der zentralen Tendenz den Modus (am häufigsten vorkommender Wert) angeben.
Die Art der Verteilung kann mittels Häufigkeitstabellen bzw. einfachen Balkendiagrammen
eruiert werden.
Will man überprüfen, ob sich die gefundenen Unterschiede, Zusammenhänge oder Veränderungen mit an Sicherheit grenzender Wahrscheinlichkeit auch in der Population wiederfinden lassen, so reichen die statistischen Maßzahlen alleine dafür nicht aus. In diesem Fall sind inferenzstatistische Analysen nötig. Die gängigsten Testverfahren zur Prüfung von Hypothesen werden nachstehend angeführt. Wählt man das quantitative Vorgehen, so werden im Regelfall hypothesenprüfende Verfahren zur Anwendung kommen. Je nach Skalenniveau der fraglichen Variablen, Verteilung und nach Anzahl der Gruppen bzw. Zeitpunkte werden andere statistische
Testverfahren zur Überprüfung der Hypothesen angewendet (vgl. auch Janssen & Laatz, 2007, S. 333ff.).

a) Unterschiedshypothesen – 2 Gruppen:


Will man eine Unterschiedshypothese für 2 Gruppen überprüfen, so ist das geeignete statistische Verfahren bei metrischer Skalierung der abhängigen Variable, sofern keine signifikante Abweichung von der Normalverteilung festgestellt werden kann, der T Test für unabhängige Stichproben. Will man beispielsweise überprüfen, ob es einen signifikanten Unterschied zwischen Mädchen und Buben (2 Gruppen) hinsichtlich der Testleistung in Mathematik (abhängige Variable, metrisch skaliert, annähernd normalverteilt) gibt, wählt man den T-Test für unabhängige Stichproben.

Ist die abhängige Variable ordinalskaliert (zum Beispiel Antworten auf Fragebogen) oder liegt eine metrische Variable vor, deren Verteilung signifikant von der Normalverteilung abweicht, ist der korrekte Test der U-Test nach Mann und Whitney. Will man beispielsweise überprüfen, ob es einen signifikanten Unterschied zwischen Mädchen und Buben (2 Gruppen) hinsichtlich der Befindlichkeit in der Schule (abhängige Variable, ordinalskaliert) gibt, wählt man den U-Test.

Bei Nominalskalierung der abhängigen Variablen wählt man den Chi2 -Test. Will man beispielsweise überprüfen, ob es einen signifikanten Unterschied zwischen Mädchen und Buben (2 Gruppen) hinsichtlich der Variable „Brillenträger“ (abhängige Variable, nominalskaliert) gibt, wählt man den Chi2 -Test.


b) Unterschiedshypothesen – mehr als 2 Gruppen:


Will man eine Unterschiedshypothese für mehr als 2 Gruppen überprüfen, so ist das geeignete statistische Verfahren bei metrischer Skalierung der abhängigen Variable, sofern keine signifikante Abweichung von der Normalverteilung vorliegt, die Varianzanalyse (ANOVA). Will man beispielsweise überprüfen, ob es einen signifikanten Unterschied zwischen reinen Mädchenklassen, gemischten Klasse und reinen Bubenklassen (3 Gruppen) hinsichtlich der Testleistung in Physik (abhängige Variable, metrisch skaliert, annähernd normalverteilt) gibt, wählt man die Varianzanalyse.


Ist die abhängige Variable ordinalskaliert (zum Beispiel Antworten auf Fragebogen) oder liegt eine metrische Variable vor, deren Verteilung signifikant von der Normalverteilung abweicht, ist der korrekte Test der Kruskal-Wallis H-Test. Will man beispielsweise überprüfen, ob es einen signifikanten Unterschied zwischen reinen Mädchenklassen, gemischten Klasse und reinen Bubenklassen
(3 Gruppen) hinsichtlich der Befindlichkeit in der Schule (abhängige Variable, ordinalskaliert) gibt, wählt man den Kruskal-Wallis H-Test.


Bei Nominalskalierung der abhängigen Variablen wählt man den Chi2 -Test. Will man beispielsweise überprüfen, ob es einen signifikanten Unterschied zwischen reinen Mädchenklassen, gemischten Klasse und reinen Bubenklassen (3 Gruppen) hinsichtlich der Variable „Risikoschüler/in in Mathematik“ (abhängige Variable, nominalskaliert (ja/nein)) gibt, wählt man den Chi2 -Test.

c) Veränderungshypothesen –2 Zeitpunkte:


Will man eine Veränderungshypothese für 2 Zeitpunkte überprüfen, so ist das geeignete statistische Verfahren bei metrischer Skalierung der abhängigen Variable der T-Test für gepaarte Stichproben. Will man beispielsweise überprüfen, ob es eine signifikante Verbesserung der Leistung zwischen 2 Zeitpunkten (vor handlungsorientiertem Unterricht, nach handlungsorientiertem Unterricht) in Geometrie (abhängige Variable, metrisch) gibt, wenn die Kinder speziell in diesem Bereich mit bestimmten Materialien unterrichtet werden, so wählt man den T-Test für gepaarte Stichproben.


Ist die abhängige Variable ordinalskaliert (zum Beispiel Antworten auf Fragebogen), ist der korrekte Test der Wilcoxon-Test. Will man beispielsweise überprüfen, ob es einen signifikanten Unterschied zwischen 2 Zeitpunkten (vor Training sozialer Kompetenz, nach Training sozialer Kompetenz) hinsichtlich der Befindlichkeit in der Schule (abhängige Variable, ordinalskaliert) gibt, wählt man den Wilcoxon-Test.


Bei Nominalskalierung der abhängigen Variablen wählt man den McNemar-Test.


d) Veränderungshypothesen – mehr als 2 Zeitpunkte:


Will man eine Veränderungshypothese für mehr als 2 Zeitpunkte überprüfen, so ist das geeignete statistische Verfahren bei metrischer Skalierung der abhängigen Variable die Varianzanalyse mit Messwiederholung. Will man beispielsweise überprüfen, ob es eine signifikante Verbesserung der Leistung zwischen 3 Zeitpunkten (vor handlungsorientiertem Unterricht, nach handlungsorientiertem Unterricht, ein Jahr nach dem Unterricht) in Geometrie (abhängige Variable, metrisch) gibt, wenn die Kinder speziell in diesem Bereich mit bestimmten Materialien unterrichtet werden, so wählt man die Varianzanalyse mit Messwiederholung.


Ist die abhängige Variable ordinalskaliert (zum Beispiel Antworten auf Fragebogen), ist der korrekte Test der Friedman-Test. Will man beispielsweise überprüfen, ob es einen signifikanten Unterschied zwischen 3 Zeitpunkten (vor Training sozialer Kompetenz, nach Training sozialer Kompetenz und ein Jahr nach Training sozialer Kompetenz) hinsichtlich der Befindlichkeit in der Schule (abhängige Variable, ordinalskaliert) gibt, wählt man den Friedman-Test.


Bei Nominalskalierung der abhängigen Variablen wählt man Chi2 -Statistiken oder (bei dichotomen Variablen) den Cochran Q-Test.


e) Zusammenhangshypothesen:


Will man eine Zusammenhangshypothese überprüfen, so ist das geeignete statistische Verfahren bei metrischer Skalierung der beiden Variablen der Pearson-Korrelationskoeffizient. Will man beispielsweise überprüfen, ob es einen signifikanten Zusammenhang zwischen der Testleistung in Mathematik und der Testleistung in Physik (beide Variablen sind metrisch skaliert) gibt, wählt man
den Pearson-Korrelationskoeffizienten.

Sind die Variablen ordinalskaliert (zum Beispiel Antworten auf Fragebogen), ist der Korrelationskoeffizient der Spearman-Rangkorrelationskoeffizient. Will man beispielsweise überprüfen, ob es einen signifikanten Zusammenhang zwischen Selbstbewusstsein und Befindlichkeit in der Schule (beide Variablen ordinalskaliert) gibt, wählt man den Rangkorrelationskoeffizienten nach Spearman.


Bei Nominalskalierung der beiden Variablen wählt man Cramers V bzw. den Phi-Korrelationskoeffizienten (für den Spezialfall, dass beide Variablen dichotom sind). Will man den Zusammenhang zwischen Variablen berechnen, die nicht beide dieselbe Skalierung aufweisen, berechnet man in vielen Fällen die „niedrigere“ Korrelation. Will man beispielsweise den Zusammenhang zwischen einem ordinalskalierten Merkmal und einem metrisch skalierten Merkmal berechnen, so berechnet man eine Rangkorrelation.

Selbstverständlich gibt es für jede Kombination einen eigenen Korrelationskoeffizienten. Hierzu sei zum Beispiel auf das Standardwerk von Bortz („Statistik für Sozialwissenschaftler“, 1999, S. 215- 229) verwiesen.


f) Einflusshypothesen als Spezialfall von Zusammenhangshypothesen:


Will man den Einfluss einer oder mehrerer Variablen auf eine andere überprüfen, so ist das geeignete statistische Verfahren bei metrischer Skalierung der abhängigen Variablen (sofern die Voraussetzungen erfüllt sind) die lineare Regression.
Ist die abhängige Variable ordinalskaliert (zum Beispiel Antworten auf Fragebogen), wird (sofern die Voraussetzungen erfüllt sind) eine ordinale Regression berechnet.


Bei Nominalskalierung der abhängigen Variablen wählt man (sofern die Voraussetzungen erfüllt sind) die binäre logistische Regression (abhängige Variable ist dichotom) bzw. die multinomial logistische Regression (abhängige Variable ist nominalskaliert).