
Hier könnt ihr überblicksartig die Themen und Inhalte kennenlernen, mit denen sich "Statistik für PsychologInnen" beschäftigt. Die großen Bereiche werden vorgestellt und inhaltlich eingeführt. Es werden auch Verweise zu Lerninhalten gegeben.
In diesem Themenbereich werden verschiedene Bereiche aus der Statistik vorgestellt. Es handelt sich hierbei um Wissen auf dem Niveau des Bachelors of Science in Psychologie.
Zunächst geht es allgemein um die statistische Versuchsplanung und verschiedene Gütekriterien des statistischen Testens. Anschließend werden vier Testklassen vorgestellt: Die (nonparametrischen) Verteilungstests, die Varianzanalyse, die Korrelationstests und die (multiple) lineare Regression.
Dieses Video des Statistik-Professors Mathias Bärtl gibt einen kurzen und humorvollen Einstieg in das große Thema "Statistik":
Folgende Grafik gibt einen Überblick über einige der Themenfelder, die in diesem Lernfeld behandelt werden:
Statistische Versuchsplanung
Die statistische Versuchsplanung umfasst alle statistischen Verfahren, die vor Versuchsbeginn angewendet werden sollten.
Da Versuche Ressourcen benötigen (Personal, Zeit, Geräte usw.), sieht sich der Versuchsverantwortliche in einem Zwiespalt zwischen einerseits der Genauigkeit und Zuverlässigkeit seiner erwarteten Ergebnisse und andererseits dem dazu notwendigen Aufwand. Der Begriff „Versuch“ schließt neben materiellen Versuchen die Rechnersimulationen mit ein. Mit der statistischen Versuchsplanung wird mit möglichst wenigen Versuchen (Einzelexperimenten) der Wirkzusammenhang zwischen Einflussfaktoren (= unabhängige Variablen) und Zielgrößen (= abhängige Variable) möglichst genau ermittelt. Wichtiger Bestandteil der statistischen Versuchsplanung ist die Bestimmung des Versuchsumfanges in Abhängigkeit von Genauigkeitsvorgaben wie etwa der Risiken von statistischen Tests und der minimal interessierenden Mindestdifferenz vom Nullhypothesenwert.
Deskriptive Statistik
Die deskriptive (auch: beschreibende) Statistik hat zum Ziel, empirische Daten durch Tabellen, Kennzahlen (auch: Maßzahlen oder Parameter) und Grafiken übersichtlich darzustellen und zu ordnen. Dies ist vor allem bei umfangreichem Datenmaterial sinnvoll, da dieses nicht leicht überblickt werden kann.
Wahrscheinlichkeitstheorie
Die Wahrscheinlichkeitstheorie oder Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik, das aus der Formalisierung der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist. Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik. Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse.
Analyse von Häufigkeiten
Zur Analyse von Häufigkeiten nutzt man neben dem exakten Test nach Fisher vor allem Methoden, die auf einer Chi-Quadrat-Verteilung beruhen.
Mit Chi-Quadrat-Test bezeichnet man in der mathematischen Statistik eine Gruppe von Hypothesentests mit Chi-Quadrat-verteilter Testprüfgröße.
Man unterscheidet vor allem die folgenden Tests:
Verteilungstest (auch Anpassungstest genannt): Hier wird geprüft, ob vorliegende Daten auf eine bestimmte Weise verteilt sind.
Unabhängigkeitstest: Hier wird geprüft, ob zwei Merkmale stochastisch unabhängig sind. Homogenitätstest: Hier wird geprüft, ob zwei oder mehr Stichproben derselben Verteilung bzw. einer homogenen Grundgesamtheit entstammen.
Der Chi-Quadrat-Test und seine Teststatistik wurden erstmals von Karl Pearson beschrieben.
Korrelation
Eine Korrelation (mittellat. correlatio für „Wechselbeziehung“) beschreibt eine Beziehung zwischen zwei oder mehreren Merkmalen, Ereignissen, Zuständen oder Funktionen. Zwischen Merkmalen, Ereignissen oder Zuständen braucht keine kausale Beziehung zu bestehen: manche Elemente eines Systems beeinflussen sich gegenseitig nicht; oder es besteht eine stochastische (= vom Zufall beeinflusste) Beziehung zwischen ihnen.
Varianzananalyse
Als Varianzanalyse (ANOVA von englisch analysis of variance) bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen. Ihnen gemeinsam ist, dass sie Varianzen und Prüfgrößen berechnen, um Aufschlüsse über die hinter den Daten steckenden Gesetzmäßigkeiten zu erlangen. Die Varianz einer oder mehrerer Zielvariable(n) wird dabei durch den Einfluss einer oder mehrerer Einflussvariablen (Faktoren) erklärt. Die einfachste Form der Varianzanalyse testet den Einfluss einer einzelnen nominalskalierten auf eine intervallskalierte Variable, indem sie die Mittelwerte der abhängigen Variable innerhalb der durch die Kategorien der unabhängigen Variable definierten Gruppen vergleicht. Somit stellt die Varianzanalyse in ihrer einfachsten Form eine Alternative zum t-Test dar, die für Vergleiche zwischen mehr als zwei Gruppen geeignet ist.
Regressionsanalysen
Regressionsanalysen versuchen Zusammenhänge vorherzusagen und diesen m.H. einer Formel darzustellen. Man unterscheidet zwischen der einfachen linearen Regression und der multiplen linearen Regression.
Einfache lineare Regression
Das einfache lineare Regressionsmodell geht von lediglich zwei metrischen Größen aus: einer Einflussgröße X und einer Zielgröße Y. Durch die einfache lineare Regression wird mithilfe von zwei Parametern eine Gerade durch eine Punktwolke gelegt, sodass der lineare Zusammenhang zwischen X und Y möglichst gut beschrieben wird.
Multiple lineare Regression
Die multiple linearen Regression stellt eine Verallgemeinerung der einfachen linearen Regression dar, wobei nun K Regressoren angenommen werden, welche die abhängige Variable erklären sollen. Zusätzlich zu der Variation über die Beobachtungen wird also auch eine Variation über die Regressoren angenommen, wodurch sich ein lineares Gleichungssystem ergibt, das sich in Matrixnotation darstellen lässt.