Willkommen in der Online Statistik Lern App des Arbeitsbereichs Psychologische Methoden und Statistik.

Auf diesen Seiten werden ausgewählte Inhalte der Vorlesung Statistik 1 und 2 dargestellt und vertieft.

Wählen Sie eines der obigen Themengebiete aus und erarbeiten Sie sich die Inhalte des jeweiligen Themengebiets, indem Sie die interaktiven Schaltflächen benutzen. In einigen Fällen ist es möglich die Werte zum eigenständigen Rechnen zu nutzen und die Ergebnisse mit den automatisch berechneten Werten zu vergleichen.
...

Diese Webseite wurde mit der freien Statistik Software R und dem Paket Shiny erstellt. Der Quellcode ist frei downloadbar unter:
www.sumdata.de/webapp

R kann kostenfrei heruntergeladen werden auf:
www.r-project.org

Eine nominale Variable

Die Häufigkeit jeder Ausprägung aj mit j=1, ..., k einer nominalen Variable X mit den Realisierungen xi mit i=1, ..., n lässt sich auszählen und als absolute oder relative Häufigkeit (h(aj), f(aj)) in Tabellen darstellen. Die relative Häufigkeit f(aj) berechnet sich über: f(aj)=h(aj)/n. Als nominale Variable dient hier Gruppenzugehörigkeit mit k verschiedenen Gruppen.

absolute und relative Häufigkkeitstabelle

Mit den absoluten und relativen Häufigkeiten können Säulen- oder Balkendiagramme erstellt werden.

Eine ordinale Variable

Ausprägungen aj ordinaler Variablen lassen sich auszählen und mit geordneten, unkummulierten absoluten (h(aj)) und relativen (f(aj)), sowie kummulierten Häufigkeiten (H(aj), F(aj)) in Tabellen darstellen. Als ordinale Variable dient hier eine allgemeine Bewertungsskala von 0 bis zu der von Ihnen eingestellten Anzahl Ausprägungen k-1.

unkummulierte und kummulierte absolute sowie relative Häufigkkeitsverteilung

Aus den absoluten oder relativen Häufigkeiten können Säulen- oder Balkendiagramme, aus den kummulierten Häufigkeiten die empirische Verteilungsfunktion gezeichnet werden.

Eine metrische Variable

Metrische Variablen lassen sich erst nach Klassieren in Häufigkeitstabellen darstellen. Als metrische Variable X dient hier eine Zufallsziehung aus einer Standardnormalverteilung. Die Kategorisierung der Ausprägungen erfolgt in die Klassen aj mit j=1, ..., k und gleich großen Klassenbreiten.

absolute und relative Häufigkkeitstabelle der kategorisierten Variable

Aus diesen Tabellen können Histogramme, aus den Rohdaten Boxplots und Kerndichteschätzer gezeichnet werden.

Darstellungsmöglichkeiten

Kennwerte einer nominalen Variable

Modus: Die Ausprägung mit der höchten Auftretenshäufigkeit. Besitzen mehrere Ausprägungen die höchste Auftretenshäufigkeit, existieren mehrere Modi. Die Verteilung ist heißt dann Multimodal, sonst Unimodal.

Simpsons normiertes D: Maß für die Gleicheit der Auftretenshäufigkeit der einzelnen Ausprägungen mit Wertebereich zwischen [0;1]. $$D=\frac{k}{k-1}\left( 1- \sum \limits_{j=1}^{k} f^2_j\right) $$ mit k: der Anzahl an Kategorien
f der relativen Auftratenshäufigkeit der Kategorie j.
Wenn D=0 befinden sich alle Fälle in der Modalkategorie,
wenn D=1 dann besitzen alle Kategorien dieselbe Auftretenshäufigkeit.


Kennwerte einer ordinalen Variable

Für ordinale Variablen X können die gleichen Kennwerte, wie für nominale Variablen berechnet werdenn.

Außerdem: Range, Spannweite oder auch Variationsbreite
$$Range=x_{max}-x_{min}$$ p-Quantile: Jeder Wert xp mit 0<p<1, für den mindestens ein Anteil p der Daten kleiner oder gleich xp und mindestens ein Anteil 1−p größer oder gleich xp ist, heißt p-Quantil. $$x_p=x_{[np]+1}, \text{wenn np nicht ganzzahlig }$$ $$x_p \in [x_{np}, x_{[np]+1}], \text{wenn np ganzzahlig }$$ wobei [np] die zu np nächst kleinere ganze Zahl ist.

Ein spezielles Quantil ist der Median:
Der Median, oder das 0,5 Quantil ist die Auspägung der Einheit, die den mittleren Rangplatz besetzt, also der Wert der Einheit mit Rangplatz (n+1)/2. Ist (n+1) ungerade, werden die Ausprägungen der Einheiten mit den Rangplätzen n/2 und (n+2)/2 gemittelt, oder das Intervall der beiden Ausprägungen als Ergebnis angegeben. Der Median ist das 2. Quartil.

Weitere spezielle Quantile sind das 1. und 3. Quartil:
Die Ausprägungen der Einheiten die das 0,25- und 0,75-Quantil besetzen, also die Werte der Einheiten mit dem Rangplatz (n+3)/4 und (3n+1)/4 nennt man 1. und 3. Quartil der Wertereihe X.




Die empirische Verteilungsfunktion F(x) kann für die klassierten und unklassierten Werte xi als Treppenfunktion dargestellt werden.

Kennwerte einer metrischen Variable

Für metrische Variablen X können die gleichen Kennwerte, wie für ordinale Variablen berechnet werdenn.

Außerdem: Der Median bei gruppierten Daten $$ x_{med,grupp}=o_{j-1}+\frac{d_j}{h_j}\left[\frac{n+1}{2}-H(o_{j-1}) \right]$$ Das Arithmetisches Mittel oder auch der Mittelwert $$\bar{x}= \frac{1}{n}\sum \limits_{i=1}^{n}x_i$$ Die empirische Varianz, bzw. deren Wurzel, die empirische Standardabweichung: Die mittlere quadrierte Abweichung vom Mittelwert $$\tilde{s}^2_x= \frac{1}{n}\sum \limits_{i=1}^{n}(x_i-\bar{x})^2$$ Die Stichprobenvarianz sx², bzw. deren Wurzel, die Stichprobenstandardabweichung sx: Die durch (n-1) geteilte Summe der quadrierten Abweichung vom Mittelwert $$s^2_x= \frac{1}{n-1}\sum \limits_{i=1}^{n}(x_i-\bar{x})^2$$ $$s=\sqrt{s^2}$$ Die Schiefe (engl: skewness) der Verteilung der empirischen xi ist:
$$g_m=\frac{\frac{1}{n}\sum \limits_{i=1}^{n}(x_i-\bar{x})^3}{\tilde{s}^3} $$ gm = 0 für symmetrische Verteilungen
gm > 0 für linkssteile Verteilungen
gm < 0 für rechtssteile Verteilungen


Die Wölbung (Kurtosis, oder auch Exzess) der Verteilung der empirischen xi ist:
$$\gamma= \frac{\frac{1}{n}\sum \limits_{i=1}^{n}(x_i-\bar{x})^4}{\tilde{s}^4}-3$$ γ = 0 bei Normalverteilungen
γ > 0 bei spitzeren Verteilungen
γ < 0 bei flacheren Verteilungen



Zwei nominale Variablen

Für die deskriptive Analyse der gemeinsamen empirischen Verteilung zweier nominaler Variablen X und Y mit Realisierungen xi und yi mit i=1, ..., n und den Ausprägungen aj in X, sowie bl in Y mit j=1,..,k und l=1,...,m können die gemeinsamen absoluten (hjl) und relativen (fjl) Häufigkeiten der Ausprägungskombinationen in Tabellen angegeben werden.

Absolute Häufigkeitstabelle

Relative Häufigkeitstabelle


Die Häufigkeiten hjl können auf die Zeilen (hj. , bzw. fj. ), bzw. Spalten (h.l , bzw. f.l ) der Tabelle konditioniert werden.

Auf Zeilen konditionierte Häufigkeitstabellen

Auf Spalten konditionierte Häufigkeitstabelle


Darstellung

Die Häufigkeitstabellen können in unkonditionierten und konditionierten Säulendiagrammen dargestellt werden.












Kennwerte

Der Φ-Koeffizient, auch Kreuzproduktuktverhältnis genannt, lässt sich für zwei binäre oder binärisierte Variablen berechnen:
$$\phi=\frac{h_{00}h_{11}-h_{10}h_{01}}{\sqrt{h_{1.}h_{0.}h_{.0}h_{.1}}} $$ Der χ²-Koeffizient ist ein Maß für die Stärke der Abhängigkeit zweier nominaler Variablen mit beliebig vielen Ausprägungen und mit Wertebereich 0≤χ²: $$\chi^2=\sum\limits_{j=1}^{k} \sum\limits_{l=1}^{m} \frac{(h_{jl}-\tilde{h}_{jl})^2}{\tilde{h}_{jl}} $$ χ² groß, wenn X und Y voneinander abhängen
χ² klein, wenn X und Y kaum/nicht voneinander abhängen

Im Falle zweier binärer Variablen ist Φ eng verwand mit χ²:
$$\phi^2=\frac{\chi^2}{n}$$ Der Kontingenzkoeffizient K ist ein unstandardisiertes Zusammenhangsmaß für das Beschreiben der Abhängigkeit in Kontingenztabellen mit Wertebereich [0;Kmax] $$ K=\sqrt{\frac{\chi^2}{n+\chi^2}}$$ wobei $$K_{max}=\sqrt{\frac{M-1}{M}}$$ mit M=min{k,m}

Der korrigierte Kontingenzkoeffizient K* ist ein standardisiertes Zusammenhangsmaß für das Beschreiben der Abhängigkeit in Kontingenztabellen mit Wertebereich [0;1]: $$K^*= \frac{K}{K_{max}}$$
Cramérs V ist ein weiteres Zusammenhangsmaß für 2 nominale Variablen und ist eng Verwand mit mit χ². Der Wertebereich von V liegt ebenfalls im Intervall [0;1]:
$$V=\sqrt{\frac{\chi^2/n}{min(k-1,m-1)}} $$ Im Falle zweier binärer Variablen lässt sich V auch über den Betrag von Φ angeben: $$V=\sqrt{\frac{\phi^2}{min(k-1,m-1)}}=\sqrt{\phi^2}=|\phi| $$
Hinweis: Neben Φ macht keiner der hier aufgeführten Kennwerte eine Aussage über die Richtung des Zusammenhangs, da nominale Variablen keine Richtung haben, Zeilen und Spalten frei vertauschbar sind.




Eine nominale und eine metrische Variable

Für eine deskriptive Analyse der metrischen Variable Y in allen Ausprägungen der nominalen Variable X werden die Kennwerte der metrischen Variable in jeder der einzelnen Gruppen der nominalen Variable in Tabellen berichtet.

Kennwertetabelle

Darstellung

Die Verteilung der metrischen Variable kann für jede Ausprägung der nominalen Variable mit Boxplots bzw. Kerndichteschätzern dargestellt werden.


Zwei ordinale Variablen

Die gemeinsame empirische Verteilung zweier ordinaler Variablen X und Y lässt sich in absoluten und relativen Häufigkkeitstabellen darstellen. Weiterhin lassen sich die auf Zeilen bzw. Spalten konditionierten Häufigkeiten angeben.

Absolute Häufigkeitstabelle

Relative Häufigkeitstabelle

Auf Zeilen konditionierte Häufigkeitstabelle

Auf Spalten konditionierte Häufigkeitstabelle

Die jeweiligen Rohwertepaare (xi, yi) der Einheiten werden in Ränge (rg(xi, rg(yi) transformiert und können dann in einem Streudiagramm dargestellt werden. Die Richtung und Stärke des Zusammenhangs in den Rängen wird über den Ragkorrelationskoeffizienten ausgedrückt.

Kennwerte zweier ordinaler Variablen


Das Zusammenhangsmaß χ² für zwei nominale Variablen kann auch für zwei ordinale Variablen berechnet werden.

Spearmans Rangkorrelationkoeffizient rSP: Ein standardisiertes Maß für den Zusammenhang zweier ordinaler Variablen im Wertebereich [-1,1]. $$r_{SP}=\frac{\sum\limits_{i=1}^{n} (rg(x_i)-\bar{rg}_X)(rg(y_i)-\bar{rg}_Y)}{\sqrt{\sum\limits_{i=1}^{n} (rg(x_i)-\bar{rg}_X)^2 \sum\limits_{i=1}^{n} (rg(y_i)-\bar{rg}_Y)^2}} $$ mit $$\bar{rg}_x=\frac{\sum\limits_{i=1}^{n}rg(x_i)}{n}=\frac{\sum\limits_{i=1}^{n}i}{n}=\frac{n+1}{2}$$ und $$\bar{rg}_y=\frac{\sum\limits_{i=1}^{n}rg(y_i)}{n}=\frac{\sum\limits_{i=1}^{n}i}{n}=\frac{n+1}{2}$$
Hinweis: Das hier aufgeführte Zusammenhangsmaß zweier rangskalierter ordinaler Variablen lässt sich nur sinnvoll interpretieren, wenn kein nicht-linearer Trend in den Rängen vorliegt.


Zwei metrische Variablen

In tabellarischer Form lassen sich zwei metrische Variablen X und Y nur nach vorherigem Klassieren darstellen. Die jeweiligen Rohwertepaare (xi, yi) der Einheiten können in einem Streudigramm dargestellt und die Art und Stärke des Zusammenhangs über eine Regessionsgerade ausgedrückt werden.

Kennwerte zweier metrischer Variablen


Für die einzelnen Variablen können alle Kennwerte metrischer Variablen berechnet werden.

Alle Zusammenhangsmaße für ordinale und nominale Variablen können nach Transformation berechnet werden.

Kovarianz sxy: Unstandardisiertes Maß für den Zusammenhang zweier metrischer Variablen. $$s_{xy}=\frac{ \sum \limits_{i=1}^{n}\left((x_i-\bar{x})(y_i-\bar{y})\right)}{n-1} $$ Produkt Moment Korrelation r: Standardisiertes Maß für den Zusammenhang zweier metrischer Variablen mit Wertebereich [-1,1]. $$r=\frac{s_{xy}}{s_xs_y} $$ Determinationskoeffizient R²: Maß für den Anteil aufgeklärter Varianz mit Wertebereich [0,1]. $$R^2=r^2 $$ Regressionsgerade: Gradengleichung der Form y=α+βx, mit α dem y-Achsenabschnitt und β dem Steigungsparameter. Sie wird geschätzt über: $$\hat{\beta}=\frac{s_{xy}}{s^2_x}$$ $$\hat{\alpha}=\bar{y}-\hat{\beta}\bar{x}$$
Hinweis: Die hier aufgeführten Zusammenhangsmaße zweier metrischer Variablen lassen sich nur sinnvoll interpretieren, wenn kein nicht-linearer Trend in X und Y vorliegt.


Mittelwerte mit steigendem n

Setting

Aus einer normalverteilten Zufallsvariable X mit Erwartungswert μx und bekannter Varianzen σ²X liegen n unabhängige Ziehungen X1,X2,...,Xn vor.

Geprüft werden soll die H0: μX0 ,
bzw. H0: μX≤μ0 oder H0: μX≥μ0 im gerichteten Fall.

Dargestellt sind die theoretische Stichprobenverteilung der Zufallsvariablen X mit E(X)=μX und Var(X)=σX² und die theooretische Verteilung von X unter Geltung der H0: X0 mit E(X0)=μ0 und Var(X0)=Var(X)=σX².

Der Standardfehler des Mittelwertes ist die Standardabweichung der Mittelwerteverteilung bei n-facher Ziehung und berechnet sich über: $$\sigma_{\bar{x}}=\sqrt{\frac{\sigma_X^2}{n}}$$ Die mit dem Standardfehler standardisierte Differenz des Erwartungswertes μX zu dem in der H0 postulierten Erwartungswert μ0 lautet Z: $$Z=\frac{\mu_X-\mu_0}{\sqrt{\frac{\sigma_X^2}{n}}}$$ und besitzt unter Geltung der H0 den Erwartungswert E(Z)=μX - μ0=0 und die Varianz σ²Z=1. Nach dem zentralen Grenzwertsatz ist die Summe - und somit auch die Differenz - zweier normalverteilter Zuvallsvariablen wieder normalverteilt. Z ist mit μ=0 und σ²=1 somit standardnormalverteilt.

Mit Hilfe der Verteilungsfunktion der Standardnormalverteilung FZ können die Flächen des α- und β-Fehlerbereichs bei belibiger Stichprobengröße n berechnet werden.

Bestimmung des theoretischen β-Fehlers

Der β-Fehler berechnet sich über die Quantile zα der Standardnormalverteilung und der standardisierten Abweichung der Erwartungswerte Z.

Im ungerichteten Fall werden zunächst die zα/2- und z1-α/2-, im gerichteten Fall die zα- bzw. z1-α-Quantile der Standardnormalverteilung bestimmt.

Dann folgt die Berechnung der Quantile, des um die standardisierte Differenz der Erwartungswerte verschobenenen Intervalls [gu ; go], bzw. [gu ; ∞] oder [-∞ ; go] im gerichten Fall.

Beispiel für zweiseitige Testung: $$[g_u;g_o]=\left[z_{\alpha/2}-\frac{\mu_X-\mu_0}{\sqrt{\frac{1}{n}}} ; z_{1-\alpha/2}-\frac{\mu_X-\mu_0}{\sqrt{\frac{1}{n}}}\right]$$ Nun wird mit den Grenzen go und gu die theoretische Wahrscheinlichkeit für das Auftreten eines β-Fehlers P(β) mit der Verteilungsfunktion der Standardnormalverteilung FZ berechnet. $$P(\beta)=F_{z=g_o}-F_{z=g_u}$$
Hinweis: Liegt der Wert für μX im Geltungsbereich der H0 kann es keinen β-Fehler geben. Die Beibehaltung der H0 wäre immer richtig.


Setting

Aus normalverteilten Zufallsvariablen X und Y mit Erwartungswert μx und μy und bekannten Varianzen σ²X und σ²Y liegen n und m unabhängige Ziehungen X1,X2,...,Xn und Y1,Y2,...,Ym vor.

Geprüft werden soll die H0: δ0Y - μX ,
bzw. H0: δ0≤μY - μX oder H0: δ0≥μY - μX im gerichteten Fall.

Dargestellt sind die Stichprobenverteilungen der Zufallsvariablen X und Y.
Da die Summe zweier normalverteilter Zufallsvariablen ebenfalls normalverteilt ist, ist auch die Differenz zweier normalverteilter Zufallsvariablen normalverteilt (siehe: zentraler Grenzwertsatz).

Die Differenz zweier normalverteilter ZV besitzt den Erwartungswert E(Y-X)=E(Y)-E(X) und die Varianz σ²=σ²X/n+σ²Y/m.

Die standardisierte Differenz der Erwartungswerte μY - μX zum Erwartungswert der H0 δ0 lautet Z: $$Z=\frac{\mu_Y - \mu_X - \delta_0}{\sqrt{\frac{\sigma_X^2}{n}+\frac{\sigma_Y^2}{m}}}$$ und besitzt unter Geltung der H0 den Erwartungswert E(Z)=μY - μX - δ0=0 und die Varianz σ²Z=1. Nach dem zentralen Grenzwertsatz ist die Summe - und somit auch die Differenz - zweier normalverteilter Zuvallsvariablen wieder normalverteilt. Z ist mit μ=0 und σ²=1 somit standardnormalverteilt.

Mit Hilfe der Verteilungsfunktion der Standardnormalverteilung FZ können die Flächen des α- und β-Fehlers berechnet werden.

Bestimmung des theoretischen β-Fehlers

Der β-Fehler berechnet sich über die Quantile zα der Standardnormalverteilung und der standardisierten Mittelwertsdifferenz Z.

Im ungerichteten Fall werden zunächst die zα/2- und z1-α/2-, im gerichteten Fall die zα- bzw. z1-α-Quantile der Standardnormalverteilung bestimmt. Dann folgt die Berechnung der Quantile, des um die standardisierte Mitttelwertsdifferenz Z verschobenenen Intervalls [gu ; go], bzw. [gu ; ∞] oder [-∞ ; go] im gerichteten Fall.

Beispiel für zweiseitige Testung: $$[g_u;g_o]=\left[z_{\alpha/2}-\frac{\mu_Y-\mu_X-\delta_0}{\sqrt{\frac{\sigma^2_X}{n}+\frac{\sigma^2_Y}{m}}} ; z_{1-\alpha/2}-\frac{\mu_Y-\mu_X-\delta_0}{\sqrt{\frac{\sigma^2_X}{n}+\frac{\sigma^2_Y}{m}}}\right]$$ Nun wird mit den Grenzen go und gu die theoretische Wahrscheinlichkeit eines β-Fehlers P(β) mit der Verteilungsfunktion der Standardnormalverteilung FZ berechnet. $$P(\beta)=F_{z=g_o}-F_{z=g_u}$$
Hinweis: Liegt der Wert für μYX im Geltungsbereich der H0 kann es keinen β-Fehler geben. Die Beibehaltung der H0 wäre immer richtig.


Setting

Aus zwei normalverteilten Zufallsvariablen X und Y mit hypothetischer Korrelation ρX,Y liegen n unabhängige Ziehungen (X1, Y1), (X2, Y2), ..., (Xn, Yn) vor.

Geprüft werden soll die H0: ρX,Y0,
bzw. H0: ρX,Y≤ρ0 oder H0: ρX,Y≥ρ0 im gerichteten Fall.

Dargestellt sind die Verteilungen der Korrelationen ρ0 und ρX,Y, sowie der α- und β-Fehlerbereich des gegebenen Testsettings.
Die Verteilung von empirischen Korrelationen ist annähern normalverteilt, wenn ρ=0. Gilt ρ≠0 sind die empirischen Korrelationen nicht normalverteilt.

Die Fisher Transformation für empirische Korrelationen ρe lautet: $$f(\rho_e)=\frac{1}{2}ln\left(\frac{1+\rho_e}{1-\rho_e}\right)$$ f(ρε) ist annähernd normalverteilt mit Standardabweichung $$1/\sqrt{n-3}$$ Die Retransformation von f(ρε) zu empirischen Korrelationen erfolgt über: $$r=\frac{e^{2f(\rho_\epsilon)}-1}{e^{2f(\rho_\epsilon)}+1}$$

Bestimmung des theoretischen β-Fehlers

Mit den Fisher transformierten Korrelationen f(ρ0) und f(ρX,Y) sowie den zα/2- und z1-α/2-, bzw. im gerichteten Fall dem zα- bzw. z1-α-Quantilen werden zunächst die Grenzen des α-Fehlerintervalls [g ; g] auf der Fisher transformierten Skala berechnet.

Danach können die Quantile des theoretischen β-Fehlerintervalls [g ; g], bzw. [gu ; ∞] oder [-∞ ; go] im gerichteten Fall, berechnet werden.

Beispiel für zweiseitige Testung: $$[g_{u, \alpha};g_{o, \alpha}]=\left[f(\rho_0)-z_{(1-\alpha)/2}*\sqrt{n-3} ; f(\rho_0)+z_{(1-\alpha)/2}*\sqrt{n-3}\right]$$ $$[g_{u, \beta};g_{o, \beta}]=\left[\frac{g_{u, \alpha}+f(\rho_{X,Y})}{1/\sqrt{n-3}} ; \frac{g_{u, \alpha}-f(\rho_{X,Y})}{1/\sqrt{n-3}}\right]$$ Mit den Quantilen der Standardnormalverteilung Fz kann nun die theoretische Wahrschenlichkeit für einen β-Fehler P(β) berechnet werden. $$P(\beta)=F_{z=g_{o, \beta}}-F_{z=g_{u, \beta}}$$
Hinweis: Liegt der Wert für ρX im Geltungsbereich der H0 kann es keinen β-Fehler geben. Die Beibehaltung der H0 wäre immer richtig.


Setting

Die Wahrscheinlichkeitsfunktion der Binomialverteilung ist definiert durch: $$f(x)=\begin{cases} {n \choose x} \pi^x (1-\pi)^{n-x} & \text{für } x\in \{0,1,...,n\}\\ \text{0 sonst.} \end{cases}\\ \text{mit } n \in \mathbb{N^+} \text{ und } \pi \in [0;1]$$
Die Wahrscheinlichkeitsfunktion der Poisson-Verteilung ist definiert durch: $$f(x)=\begin{cases} P_\lambda (x) = \frac{\lambda^x}{x!}e^{-\lambda} & \text{für }x\in \mathbb{N}_0 \\ \text{0 sonst.} \end{cases}\\ \text{mit }\lambda \in \mathbb{R}^+ $$
Die Dichtefunktion der Normalverteilung ist gegeben durch: $$f(x)=\begin{cases} \frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2} & \text{für } x\in \mathbb{R}\\ \text{0 sonst.} \end{cases}\\ \text{mit } \mu \in \mathbb{R} \text{ und } \sigma \in \mathbb{R^+}$$
Die Dichtefunktion der T-Verteilung mit df Freiheitsgraden ist gegeben durch: $$f(x)=\begin{cases} \frac{\Gamma(\frac{\text{df}+1}{2})}{\Gamma(\frac{\text{df}}{2})\sqrt{\text{df}\pi}} \left( 1+\frac{x^2}{\text{df}}\right) ^{-\frac{\text{df}+1}{2}} & \text{für } x\in \mathbb{R}\\ \text{0 sonst.} \end{cases}\\ \text{mit df} \in \mathbb{N^+} \text{ und }\Gamma() \text{ der Gammafunktion}$$
Die Dichtefunktion der Chi-Quadrat-Verteilung mit df Freiheitsgraden ist gegeben durch: $$f(x)=\begin{cases} \frac{x^{\frac{\text{df}}{2}-1}e^{-\frac{x}{2}}}{2^{\frac{\text{df}}{2}}\Gamma(\frac{\text{df}}{2})} &\text{für }x\in \mathbb{R}_0^+ \\ \text{0 sonst.} \end{cases}\\ \text{mit df} \in \mathbb{N^+} \text{ und }\Gamma() \text{ der Gammafunktion}$$
Die Dichtefunktion der F-Verteilung mit m und n Freiheitsgraden ist gegeben durch: $$f(x)=\begin{cases} \frac{\Gamma(\frac{m+n}{2})\left(\frac{m}{n}\right)^\frac{m}{2}}{\Gamma(\frac{m}{2})\Gamma(\frac{n}{2})} x^{(\frac{m}{2}-1)}\left(1+\frac{m}{n}x \right)^{(-\frac{m+n}{2})}&\text{für }x\in \mathbb{R}_0^+ \\ \text{0 sonst.} \end{cases}\\ \text{mit m und n} \in \mathbb{N^+} \text{ und }\Gamma() \text{ der Gammafunktion}$$
Die Dichtefunktion der Gleichverteilung im Intervall [a,b] ist gegeben durch: $$f(x)= \begin{cases} \frac{1}{b-a} & \text{für }a < x\leq b\\ \text{0 sonst.} \end{cases}$$
Die Dichtefunktion der Betaverteilung ist gegeben durch: $$f(x)=\begin{cases} \frac{1}{B(p,q)}x^{p-1}1-x^{q-1} & \text{für } x \in [0;1]\\ \text{0 sonst.} \end{cases}\\ \text{mit }p\text{ und }q \in \mathbb{R}^+ \text{ und }B() \text{ der Betafunktion}$$
Die Dichtefunktion der Gammaverteilung mit den Parametern p und b ist gegeben durch: $$f(x)=\begin{cases} \frac{b^p}{\Gamma(p)}x^{p-1}e^{-bx} & \text{für } x \in \mathbb{R_0^+}\\ \text{0 sonst.} \end{cases}\\ \text{mit p und b} \in \mathbb{R^+} \text{ und }\Gamma() \text{ der Gammafunktion}$$
Die Verteilungsfunktion der Binomialverteilung ist gegeben durch: $$F(x)=F(x|\pi,n)=\sum_{x=0}^{x}{n \choose x} \pi^x (1-\pi)^{n-x}$$
Die Verteilungsfunktion der Poisson-Verteilung ist gegeben durch: $$F(x)=F_\lambda (x) = \sum_{x=0}^n P_\lambda (x)=e^{-\lambda}\sum_{x=0}^n \frac{\lambda^x}{x!}e^{-\lambda}$$
Die Verteilungsfunktion der Normalverteilung ist gegeben durch: $$F(x)=\frac{1}{\sigma\sqrt{2\pi}}\int_{-\infty}^x e^{-\frac{1}{2}\left(\frac{t-\mu}{\sigma}\right)^2}\mathrm{d}t$$
Die Verteilungsfunktion der T-Verteilung mit df Freiheitsgraden ist gegeben durch: $$F(x)=\frac{\Gamma(\frac{\text{df}+1}{2})}{\Gamma(\frac{\text{df}}{2})\sqrt{\text{df}\pi}}\int_{-\infty}^x \left( 1+\frac{t^2}{\text{df}}\right) ^{-\frac{\text{df}+1}{2}}\text{d}t $$
Die Verteilungsfunktion der Chi-Quadrat-Verteilung mit df Freiheitsgraden ist gegeben durch: $$F(x)=\begin{cases} 0 & \text{für }x\leq 0\\ 1-\frac{\Gamma(\frac{\text{df}}{2},\frac{x}{2})}{\Gamma(\frac{\text{df}}{2})} & \text{für } x > 0\\ \end{cases}$$
Die Verteilungsfunktion der F-Verteilung mit m und n Freiheitsgraden ist gegeben durch: $$F(x)=\begin{cases} 0 & \text{für }x\leq 0\\ \frac{\Gamma(\frac{m+n}{2})\left(\frac{m}{n}\right)^\frac{m}{2}}{\Gamma(\frac{m}{2})\Gamma(\frac{n}{2})} \int_0^x t^{(\frac{m}{2}-1)}\left(1+\frac{m}{n}t \right)^{(-\frac{m+n}{2})}\text{d}t & \text{für } x > 0\\ \end{cases}$$
Die Verteilungsfunktion der Gleichverteilung im Intervall [a,b] ist gegeben durch: $$F(x)=\begin{cases} 0 & \text{für }x\leq a\\ \frac{x-a}{b-a} & \text{für }a < x \leq b\\ 1 & \text{für }x>b \end{cases}$$
Die Verteilungsfunktion der Betaverteilung ist gegeben durch: $$F(x)=\begin{cases} 0 & \text{für }x < 0\\ \frac{1}{B(p,q)}\int_0^x t^{p-1}1-t^{q-1}\text{d}t & \text{für }0 \leq x \leq 1\\ 1 & \text{für }x>1 \end{cases}$$
Die Verteilungsfunktion der Gammaverteilung mit den Parametern p und b ist gegeben durch: $$F(x)=\begin{cases} 0 & \text{für } x\leq 0\\ \frac{b^p}{\Gamma(p)}\int_0^x t^{p-1}e^{-bt}\text{d}t & \text{für } x > 0\\ \end{cases}$$




Statistik Lern App

Diese Statistik lern App ist ein Projekt des Arbeitsbereichs Psychologische Methoden und Statistik des Fachbereichs Psychologie der Universität Hamburg. Die interaktive Visualisierung dreier zentraler Ergebnisse der Statistik wurde im Rahmen eines Forschungspraktikums von Niclas Kuper unter Anleitung von Ingmar Böschen entwickelt.

Wir entwickeln diese Seite ständig weiter. Sollten Sie einen Fehler in einem der Programme gefunden haben, freuen wir uns über Ihre Nachricht.

Möchten Sie eine eigene Lern App für diese Webseite entwicklen? Oder Sie haben einfach eine gute Idee, wie diese App zu einer noch besseren werden könnte? Dann freuen wir uns ebenfalls über ihre Nachricht.

Projektleitung

Dipl.- Psych. Ingmar Böschen
Kontakt: ingmar.boeschen@sumdata.de

Autor

Cand. B.Sc. Niclas Kuper
Kontakt: niclas.kuper@studium.uni-hamburg.de