Willkommen in der Online Statistik Lern App des Arbeitsbereichs Psychologische Methoden und Statistik.
Auf diesen Seiten werden ausgewählte Inhalte der Vorlesung Statistik 1 und 2 dargestellt und vertieft.Wählen Sie eines der obigen Themengebiete aus und erarbeiten Sie sich die Inhalte des jeweiligen Themengebiets, indem Sie die interaktiven Schaltflächen benutzen. In einigen Fällen ist es möglich die Werte zum eigenständigen Rechnen zu nutzen und die Ergebnisse mit den automatisch berechneten Werten zu vergleichen.
...
Diese Webseite wurde mit der freien Statistik Software R und dem Paket Shiny erstellt. Der Quellcode ist frei downloadbar unter:
www.sumdata.de/webapp
R kann kostenfrei heruntergeladen werden auf:
www.r-project.org
Eine nominale Variable
Die Häufigkeit jeder Ausprägung aj mit j=1, ..., k einer nominalen Variable X mit den Realisierungen xi mit i=1, ..., n lässt sich auszählen und als absolute oder relative Häufigkeit (h(aj), f(aj)) in Tabellen darstellen. Die relative Häufigkeit f(aj) berechnet sich über: f(aj)=h(aj)/n. Als nominale Variable dient hier Gruppenzugehörigkeit mit k verschiedenen Gruppen.absolute und relative Häufigkkeitstabelle
Mit den absoluten und relativen Häufigkeiten können Säulen- oder Balkendiagramme erstellt werden.Eine ordinale Variable
Ausprägungen aj ordinaler Variablen lassen sich auszählen und mit geordneten, unkummulierten absoluten (h(aj)) und relativen (f(aj)), sowie kummulierten Häufigkeiten (H(aj), F(aj)) in Tabellen darstellen. Als ordinale Variable dient hier eine allgemeine Bewertungsskala von 0 bis zu der von Ihnen eingestellten Anzahl Ausprägungen k-1.unkummulierte und kummulierte absolute sowie relative Häufigkkeitsverteilung
Aus den absoluten oder relativen Häufigkeiten können Säulen- oder Balkendiagramme, aus den kummulierten Häufigkeiten die empirische Verteilungsfunktion gezeichnet werden.Eine metrische Variable
Metrische Variablen lassen sich erst nach Klassieren in Häufigkeitstabellen darstellen. Als metrische Variable X dient hier eine Zufallsziehung aus einer Standardnormalverteilung. Die Kategorisierung der Ausprägungen erfolgt in die Klassen aj mit j=1, ..., k und gleich großen Klassenbreiten.absolute und relative Häufigkkeitstabelle der kategorisierten Variable
Aus diesen Tabellen können Histogramme, aus den Rohdaten Boxplots und Kerndichteschätzer gezeichnet werden.Darstellungsmöglichkeiten
Kennwerte einer nominalen Variable
Modus: Die Ausprägung mit der höchten Auftretenshäufigkeit. Besitzen mehrere Ausprägungen die höchste Auftretenshäufigkeit, existieren mehrere Modi. Die Verteilung ist heißt dann Multimodal, sonst Unimodal.Simpsons normiertes D: Maß für die Gleicheit der Auftretenshäufigkeit der einzelnen Ausprägungen mit Wertebereich zwischen [0;1]. D=kk−1(1−k∑j=1f2j) mit k: der Anzahl an Kategorien
f
Wenn D=0 befinden sich alle Fälle in der Modalkategorie,
wenn D=1 dann besitzen alle Kategorien dieselbe Auftretenshäufigkeit.
Kennwerte einer ordinalen Variable
Für ordinale Variablen X können die gleichen Kennwerte, wie für nominale Variablen berechnet werdenn.Außerdem: Range, Spannweite oder auch Variationsbreite
Range=xmax−xmin p-Quantile: Jeder Wert xp mit 0<p<1, für den mindestens ein Anteil p der Daten kleiner oder gleich xp und mindestens ein Anteil 1−p größer oder gleich xp ist, heißt p-Quantil. xp=x[np]+1,wenn np nicht ganzzahlig xp∈[xnp,x[np]+1],wenn np ganzzahlig wobei [np] die zu np nächst kleinere ganze Zahl ist.
Ein spezielles Quantil ist der Median:
Der Median, oder das 0,5 Quantil ist die Auspägung der Einheit, die den mittleren Rangplatz besetzt, also der Wert der Einheit mit Rangplatz (n+1)/2. Ist (n+1) ungerade, werden die Ausprägungen der Einheiten mit den Rangplätzen n/2 und (n+2)/2 gemittelt, oder das Intervall der beiden Ausprägungen als Ergebnis angegeben. Der Median ist das 2. Quartil.
Weitere spezielle Quantile sind das 1. und 3. Quartil:
Die Ausprägungen der Einheiten die das 0,25- und 0,75-Quantil besetzen, also die Werte der Einheiten mit dem Rangplatz (n+3)/4 und (3n+1)/4 nennt man 1. und 3. Quartil der Wertereihe X.
Die empirische Verteilungsfunktion F(x) kann für die klassierten und unklassierten Werte xi als Treppenfunktion dargestellt werden.
Außerdem: Der Median bei gruppierten Daten xmed,grupp=oj−1+djhj[n+12−H(oj−1)] Das Arithmetisches Mittel oder auch der Mittelwert ˉx=1nn∑i=1xi Die empirische Varianz, bzw. deren Wurzel, die empirische Standardabweichung: Die mittlere quadrierte Abweichung vom Mittelwert ˜s2x=1nn∑i=1(xi−ˉx)2 Die Stichprobenvarianz sx², bzw. deren Wurzel, die Stichprobenstandardabweichung sx: Die durch (n-1) geteilte Summe der quadrierten Abweichung vom Mittelwert s2x=1n−1n∑i=1(xi−ˉx)2 s=√s2 Die Schiefe (engl: skewness) der Verteilung der empirischen xi ist:
gm=1nn∑i=1(xi−ˉx)3˜s3 gm = 0 für symmetrische Verteilungen
gm > 0 für linkssteile Verteilungen
gm < 0 für rechtssteile Verteilungen
Die Wölbung (Kurtosis, oder auch Exzess) der Verteilung der empirischen xi ist:
γ=1nn∑i=1(xi−ˉx)4˜s4−3 γ = 0 bei Normalverteilungen
γ > 0 bei spitzeren Verteilungen
γ < 0 bei flacheren Verteilungen
Kennwerte einer metrischen Variable
Für metrische Variablen X können die gleichen Kennwerte, wie für ordinale Variablen berechnet werdenn.Außerdem: Der Median bei gruppierten Daten xmed,grupp=oj−1+djhj[n+12−H(oj−1)] Das Arithmetisches Mittel oder auch der Mittelwert ˉx=1nn∑i=1xi Die empirische Varianz, bzw. deren Wurzel, die empirische Standardabweichung: Die mittlere quadrierte Abweichung vom Mittelwert ˜s2x=1nn∑i=1(xi−ˉx)2 Die Stichprobenvarianz sx², bzw. deren Wurzel, die Stichprobenstandardabweichung sx: Die durch (n-1) geteilte Summe der quadrierten Abweichung vom Mittelwert s2x=1n−1n∑i=1(xi−ˉx)2 s=√s2 Die Schiefe (engl: skewness) der Verteilung der empirischen xi ist:
gm=1nn∑i=1(xi−ˉx)3˜s3 gm = 0 für symmetrische Verteilungen
gm > 0 für linkssteile Verteilungen
gm < 0 für rechtssteile Verteilungen
Die Wölbung (Kurtosis, oder auch Exzess) der Verteilung der empirischen xi ist:
γ=1nn∑i=1(xi−ˉx)4˜s4−3 γ = 0 bei Normalverteilungen
γ > 0 bei spitzeren Verteilungen
γ < 0 bei flacheren Verteilungen
Zwei nominale Variablen
Für die deskriptive Analyse der gemeinsamen empirischen Verteilung zweier nominaler Variablen X und Y mit Realisierungen xi und yi mit i=1, ..., n und den Ausprägungen aj in X, sowie bl in Y mit j=1,..,k und l=1,...,m können die gemeinsamen absoluten (hjl) und relativen (fjl) Häufigkeiten der Ausprägungskombinationen in Tabellen angegeben werden.Absolute Häufigkeitstabelle
Relative Häufigkeitstabelle
Die Häufigkeiten hjl können auf die Zeilen (hj. , bzw. fj. ), bzw. Spalten (h.l , bzw. f.l ) der Tabelle konditioniert werden.
Auf Zeilen konditionierte Häufigkeitstabellen
Auf Spalten konditionierte Häufigkeitstabelle
Darstellung
Die Häufigkeitstabellen können in unkonditionierten und konditionierten Säulendiagrammen dargestellt werden.Kennwerte
Der Φ-Koeffizient, auch Kreuzproduktuktverhältnis genannt, lässt sich für zwei binäre oder binärisierte Variablen berechnen:ϕ=h00h11−h10h01√h1.h0.h.0h.1 Der χ²-Koeffizient ist ein Maß für die Stärke der Abhängigkeit zweier nominaler Variablen mit beliebig vielen Ausprägungen und mit Wertebereich 0≤χ²: χ2=k∑j=1m∑l=1(hjl−˜hjl)2˜hjl χ² groß, wenn X und Y voneinander abhängen
χ² klein, wenn X und Y kaum/nicht voneinander abhängen
Im Falle zweier binärer Variablen ist Φ eng verwand mit χ²:
ϕ2=χ2n Der Kontingenzkoeffizient K ist ein unstandardisiertes Zusammenhangsmaß für das Beschreiben der Abhängigkeit in Kontingenztabellen mit Wertebereich [0;Kmax] K=√χ2n+χ2 wobei Kmax=√M−1M mit M=min{k,m}
Der korrigierte Kontingenzkoeffizient K* ist ein standardisiertes Zusammenhangsmaß für das Beschreiben der Abhängigkeit in Kontingenztabellen mit Wertebereich [0;1]: K∗=KKmax
Cramérs V ist ein weiteres Zusammenhangsmaß für 2 nominale Variablen und ist eng Verwand mit mit χ². Der Wertebereich von V liegt ebenfalls im Intervall [0;1]:
V=√χ2/nmin(k−1,m−1) Im Falle zweier binärer Variablen lässt sich V auch über den Betrag von Φ angeben: V=√ϕ2min(k−1,m−1)=√ϕ2=|ϕ|
Hinweis: Neben Φ macht keiner der hier aufgeführten Kennwerte eine Aussage über die Richtung des Zusammenhangs, da nominale Variablen keine Richtung haben, Zeilen und Spalten frei vertauschbar sind.
Eine nominale und eine metrische Variable
Für eine deskriptive Analyse der metrischen Variable Y in allen Ausprägungen der nominalen Variable X werden die Kennwerte der metrischen Variable in jeder der einzelnen Gruppen der nominalen Variable in Tabellen berichtet.Kennwertetabelle
Darstellung
Die Verteilung der metrischen Variable kann für jede Ausprägung der nominalen Variable mit Boxplots bzw. Kerndichteschätzern dargestellt werden.Zwei ordinale Variablen
Die gemeinsame empirische Verteilung zweier ordinaler Variablen X und Y lässt sich in absoluten und relativen Häufigkkeitstabellen darstellen. Weiterhin lassen sich die auf Zeilen bzw. Spalten konditionierten Häufigkeiten angeben.Absolute Häufigkeitstabelle
Relative Häufigkeitstabelle
Auf Zeilen konditionierte Häufigkeitstabelle
Auf Spalten konditionierte Häufigkeitstabelle
Die jeweiligen Rohwertepaare (xi, yi) der Einheiten werden in Ränge (rg(xi, rg(yi) transformiert und können dann in einem Streudiagramm dargestellt werden. Die Richtung und Stärke des Zusammenhangs in den Rängen wird über den Ragkorrelationskoeffizienten ausgedrückt.Kennwerte zweier ordinaler Variablen
Das Zusammenhangsmaß χ² für zwei nominale Variablen kann auch für zwei ordinale Variablen berechnet werden.
Spearmans Rangkorrelationkoeffizient rSP: Ein standardisiertes Maß für den Zusammenhang zweier ordinaler Variablen im Wertebereich [-1,1]. rSP=n∑i=1(rg(xi)−¯rgX)(rg(yi)−¯rgY)√n∑i=1(rg(xi)−¯rgX)2n∑i=1(rg(yi)−¯rgY)2 mit ¯rgx=n∑i=1rg(xi)n=n∑i=1in=n+12 und ¯rgy=n∑i=1rg(yi)n=n∑i=1in=n+12
Hinweis: Das hier aufgeführte Zusammenhangsmaß zweier rangskalierter ordinaler Variablen lässt sich nur sinnvoll interpretieren, wenn kein nicht-linearer Trend in den Rängen vorliegt.
Zwei metrische Variablen
In tabellarischer Form lassen sich zwei metrische Variablen X und Y nur nach vorherigem Klassieren darstellen. Die jeweiligen Rohwertepaare (xi, yi) der Einheiten können in einem Streudigramm dargestellt und die Art und Stärke des Zusammenhangs über eine Regessionsgerade ausgedrückt werden.Kennwerte zweier metrischer Variablen
Für die einzelnen Variablen können alle Kennwerte metrischer Variablen berechnet werden.
Alle Zusammenhangsmaße für ordinale und nominale Variablen können nach Transformation berechnet werden.
Kovarianz sxy: Unstandardisiertes Maß für den Zusammenhang zweier metrischer Variablen. sxy=n∑i=1((xi−ˉx)(yi−ˉy))n−1 Produkt Moment Korrelation r: Standardisiertes Maß für den Zusammenhang zweier metrischer Variablen mit Wertebereich [-1,1]. r=sxysxsy Determinationskoeffizient R²: Maß für den Anteil aufgeklärter Varianz mit Wertebereich [0,1]. R2=r2 Regressionsgerade: Gradengleichung der Form y=α+βx, mit α dem y-Achsenabschnitt und β dem Steigungsparameter. Sie wird geschätzt über: ˆβ=sxys2x ˆα=ˉy−ˆβˉx
Hinweis: Die hier aufgeführten Zusammenhangsmaße zweier metrischer Variablen lassen sich nur sinnvoll interpretieren, wenn kein nicht-linearer Trend in X und Y vorliegt.
Mittelwerte mit steigendem n
Setting
Aus einer normalverteilten Zufallsvariable X mit Erwartungswert μx und bekannter Varianzen σ²X liegen n unabhängige Ziehungen X1,X2,...,Xn vor.Geprüft werden soll die H0: μX=μ0 ,
bzw. H0: μX≤μ0 oder H0: μX≥μ0 im gerichteten Fall.
Dargestellt sind die theoretische Stichprobenverteilung der Zufallsvariablen X mit E(X)=μX und Var(X)=σX² und die theooretische Verteilung von X unter Geltung der H0: X0 mit E(X0)=μ0 und Var(X0)=Var(X)=σX².
Der Standardfehler des Mittelwertes ist die Standardabweichung der Mittelwerteverteilung bei n-facher Ziehung und berechnet sich über: σˉx=√σ2Xn Die mit dem Standardfehler standardisierte Differenz des Erwartungswertes μX zu dem in der H0 postulierten Erwartungswert μ0 lautet Z: Z=μX−μ0√σ2Xn und besitzt unter Geltung der H0 den Erwartungswert E(Z)=μX - μ0=0 und die Varianz σ²Z=1. Nach dem zentralen Grenzwertsatz ist die Summe - und somit auch die Differenz - zweier normalverteilter Zuvallsvariablen wieder normalverteilt. Z ist mit μ=0 und σ²=1 somit standardnormalverteilt.
Mit Hilfe der Verteilungsfunktion der Standardnormalverteilung FZ können die Flächen des α- und β-Fehlerbereichs bei belibiger Stichprobengröße n berechnet werden.
Bestimmung des theoretischen β-Fehlers
Der β-Fehler berechnet sich über die Quantile zα der Standardnormalverteilung und der standardisierten Abweichung der Erwartungswerte Z.Im ungerichteten Fall werden zunächst die zα/2- und z1-α/2-, im gerichteten Fall die zα- bzw. z1-α-Quantile der Standardnormalverteilung bestimmt.
Dann folgt die Berechnung der Quantile, des um die standardisierte Differenz der Erwartungswerte verschobenenen Intervalls [gu ; go], bzw. [gu ; ∞] oder [-∞ ; go] im gerichten Fall.
Beispiel für zweiseitige Testung: [gu;go]=[zα/2−μX−μ0√1n;z1−α/2−μX−μ0√1n] Nun wird mit den Grenzen go und gu die theoretische Wahrscheinlichkeit für das Auftreten eines β-Fehlers P(β) mit der Verteilungsfunktion der Standardnormalverteilung FZ berechnet. P(β)=Fz=go−Fz=gu
Hinweis: Liegt der Wert für μX im Geltungsbereich der H0 kann es keinen β-Fehler geben. Die Beibehaltung der H0 wäre immer richtig.
Setting
Aus normalverteilten Zufallsvariablen X und Y mit Erwartungswert μx und μy und bekannten Varianzen σ²X und σ²Y liegen n und m unabhängige Ziehungen X1,X2,...,Xn und Y1,Y2,...,Ym vor.Geprüft werden soll die H0: δ0=μY - μX ,
bzw. H0: δ0≤μY - μX oder H0: δ0≥μY - μX im gerichteten Fall.
Dargestellt sind die Stichprobenverteilungen der Zufallsvariablen X und Y. Da die Summe zweier normalverteilter Zufallsvariablen ebenfalls normalverteilt ist, ist auch die Differenz zweier normalverteilter Zufallsvariablen normalverteilt (siehe: zentraler Grenzwertsatz).
Die Differenz zweier normalverteilter ZV besitzt den Erwartungswert E(Y-X)=E(Y)-E(X) und die Varianz σ²=σ²X/n+σ²Y/m.
Die standardisierte Differenz der Erwartungswerte μY - μX zum Erwartungswert der H0 δ0 lautet Z: Z=μY−μX−δ0√σ2Xn+σ2Ym und besitzt unter Geltung der H0 den Erwartungswert E(Z)=μY - μX - δ0=0 und die Varianz σ²Z=1. Nach dem zentralen Grenzwertsatz ist die Summe - und somit auch die Differenz - zweier normalverteilter Zuvallsvariablen wieder normalverteilt. Z ist mit μ=0 und σ²=1 somit standardnormalverteilt.
Mit Hilfe der Verteilungsfunktion der Standardnormalverteilung FZ können die Flächen des α- und β-Fehlers berechnet werden.
Bestimmung des theoretischen β-Fehlers
Der β-Fehler berechnet sich über die Quantile zα der Standardnormalverteilung und der standardisierten Mittelwertsdifferenz Z.Im ungerichteten Fall werden zunächst die zα/2- und z1-α/2-, im gerichteten Fall die zα- bzw. z1-α-Quantile der Standardnormalverteilung bestimmt. Dann folgt die Berechnung der Quantile, des um die standardisierte Mitttelwertsdifferenz Z verschobenenen Intervalls [gu ; go], bzw. [gu ; ∞] oder [-∞ ; go] im gerichteten Fall.
Beispiel für zweiseitige Testung: [gu;go]=[zα/2−μY−μX−δ0√σ2Xn+σ2Ym;z1−α/2−μY−μX−δ0√σ2Xn+σ2Ym] Nun wird mit den Grenzen go und gu die theoretische Wahrscheinlichkeit eines β-Fehlers P(β) mit der Verteilungsfunktion der Standardnormalverteilung FZ berechnet. P(β)=Fz=go−Fz=gu
Hinweis: Liegt der Wert für μY-μX im Geltungsbereich der H0 kann es keinen β-Fehler geben. Die Beibehaltung der H0 wäre immer richtig.
Setting
Aus zwei normalverteilten Zufallsvariablen X und Y mit hypothetischer Korrelation ρX,Y liegen n unabhängige Ziehungen (X1, Y1), (X2, Y2), ..., (Xn, Yn) vor.Geprüft werden soll die H0: ρX,Y=ρ0,
bzw. H0: ρX,Y≤ρ0 oder H0: ρX,Y≥ρ0 im gerichteten Fall.
Dargestellt sind die Verteilungen der Korrelationen ρ0 und ρX,Y, sowie der α- und β-Fehlerbereich des gegebenen Testsettings. Die Verteilung von empirischen Korrelationen ist annähern normalverteilt, wenn ρ=0. Gilt ρ≠0 sind die empirischen Korrelationen nicht normalverteilt.
Die Fisher Transformation für empirische Korrelationen ρe lautet: f(ρe)=12ln(1+ρe1−ρe) f(ρε) ist annähernd normalverteilt mit Standardabweichung 1/√n−3 Die Retransformation von f(ρε) zu empirischen Korrelationen erfolgt über: r=e2f(ρϵ)−1e2f(ρϵ)+1
Bestimmung des theoretischen β-Fehlers
Mit den Fisher transformierten Korrelationen f(ρ0) und f(ρX,Y) sowie den zα/2- und z1-α/2-, bzw. im gerichteten Fall dem zα- bzw. z1-α-Quantilen werden zunächst die Grenzen des α-Fehlerintervalls [guα ; goα] auf der Fisher transformierten Skala berechnet.Danach können die Quantile des theoretischen β-Fehlerintervalls [guβ ; goβ], bzw. [gu ; ∞] oder [-∞ ; go] im gerichteten Fall, berechnet werden.
Beispiel für zweiseitige Testung: [gu,α;go,α]=[f(ρ0)−z(1−α)/2∗√n−3;f(ρ0)+z(1−α)/2∗√n−3] [gu,β;go,β]=[gu,α+f(ρX,Y)1/√n−3;gu,α−f(ρX,Y)1/√n−3] Mit den Quantilen der Standardnormalverteilung Fz kann nun die theoretische Wahrschenlichkeit für einen β-Fehler P(β) berechnet werden. P(β)=Fz=go,β−Fz=gu,β
Hinweis: Liegt der Wert für ρX im Geltungsbereich der H0 kann es keinen β-Fehler geben. Die Beibehaltung der H0 wäre immer richtig.
Setting
Die Wahrscheinlichkeitsfunktion der Binomialverteilung ist definiert durch:
f(x)=\begin{cases}
{n \choose x} \pi^x (1-\pi)^{n-x} & \text{für } x\in \{0,1,...,n\}\\
\text{0 sonst.}
\end{cases}\\
\text{mit } n \in \mathbb{N^+} \text{ und } \pi \in [0;1]
Die Wahrscheinlichkeitsfunktion der Poisson-Verteilung ist definiert durch:
f(x)=\begin{cases}
P_\lambda (x) = \frac{\lambda^x}{x!}e^{-\lambda} & \text{für }x\in \mathbb{N}_0 \\
\text{0 sonst.}
\end{cases}\\
\text{mit }\lambda \in \mathbb{R}^+
Die Dichtefunktion der Normalverteilung ist gegeben durch:
f(x)=\begin{cases}
\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2} & \text{für } x\in \mathbb{R}\\
\text{0 sonst.}
\end{cases}\\
\text{mit } \mu \in \mathbb{R} \text{ und } \sigma \in \mathbb{R^+}
Die Dichtefunktion der T-Verteilung mit df Freiheitsgraden ist gegeben durch:
f(x)=\begin{cases}
\frac{\Gamma(\frac{\text{df}+1}{2})}{\Gamma(\frac{\text{df}}{2})\sqrt{\text{df}\pi}} \left( 1+\frac{x^2}{\text{df}}\right) ^{-\frac{\text{df}+1}{2}} & \text{für } x\in \mathbb{R}\\
\text{0 sonst.}
\end{cases}\\
\text{mit df} \in \mathbb{N^+} \text{ und }\Gamma() \text{ der Gammafunktion}
Die Dichtefunktion der Chi-Quadrat-Verteilung mit df Freiheitsgraden ist gegeben durch:
f(x)=\begin{cases}
\frac{x^{\frac{\text{df}}{2}-1}e^{-\frac{x}{2}}}{2^{\frac{\text{df}}{2}}\Gamma(\frac{\text{df}}{2})} &\text{für }x\in \mathbb{R}_0^+ \\
\text{0 sonst.}
\end{cases}\\
\text{mit df} \in \mathbb{N^+} \text{ und }\Gamma() \text{ der Gammafunktion}
Die Dichtefunktion der F-Verteilung mit m und n Freiheitsgraden ist gegeben durch:
f(x)=\begin{cases}
\frac{\Gamma(\frac{m+n}{2})\left(\frac{m}{n}\right)^\frac{m}{2}}{\Gamma(\frac{m}{2})\Gamma(\frac{n}{2})}
x^{(\frac{m}{2}-1)}\left(1+\frac{m}{n}x \right)^{(-\frac{m+n}{2})}&\text{für }x\in \mathbb{R}_0^+ \\
\text{0 sonst.}
\end{cases}\\
\text{mit m und n} \in \mathbb{N^+} \text{ und }\Gamma() \text{ der Gammafunktion}
Die Dichtefunktion der Gleichverteilung im Intervall [a,b] ist gegeben durch:
f(x)=
\begin{cases}
\frac{1}{b-a} & \text{für }a < x\leq b\\
\text{0 sonst.}
\end{cases}
Die Dichtefunktion der Betaverteilung ist gegeben durch:
f(x)=\begin{cases}
\frac{1}{B(p,q)}x^{p-1}1-x^{q-1} & \text{für } x \in [0;1]\\
\text{0 sonst.}
\end{cases}\\
\text{mit }p\text{ und }q \in \mathbb{R}^+ \text{ und }B() \text{ der Betafunktion}
Die Dichtefunktion der Gammaverteilung mit den Parametern p und b ist gegeben durch:
f(x)=\begin{cases}
\frac{b^p}{\Gamma(p)}x^{p-1}e^{-bx} & \text{für } x \in \mathbb{R_0^+}\\
\text{0 sonst.}
\end{cases}\\
\text{mit p und b} \in \mathbb{R^+} \text{ und }\Gamma() \text{ der Gammafunktion}
Die Verteilungsfunktion der Binomialverteilung ist gegeben durch:
F(x)=F(x|\pi,n)=\sum_{x=0}^{x}{n \choose x} \pi^x (1-\pi)^{n-x}
Die Verteilungsfunktion der Poisson-Verteilung ist gegeben durch:
F(x)=F_\lambda (x) = \sum_{x=0}^n P_\lambda (x)=e^{-\lambda}\sum_{x=0}^n \frac{\lambda^x}{x!}e^{-\lambda}
Die Verteilungsfunktion der Normalverteilung ist gegeben durch:
F(x)=\frac{1}{\sigma\sqrt{2\pi}}\int_{-\infty}^x e^{-\frac{1}{2}\left(\frac{t-\mu}{\sigma}\right)^2}\mathrm{d}t
Die Verteilungsfunktion der T-Verteilung mit df Freiheitsgraden ist gegeben durch:
F(x)=\frac{\Gamma(\frac{\text{df}+1}{2})}{\Gamma(\frac{\text{df}}{2})\sqrt{\text{df}\pi}}\int_{-\infty}^x \left( 1+\frac{t^2}{\text{df}}\right) ^{-\frac{\text{df}+1}{2}}\text{d}t
Die Verteilungsfunktion der Chi-Quadrat-Verteilung mit df Freiheitsgraden ist gegeben durch:
F(x)=\begin{cases}
0 & \text{für }x\leq 0\\
1-\frac{\Gamma(\frac{\text{df}}{2},\frac{x}{2})}{\Gamma(\frac{\text{df}}{2})} & \text{für } x > 0\\
\end{cases}
Die Verteilungsfunktion der F-Verteilung mit m und n Freiheitsgraden ist gegeben durch:
F(x)=\begin{cases}
0 & \text{für }x\leq 0\\
\frac{\Gamma(\frac{m+n}{2})\left(\frac{m}{n}\right)^\frac{m}{2}}{\Gamma(\frac{m}{2})\Gamma(\frac{n}{2})}
\int_0^x t^{(\frac{m}{2}-1)}\left(1+\frac{m}{n}t \right)^{(-\frac{m+n}{2})}\text{d}t & \text{für } x > 0\\
\end{cases}
Die Verteilungsfunktion der Gleichverteilung im Intervall [a,b] ist gegeben durch:
F(x)=\begin{cases}
0 & \text{für }x\leq a\\
\frac{x-a}{b-a} & \text{für }a < x \leq b\\
1 & \text{für }x>b
\end{cases}
Die Verteilungsfunktion der Betaverteilung ist gegeben durch:
F(x)=\begin{cases}
0 & \text{für }x < 0\\
\frac{1}{B(p,q)}\int_0^x t^{p-1}1-t^{q-1}\text{d}t & \text{für }0 \leq x \leq 1\\
1 & \text{für }x>1
\end{cases}
Die Verteilungsfunktion der Gammaverteilung mit den Parametern p und b ist gegeben durch:
F(x)=\begin{cases}
0 & \text{für } x\leq 0\\
\frac{b^p}{\Gamma(p)}\int_0^x t^{p-1}e^{-bt}\text{d}t & \text{für } x > 0\\
\end{cases}
Statistik Lern App
Diese Statistik lern App ist ein Projekt des Arbeitsbereichs Psychologische Methoden und Statistik des Fachbereichs Psychologie der Universität Hamburg. Die interaktive Visualisierung dreier zentraler Ergebnisse der Statistik wurde im Rahmen eines Forschungspraktikums von Niclas Kuper unter Anleitung von Ingmar Böschen entwickelt.Wir entwickeln diese Seite ständig weiter. Sollten Sie einen Fehler in einem der Programme gefunden haben, freuen wir uns über Ihre Nachricht.
Möchten Sie eine eigene Lern App für diese Webseite entwicklen? Oder Sie haben einfach eine gute Idee, wie diese App zu einer noch besseren werden könnte? Dann freuen wir uns ebenfalls über ihre Nachricht.
Projektleitung
Dipl.- Psych. Ingmar BöschenKontakt: ingmar.boeschen@sumdata.de
Autor
Cand. B.Sc. Niclas KuperKontakt: niclas.kuper@studium.uni-hamburg.de