text.skipToContent text.skipToNavigation
background-image

Statistik - Deskriptive Verfahren von Holling, Heinz (eBook)

  • Verlag: Hogrefe Verlag Göttingen
eBook (PDF)
26,99 €
inkl. gesetzl. MwSt.
Sofort per Download lieferbar

Online verfügbar

Statistik - Deskriptive Verfahren

Statistik gilt im Allgemeinen als ein schwieriges Fach, das nur wenig Spaß macht. Diesem Vorurteil möchte das vorliegende Lehrbuch entgegenwirken. Die wesentlichen statistischen Konzepte werden gut verständlich und anhand anschaulicher Beispiele erklärt. Bei der Darstellung der Inhalte wird großer Wert darauf gelegt, den Sinn statistischer Anwendungen nachvollziehen zu können und die Bedeutung, die Statistik für die Gewinnung neuer Erkenntnisse hat, aufzuzeigen.

Produktinformationen

    Format: PDF
    Kopierschutz: watermark
    Seitenzahl: 357
    Sprache: Deutsch
    ISBN: 9783840921346
    Verlag: Hogrefe Verlag Göttingen
    Größe: 11938 kBytes
Weiterlesen weniger lesen

Statistik - Deskriptive Verfahren

Kapitel 9 Einfache lineare Regression (S. 223-224)

Im letzten Kapitel wurden verschiedene Koeffizienten zum Zusammenhang von zwei Variablen vorgestellt. Bei Zusammenhangsmaßen handelt es sich um symmetrische Maße, bei denen beide Variablen "gleichwertig" sind. Es wurden zudem als asymmetrische Maße lYX und lXY dargestellt, die sich dadurch auszeichnen, dass eine der beiden Variablen durch die andere Variable vorhergesagt wird.

Bei der in diesem Kapitel vorgestellten einfachen linearen Regression wird ebenfalls eine Variable durch eine andere Variable vorhergesagt bzw. erklärt. Während die l- Maße für nominalskalierte Variablen berechnet werden können, ist bei der linearen Regression für beide Variablen (mindestens) Intervallskalenniveau gefordert. Wie wir sehen werden, hängt die einfache lineare Regression eng mit der Produkt-Moment-Korrelation zusammen.

9.1 Grundlagen der einfachen linearen Regression

Das Streudiagramm stellt, wie im vorhergehenden Kapitel erläutert wurde, eine adäquate Methode für die grafische Darstellung zweier intervallskalierter Variablen dar. In der linearen Regression wird nun eine Gerade durch die Punktwolke gelegt, sodass die Werte der einen Variablen durch die Werte der anderen Variablen möglichst gut vorhergesagt werden können.

Die Variable, die vorhergesagt werden soll, wird als abhängige Variable (AV), Antwort- bzw. Responsevariable oder als Kriterium bezeichnet. Kriterium Die andere Variable, die zur Vorhersage dient, heißt unabhängige Variable (UV) oder auch Prädiktor. Welche der beiden Variablen als Kri- Prädiktor terium bzw. als Prädiktor dient, ist aufgrund inhaltlicher Erwägungen festzulegen. Die unabhängige Variable bezeichnen wir zumeist mit X, die abhängige Variable mit Y.

Bei der Regression von Y auf X werden die Werte der Variablen Y auf die Werte der Variablen X zurückgeführt. Wenn eine abhängige Variable lediglich durch einen Prädiktor vorhergesagt wird, liegt eine einfache Regression vor, im linearen Modell, das in Kapitel 10 behandelt wird, können mehrere Prädiktoren eingesetzt werden. Als Beispiel betrachten wir wiederum die fiktiven Werte für die Intelligenz (IQ) und die Deutschnote von 11 Schülern, die wir in Tabelle 8.7 vorgestellt haben.

Da die Intelligenz die Schulnote beeinflusst, dient die Variable IQ als unabhängige, die Variable Deutschnote als abhängige Variable. Wie in Abbildung 9.1 dargestellt, können unterschiedliche Geraden durch die Punktwolke gelegt werden. Bei der einfachen linearen Regression wird nun eine solche Gerade gewählt, die eine optimale Vorhersage der abhängigen durch die unabhängige Variable erlaubt. Diese Gerade wird dann die Regressionsgerade genannt.

Weiterlesen weniger lesen

Kundenbewertungen