Gediga / Holling | Statistik – Deskriptive Verfahren | E-Book | sack.de
E-Book

E-Book, Deutsch, 355 Seiten

Reihe: Bachelorstudium Psychologie

Gediga / Holling Statistik – Deskriptive Verfahren


1. Auflage 2011
ISBN: 978-3-8409-2134-6
Verlag: Hogrefe Publishing
Format: PDF
Kopierschutz: 1 - PDF Watermark

E-Book, Deutsch, 355 Seiten

Reihe: Bachelorstudium Psychologie

ISBN: 978-3-8409-2134-6
Verlag: Hogrefe Publishing
Format: PDF
Kopierschutz: 1 - PDF Watermark



Statistik gilt im Allgemeinen als ein schwieriges Fach, das nur wenig Spaß macht. Diesem Vorurteil möchte das vorliegende Lehrbuch entgegenwirken. Die wesentlichen statistischen Konzepte werden gut verständlich und anhand anschaulicher Beispiele erklärt. Bei der Darstellung der Inhalte wird großer Wert darauf gelegt, den Sinn statistischer Anwendungen nachvollziehen zu können und die Bedeutung, die Statistik für die Gewinnung neuer Erkenntnisse hat, aufzuzeigen. Dieser Band enthält die wichtigsten Themen der beschreibenden (deskriptiven) Statistik: Grundbegriffe und Aufgaben der Statistik, die Klassifikation von Daten, Häufigkeitsverteilungen und Maßzahlen für Variablen. Die grundlegenden Verfahren der uni- und bivariaten deskriptiven Statistik werden erläutert und die einfache und multiple Regression im Rahmen des linearen Modells ausführlich behandelt. Dabei wird ein besonderes Gewicht auf die Erläuterungen gelegt, wie die Ergebnisse inhaltlich zu interpretieren sind. Ergänzend wird das Vorgehen mit den Softwarepaketen R und SPSS illustriert. Zahlreiche Kästen mit Zusammenfassungen, Regeln und Definitionen strukturieren den Text und erleichtern das Verständnis der Inhalte. Vertiefende Informationen werden zudem auf der Website zum Buch zur Verfügung gestellt.

Gediga / Holling Statistik – Deskriptive Verfahren jetzt bestellen!

Weitere Infos & Material


1;Statistik – Deskriptive Verfahren;1
2;Inhaltsverzeichnis;7
3;Kapitel 1: Über dieses Buch;13
3.1;1.1 Zum Inhalt dieses Buches;15
3.2;1.2 Danksagung;17
4;Kapitel 2: Zur Relevanz der Statistik;19
4.1;2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven Diagnose eines recht exakten Tests;21
4.2;2.2 Beispiel 2: Nationale Herkunft und Schulversagen;23
4.3;2.3 Beispiel 3: Zulassung zum Studium in Abhängigkeit vom Geschlecht;24
4.4;2.4 Beispiel 4: Studiendauer und Einstiegsgehalt;26
5;Kapitel 3: Grundbegriffe und Aufgaben der Statistik;29
5.1;3.1 Daten;32
5.2;3.2 Stichprobenziehung;33
5.3;3.3 Deskriptive Statistik;35
5.4;3.4 Inferenzstatistik;37
5.5;Zusammenfassung;38
5.6;Zentrale Begriffe;39
6;Kapitel 4: Klassifikation von Daten;41
6.1;4.1 Das Skalenniveau einer Variablen;44
6.2;4.2 Weitere Klassifikationen von Variablen;56
6.3;4.3 Fehlende Werte;58
6.4;4.4 Software;59
6.5;Zusammenfassung;61
6.6;Zentrale Begriffe;62
7;Kapitel 5: Univariate Häufigkeitsverteilungen;63
7.1;5.1 Häufigkeitsverteilungen;65
7.2;5.2 Tabellarische Darstellung von Häufigkeitsverteilungen;66
7.3;5.3 Grafische Darstellung von Häufigkeitsverteilungen;68
7.4;5.4 Formen von Häufigkeitsverteilungen;75
7.5;5.5 Darstellung der empirischen Verteilungsfunktion;80
7.6;5.6 Software;84
7.7;Zusammenfassung;86
7.8;Zentrale Begriffe;87
7.9;Notation;88
8;Kapitel 6: Univariate deskriptive Statistiken;89
8.1;6.1 Statistiken für die zentrale Tendenz von Variablen;92
8.2;6.2 Quantile;101
8.3;6.3 Statistiken für die Streuung von Variablen;104
8.4;6.4 Statistiken für die Schiefe einer Verteilung;118
8.5;6.5 Statistik für die Wölbung einer Verteilung;122
8.6;6.6 Software;125
8.7;Zusammenfassung;126
8.8;Zentrale Begriffe;128
8.9;Notation;129
9;Kapitel 7: Standardisierung und extreme Werte von Variablen;131
9.1;7.1 Standardisierung von Variablen;133
9.2;7.2 Extreme Werte und Ausreißer;142
9.3;7.3 Boxplots;144
9.4;7.4 Software;148
9.5;Zusammenfassung;149
9.6;Zentrale Begriffe;150
9.7;Notation;151
10;Kapitel 8: Bivariate deskriptive Statistik;153
10.1;8.1 Bivariate Häufigkeitsverteilungen;155
10.2;8.2 Grafische Darstellung bivariater Häufigkeitsverteilungen;160
10.3;8.3 Numerische Zusammenhangsmaße für bivariate Verteilungen;163
10.4;8.4 Zusammenhangsmaße für intervallskalierte Variablen;164
10.5;8.5 Zusammenhangsmaße für ordinalskalierte Variablen;175
10.6;8.6 Zusammenhangsmaße für nominalskalierte Variablen;189
10.7;8.7 Zusammenhangsmaße für Variablen mit unterschiedlichem Skalenniveau;206
10.8;8.8 Übersicht über die behandelten Zusammenhangsmaße;213
10.9;8.9 Software;216
10.10;Zusammenfassung;219
10.11;Zentrale Begriffe;220
10.12;Notation;224
11;Kapitel 9: Einfache lineare Regression;225
11.1;9.1 Grundlagen der einfachen linearen Regression;227
11.2;9.2 Bestimmung der Regressionsgeraden;229
11.3;9.3 Standardisierte Regressionskoeffizienten;235
11.4;9.4 Zerlegung der Variation in der einfachen linearen Regression;237
11.5;9.5 Determinationskoeffizient;241
11.6;9.6 Fehlervarianz und Standardschätzfehler;244
11.7;9.7 Weitere Statistiken in der einfachen linearen Regression;247
11.8;9.8 Voraussetzungen der einfachen linearen Regression;249
11.9;9.9 Software;258
11.10;Zusammenfassung;260
11.11;Zentrale Begriffe;260
11.12;Notation;262
12;Kapitel 10: Das lineare Modell;263
12.1;10.1 Grundlagen des linearen Modells;265
12.2;10.2 Multiple Regression;267
12.3;10.3 Multiple Regression mit unkorrelierten Prädiktoren;275
12.4;10.4 Multiple Regression mit korrelierten Prädiktoren;282
12.5;10.5 Lineares Modell mit nominalskalierten Prädiktoren;304
12.6;10.6 Lineares Modell mit nominalskalierten und intervallskalierten Prädiktoren;312
12.7;10.7 Nicht lineare Transformationen;313
12.8;10.8 Interaktion der Prädiktoren;317
12.9;10.9 Überprüfung der Voraussetzungen des linearen Modells;327
12.10;10.10 Software;329
12.11;Zusammenfassung;331
12.12;Zentrale Begriffe;332
12.13;Notation;333
13;Buch_Anhang.pdf;335
13.1;Literatur;337
13.2;Glossar;339
13.3;Sachregister;351
13.4;Normalverteilungstabelle;355


Kapitel 9 Einfache lineare Regression (S. 223-224)

Im letzten Kapitel wurden verschiedene Koeffizienten zum Zusammenhang von zwei Variablen vorgestellt. Bei Zusammenhangsmaßen handelt es sich um symmetrische Maße, bei denen beide Variablen „gleichwertig“ sind. Es wurden zudem als asymmetrische Maße lYX und lXY dargestellt, die sich dadurch auszeichnen, dass eine der beiden Variablen durch die andere Variable vorhergesagt wird.

Bei der in diesem Kapitel vorgestellten einfachen linearen Regression wird ebenfalls eine Variable durch eine andere Variable vorhergesagt bzw. erklärt. Während die l- Maße für nominalskalierte Variablen berechnet werden können, ist bei der linearen Regression für beide Variablen (mindestens) Intervallskalenniveau gefordert. Wie wir sehen werden, hängt die einfache lineare Regression eng mit der Produkt-Moment-Korrelation zusammen.

9.1 Grundlagen der einfachen linearen Regression

Das Streudiagramm stellt, wie im vorhergehenden Kapitel erläutert wurde, eine adäquate Methode für die grafische Darstellung zweier intervallskalierter Variablen dar. In der linearen Regression wird nun eine Gerade durch die Punktwolke gelegt, sodass die Werte der einen Variablen durch die Werte der anderen Variablen möglichst gut vorhergesagt werden können.

Die Variable, die vorhergesagt werden soll, wird als abhängige Variable (AV), Antwort- bzw. Responsevariable oder als Kriterium bezeichnet. Kriterium Die andere Variable, die zur Vorhersage dient, heißt unabhängige Variable (UV) oder auch Prädiktor. Welche der beiden Variablen als Kri- Prädiktor terium bzw. als Prädiktor dient, ist aufgrund inhaltlicher Erwägungen festzulegen. Die unabhängige Variable bezeichnen wir zumeist mit X, die abhängige Variable mit Y.

Bei der Regression von Y auf X werden die Werte der Variablen Y auf die Werte der Variablen X zurückgeführt. Wenn eine abhängige Variable lediglich durch einen Prädiktor vorhergesagt wird, liegt eine einfache Regression vor, im linearen Modell, das in Kapitel 10 behandelt wird, können mehrere Prädiktoren eingesetzt werden. Als Beispiel betrachten wir wiederum die fiktiven Werte für die Intelligenz (IQ) und die Deutschnote von 11 Schülern, die wir in Tabelle 8.7 vorgestellt haben.

Da die Intelligenz die Schulnote beeinflusst, dient die Variable IQ als unabhängige, die Variable Deutschnote als abhängige Variable. Wie in Abbildung 9.1 dargestellt, können unterschiedliche Geraden durch die Punktwolke gelegt werden. Bei der einfachen linearen Regression wird nun eine solche Gerade gewählt, die eine optimale Vorhersage der abhängigen durch die unabhängige Variable erlaubt. Diese Gerade wird dann die Regressionsgerade genannt.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.