E-Book, Deutsch, 327 Seiten
Reihe: Bachelorstudium Psychologie
Holling / Gediga Statistik – Wahrscheinlichkeitstheorie und Schätzverfahren
1. Auflage 2013
ISBN: 978-3-8409-2135-3
Verlag: Hogrefe Publishing
Format: PDF
Kopierschutz: 1 - PDF Watermark
E-Book, Deutsch, 327 Seiten
Reihe: Bachelorstudium Psychologie
ISBN: 978-3-8409-2135-3
Verlag: Hogrefe Publishing
Format: PDF
Kopierschutz: 1 - PDF Watermark
Das Lehrbuch ergänzt den Band 'Statistik – Deskriptive Verfahren' (ISBN 978-3-8017-2134-3) um die Themen der Wahrscheinlichkeitstheorie und Parameterschätzung. Die Wahrscheinlichkeitsrechnung stellt eine wichtige Grundlage für die Schätzung von statistischen Parametern dar. Daher führt das Lehrbuch zunächst umfassend in wesentliche Konzepte der Wahrscheinlichkeitstheorie ein. Ausführlich werden Zufallsvarialben und Wahrscheinlichkeitsverteilungen erläutert. Anschließend stellt der Band die gängisten Verfahren der Parameterschätzung vor, zu denen u.a. die Maximum-Likelihood-Schätzung oder die immer populärer werdenden Bayes-Verfahren gehören.
Um die Darstellung der statistischen Konzepte nicht zu überfrachten, wird in diesem Buch auf mathematische Ableitungen und Beweise weitgehend verzichtet. Die Inhalte werden durch konsequenten Bezug auf anschauliche Beispiele nachvollziehbar gemacht.
Zusätzlich wird das Vorgehen mit den gängigen Statistikprogrammen SPSS und R beschrieben. Der Text wird anhand von Kästen, Zusammenfassungen und Abbildungen strukturiert. Vertiefende Informationen werden auf der Webseite zum Buch zur Verfügung gestellt.
Autoren/Hrsg.
Fachgebiete
Weitere Infos & Material
1;Inhaltsverzeichnis;7
2;Kapitel 1 Über dieses Buch;11
2.1;1.1 Zum Inhalt dieses Buches;13
2.2;1.2 Danksagung;15
3;Kapitel 2 Wahrscheinlichkeitsrechnung;17
3.1;2.1 Wozu wird die Wahrscheinlichkeitstheorie benötigt?;19
3.2;2.2 Beschreibung von Zufallsvorgängen;23
3.3;2.3 Mengenoperationen;27
3.4;2.4 Wahrscheinlichkeit;31
3.5;2.5 Folgerungen aus den Axiomen von Kolmogorov;37
3.6;2.6 Bedingte Wahrscheinlichkeiten;40
3.7;2.7 Stochastische Unabhängigkeit;43
3.8;2.8 Rechnen mit bedingten und unbedingten Wahrscheinlichkeiten;45
3.9;2.9 Kombinatorik;53
3.10;2.10 Software;61
3.11;Zusammenfassung;62
3.12;Zentrale Begriffe;63
3.13;Notation;66
4;Kapitel 3 Zufallsvariablen;67
4.1;3.1 Definition von Zufallsvariablen;70
4.2;3.2 Diskrete Zufallsvariablen;78
4.3;3.3 Stetige Zufallsvariablen und ihre Verteilungen;83
4.4;3.4 Quantile von Zufallsvariablen;94
4.5;3.5 Erwartungswert und Varianz einer Zufallsvariablen;97
4.6;3.6 Erwartungswert und Varianz der Normalverteilung;102
4.7;3.7 Erwartungswert und Varianz transformierter Zufallsvariablen;103
4.8;3.8 Mehrdimensionale Zufallsvariablen;107
4.9;3.9 Rechnen mit Erwartungswerten und Varianzen von Zufallsvariablen;120
4.10;Zusammenfassung;124
4.11;Zentrale Begriffe;127
4.12;Notation;130
5;Kapitel 4 Verteilungen;131
5.1;4.1 Spezielle diskrete Wahrscheinlichkeitsverteilungen;133
5.2;4.2 Spezielle stetige Wahrscheinlichkeitsverteilungen;151
5.3;4.3 Software;171
5.4;Zusammenfassung;177
5.5;Zentrale Begriffe;177
5.6;Notation;179
6;Kapitel 5 Stichprobenverteilungen;181
6.1;5.1 Stichprobenverteilung einer Statistik;183
6.2;5.2 Stichprobenverteilung des Mittelwerts einer normalverteilten Zufallsvariablen;185
6.3;5.3 Stichprobenverteilung des Mittelwerts nicht normalverteilter Zufallsvariablen;190
6.4;5.4 Stichprobenverteilung von Anteilswerten;195
6.5;5.5 Stichprobenverteilung der Varianz;200
6.6;5.6 Bootstrap-Verfahren;201
6.7;Zusammenfassung;207
6.8;Zentrale Begriffe;208
6.9;Notation;209
7;Kapitel 6 Punktschätzung von Parametern;211
7.1;6.1 Einleitendes Beispiel;213
7.2;6.2 Gu¨tekriterien von Schätzern;216
7.3;6.3 Maximum-Likelihood-Schätzung;223
7.4;6.4 Methode der kleinsten Quadrate;234
7.5;6.5 Bayesianische Schätzmethoden;238
7.6;6.6 Bootstrap-Verfahren;247
7.7;Zusammenfassung;247
7.8;Zentrale Begriffe;249
7.9;Notation;251
8;Kapitel 7 Intervallschätzungen;253
8.1;7.1 Konfidenzintervalle;256
8.2;7.2 Konfidenzintervalle fu¨r Erwartungswerte;259
8.3;7.3 Konfidenzintervalle fu¨r Varianzen;266
8.4;7.4 Konfidenzintervalle fu¨r Anteilswerte;268
8.5;7.5 Konfidenzintervalle fu¨r die Regressionskoeffizienten in linearen Modellen;272
8.6;7.6 Konfidenzintervalle fu¨r die Produkt-Moment-Korrelation;274
8.7;7.7 Einseitige Konfidenzintervalle;277
8.8;7.8 Bootstrap-Intervalle;279
8.9;7.9 Bayesianische Intervallschätzungen;280
8.10;7.10 Software;283
8.11;Zusammenfassung;288
8.12;Zentrale Begriffe;289
8.13;Notation;291
9;Anhang;293
9.1;Literatur;295
9.2;Glossar;296
9.3;Sachregister;306
9.4;Normalverteilungstabelle;308
9.5;Quantile der chi²
-Verteilung;311
9.6;Quantile der t-Verteilung;315
9.7;Quantile der F-Verteilung;317
Auch im Rahmen der Statistik werden unterschiedliche Wahrscheinlichkeitsbegriffe verwendet. Hier wird die Wahrscheinlichkeitstheorie dazu benötigt, die an Stichproben erzielten Ergebnisse auf die zugrunde liegende Population zu generalisieren. Ausgehend von den Ergebnissen, die an Stichproben erzielt wurden, werden mittels der Wahrscheinlichkeitstheorie Erkenntnisse über die zugrunde liegende Population abgeleitet.
Eine wichtige Aufgabe der Statistik ist die Schätzung von bestimmten Kennwerten, sogenannten Parametern der Population. So möchte man anhand von Umfragen an einer Stichprobe den Stimmenanteil einer Partei beim Endergebnis vorhersagen. Dieser Stimmenanteil stellt hier einen sogenannten Parameter, d. h. Kennwert der Population, dar. Die Wahrscheinlichkeitsrechnung ist dabei eine unverzichtbare Voraussetzung für drei wichtige Aufgaben:
• Punktschätzung von Parametern (z. B. Endergebnis einer Wahl), • Intervallschätzung von Parametern,
• Überprüfung von Annahmen bzw. Hypothesen zu Parametern.
Im Rahmen der Punktschätzung wird anhand von wahrscheinlichkeitstheoretischen Erkenntnissen ein konkreter Wert für den endgültigen Stimmenanteil einer Partei bestimmt. Bei der Intervallschätzung werden Bereiche bzw. Intervalle – sogenannte Konfidenzintervalle – berechnet, die mit einer bestimmten, vorher festgelegten Wahrscheinlichkeit das endgültige Ergebnis enthalten. So kann das Intervall von 2 bis 4 den endgültigen prozentualen Stimmenanteil einer Partei mit einer Wahrscheinlichkeit von z. B. 99 % enthalten. Dann ist es sehr unwahrscheinlich, dass diese Partei die 5%-Hürde überspringt.
Die Hypothesentestung ist eng mit der Intervallschätzung verknüpft. Bei der Hypothesentestung geht es um die Überprüfung von Hypothesen, z. B., dass eine Partei die 5%-Hürde erreicht. Als Grundlage für die Annahme oder Ablehnung einer Hypothese bestimmt man für die Stichprobenergebnisse Intervalle, die eng mit Konfidenzintervallen korrespondieren. Diese Intervalle sind so festgelegt, dass man sich nur mit einer vorher festgelegten Wahrscheinlichkeit irrt, wenn man sich für eine bestimmte Hypothese entscheidet.
In der Statistik werden die Wahrscheinlichkeiten für die Merkmalsausprägungen in der Population in der Regel anhand von Stichprobendaten mithilfe der Wahrscheinlichkeitsrechnung bestimmt. In bestimmten Fällen, wie dem Würfeloder Münzwurf, ist die Verwendung des logischen Wahrscheinlichkeitsbegriffes adäquat und man kann – wie oben dargelegt – Ereignissen von vornherein Wahrscheinlichkeiten zuordnen. Für die Einführung der Wahrscheinlichkeitsrechnung ist es am einfachsten, wenn man von bekannten Wahrscheinlichkeiten ausgehen kann. Das ist der Grund dafür, weshalb wir als Beispiele in den folgenden Kapiteln vorwiegend Münzoder Würfelwürfe verwenden, die ansonsten in der Statistik eine eher untergeordnete Rolle spielen.
2.1.2 Zufall, Ergebnisse und Ereignisse: Ein einführendes Beispiel
In diesem Kapitel möchten wir vorab einen kurzen Überblick über die in den nächsten Kapiteln erfolgende Darstellung der Wahrscheinlichkeitsräume und Zufallsvariablen geben. Dazu erläutern wir kurz die grundlegenden Konzepte
• Ergebnisraum,
• Ereignisraum,
• Wahrscheinlichkeitsraum, • Zufallsvariable.
Damit soll vorab der „Sinn“ der Wahrscheinlichkeitsrechnung innerhalb der Statistik erläutert werden. Wir gehen dazu von dem einfachen Beispiel des Würfelwurfs aus.
Ausgangspunkt ist der beobachtbare Vorgang des Wurfs eines Würfels. Da das Ergebnis dieses Vorgangs nicht sicher vorherzusagen ist, nennen wir ihn auch Zufallsvorgang. Zunächst gilt es, den Ergebnisraum dieses Zufallsvorgangs, d. h. die Menge aller möglichen Ergebnisse, festzulegen. Der Ergebnisraum dieses Beispiels besteht aus den sechs möglichen Ergebnissen, d. h. den sechs unterschiedlichen Seiten des Würfels, die nach dem Wurf oben liegen können. Jede dieser Seiten besitzt eine unterschiedliche Augenzahl zwischen 1 und 6. Ein solches beobachtbares Ergebnis, z. B. „eine Seite des Würfels mit vier Augen liegt oben“, bezeichnen wir mit der entsprechenden Augenzahl, hier mit „vier Augen“.
In bestimmten Situationen, z. B. bei Spielen wie „Mensch ärgere Dich nicht“ oder anderen Würfelspielen, interessieren nicht die einzelnen Augenzahlen, sondern Kombinationen bzw. Teilmengen von Augenzahlen. Um beim Spiel „Mensch ärgere Dich nicht“ starten zu können, muss man eine Sechs würfeln, daher unterscheidet man die übrigen Ergebnisse „ein Auge“, „zwei Augen“,..., „fünf Augen“ nicht. Somit sind nicht die einzelnen Ergebnisse von Interesse, sondern eine Teilmenge von Ergebnissen. Weitere Beispiele für solche Teilmengen sind, eine Augenzahl größer als 4 zu würfeln oder beim Einsatz von zwei Würfeln gleiche Augenzahlen zu erhalten.
Daher bildet man in einem zweiten Schritt nach der Festlegung des Ergebnisraums alle (interessierenden) Teilmengen von Ergebnissen, die Ereignisse genannt werden. Die Menge aller Ereignisse, der Ereignisraum, stellt damit eine Menge von Teilmengen der Ergebnisse dar. Zur Menge der Teilmengen können z. B. die Teilmenge der geraden Augenzahlen, die Teilmenge „sechs Augen“ oder die Teilmenge „Augenzahl kleiner als 6“ zählen.
Um die Menge der Ereignisse festzulegen, kann man die Menge aller möglichen Teilmengen, die sogenannte Potenzmenge, als grundlegende Ereignismenge benutzen. Da eine Potenzmenge aus sehr vielen Elementen besteht – bei n Ergebnissen hat die Potenzmenge 2n Elemente, wie wir im Internetsupplement zeigen –, wählt man oft eine kleinere Menge von Teilmengen. Damit ein Ereignisraum sinnvolle Aussagen erlaubt, sind bei seiner Konstruktion dieser Menge gewisse Regeln zu beachten, die wir später darlegen.
Hat man eine Ereignismenge bestimmt, gilt es, die zugehörige Wahrscheinlichkeitsverteilung zu erstellen, d. h. allen Ereignissen des Ereignisraums Wahrscheinlichkeiten zuzuordnen. So kann man den Ereignissen „ein Auge“, „zwei Augen“,..., „sechs Augen“ jeweils eine Wahrscheinlichkeit von 1/6 bzw. 16.67 % zuordnen. Daraus resultieren die Wahrscheinlichkeiten für andere Ereignisse, so z. B. die Wahrscheinlichkeit von 1/2 für das Ereignis „gerade Augenzahl“. Eine solche Wahrscheinlichkeitszuordnung, bei der alle Augenzahlen die gleiche Wahrscheinlichkeit erhalten, wird dementsprechend auch Gleichverteilung genannt. Diese Zuordnung erscheint intuitiv „vernünftig“ zu sein. Aber es sind, wie wir sehen werden, prinzipiell auch andere Wahrscheinlichkeitszuordnungen möglich. Für die Zuordnung von Wahrscheinlichkeiten zu den Ereignissen sind bestimmte Regeln bzw. Axiome zu beachten. Offenbar dürfte es keinen Sinn machen, den einzelnen Augenzahlen 1 bis 6 jeweils eine Wahrscheinlichkeit von 2.5 zuzuordnen.
Durch die Festlegung des Ergebnisraums (Menge aller Ergebnisse), des Ereignisraums (Menge aller potenziell interessierenden Teilmengen von Ergebnissen) und die Bestimmung der Wahrscheinlichkeitsverteilung (Zuordnung von Wahrscheinlichkeiten zu den Ereignissen) ist ein sogenannter Wahrscheinlichkeitsraum festgelegt. Durch einen solchen Wahrscheinlichkeitsraum wird ein Zufallsvorgang vollständig beschrieben.