E-Book, Deutsch, 82 Seiten, eBook
Reihe: uni-texte
Henze Einführung in die Informationstheorie
4. Auflage 1974
ISBN: 978-3-322-89443-4
Verlag: Vieweg & Teubner
Format: PDF
Kopierschutz: 1 - PDF Watermark
Studienbuch für Mathematiker, Informatiker, Naturwissenschaftler und Ingenieure ab 3. Semester
E-Book, Deutsch, 82 Seiten, eBook
Reihe: uni-texte
ISBN: 978-3-322-89443-4
Verlag: Vieweg & Teubner
Format: PDF
Kopierschutz: 1 - PDF Watermark
Zielgruppe
Research
Autoren/Hrsg.
Weitere Infos & Material
1. Einleitung.- 1.1. Ziele der Informationstheorie, Überblick.- 1.2. Mathematische Hilfsmittel.- 2. Die Entropie.- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.- 2.2. Der Eindeutigkeitssatz für die Entropie.- 3. Informationsquellen.- 3.1. Grundlegende Definitionen.- 3.2. Stationäre Quellen.- 3.3. Ergodische Quellen.- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.- 3.5. Beweis des Satzes von McMillan.- 4. Kanäle.- 4.1. Definition des Kanals, Eigenschaften spezieller Kanäle.- 4.2. Anschluß eines Kanals an die speisende Quelle.- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.- 4.4. Die Kanalkapazität oder Durchlaßkapazität.- 4.5. Ein Beispiel für einen Kanal mit Störungen.- 5. Der Satz von Feinstein.- 5.1. Formulierung des Satzes.- 5.2. Ein Hilfssatz.- 5.3. Beweis des Satzes von Feinstein.- 6. Die Sätze von Shannon.- 6.1. Codierungen, Übertrager.- 6.2. Hilfssätze.- 6.3. Der erste Satz von Shannon.- 6.4. Der zweite Satz von Shannon.- 7. Abschließende Bemerkungen.- Literatur.- Sachwortverzeichnis.