Homuth / Henze | Einführung in die Informationstheorie | Buch | 978-3-322-98543-9 | sack.de

Buch, Deutsch, 89 Seiten, Format (B × H): 170 mm x 244 mm, Gewicht: 182 g

Reihe: uni-texte

Homuth / Henze

Einführung in die Informationstheorie

Studienbuch für Informatiker, Mathematiker und alle Naturwissenschaftler ab 3. Semester
3. Auflage 1970
ISBN: 978-3-322-98543-9
Verlag: Vieweg+Teubner Verlag

Studienbuch für Informatiker, Mathematiker und alle Naturwissenschaftler ab 3. Semester

Buch, Deutsch, 89 Seiten, Format (B × H): 170 mm x 244 mm, Gewicht: 182 g

Reihe: uni-texte

ISBN: 978-3-322-98543-9
Verlag: Vieweg+Teubner Verlag


Dieses nun in dritter Auflage vorgelegte kleine Buch, das bisher als Beiheft 3 der ,elektronische datenverarbeitung' erschienen war, ist aus Vorlesungen tiber Informa tionstheorie entstanden, die einer der Verfasser an der Technischen Hochschule Stuttgart und an der Technischen Universitat Braunschweig gehalten hat. Es ent springt der Absicht, den Leser in die Grundlagen der Informationstheorie einzu fiihren und dabei eine einheitliche Bezeichnungs- und Darstellungsweise zu ver wenden. Dieses Buch lehnt sich an bekannte grundlegende Arbeiten von Shannon, McMillan, Feinstein, Chintschin u.a. an; es wurde hier angestrebt, aus der FUlle des Materials nur den Stoff zu behandeln, der einmal zur Darstellung der eigentlichen Grund ideen unbedingt notwendig ist und der zum anderen ein weiteres Eindringen in das Gebiet der Informationstheorie ermoglicht. Eine kurze Einftihrung bringt die wesentlichsten Hilfsmittel aus der Wahrscheinlichkeitstheorie, ohne die das Studium der Informationstheorie unmoglich ist. Die dritte Auflage unterscheidet sich wesentlich starker von den vorhergehenden, als diese untereinander. Es wurden einige Abschnitte neu aufgenommen, wie der Beweis des Satzes von McMillan, andere neu geschrieben, wie zum Beispiel der Abschnitt tiber die mathematischen Grundlagen. Wir hoffen, das Buch damit ab gerundet und verbessert zu haben.

Homuth / Henze Einführung in die Informationstheorie jetzt bestellen!

Zielgruppe


Research

Weitere Infos & Material


1. Einleitung.- 1.1. Ziele der Informationstheorie, Oberblick.- 1.2. Mathematische Hilfsmittel.- 2. Die Entropie.- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.- 2.2. Der Eindeutigkeitssatz für die Entropie.- 3. Informationsquellen.- 3.1. Grundlegende Definitionen.- 3.2. Stationäre Quellen.- 3.3. Ergodische Quellen.- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.- 3.5. Beweis des Satzes von McMillan.- 4. Kanäle.- 4.1. Defmition des Kanals, Eigenschaften spezieller Kanäle.- 4.2. Anschluß eines Kanals an die speisende Quelle.- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.- 4.4. Die Kanalkapazität oder Durchlaßkapazität.- 4.5. Ein Beispiel fur einen Kanal mit Störungen.- 5. Der Satz von Feinstein.- 5.1. Formulierung des Satzes.- 5.2. Ein Hilfssatz.- 5.3. Beweis des Satzes von Feinstein.- 6. Die Sätze von Shannon.- 6.1. Codierungen, Übertrager.- 6.2. Hilfssätze.- 6.3. Der erste Satz von Shannon.- 6.4. Der zweite Satz von Shannon.- 7. Abschließende Bemerkungen.- Literatur.- Sachwortverzeichnis.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.