E-Book, Deutsch, 200 Seiten
Reihe: mitp Professional
Burkov Machine Learning kompakt
1., 2019
ISBN: 978-3-95845-997-7
Verlag: mitp Verlags GmbH & Co.KG
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Alles, was Sie wissen müssen
E-Book, Deutsch, 200 Seiten
Reihe: mitp Professional
ISBN: 978-3-95845-997-7
Verlag: mitp Verlags GmbH & Co.KG
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Andriy Burkov ist Experte für Machine Learning mit dem Schwerpunkt auf Natural Language Processing. 2010 hat er zum Thema Künstliche Intelligenz promoviert und leitet seit 7 Jahren ein Team von Machine-Learning-Entwicklern bei der Firma Gartner, die sich mit multilingualer Textextraktion und Normalisierungsverfahren befasst. Dabei kommen sowohl Shallow- als auch Deep-Learning-Technologien zum Einsatz. Er lebt mit seiner Familie in Quebec City.
Zielgruppe
Einsteiger in Machine Learning und alle, die es in der Praxis einsetzen möchten
Autoren/Hrsg.
Weitere Infos & Material
Inhaltsverzeichnis
- Vorwort zur deutschen Ausgabe
- Vorwort
- Einleitung
- 1 Einführung
- 2 Notation und Definitionen
- 2.1 Notation
- 2.1.1 Datenstrukturen
- 2.1.2 Summenschreibweise
- 2.1.3 Produktschreibweise
- 2.1.4 Mengenoperationen
- 2.1.5 Vektoroperationen
- 2.1.6 Funktionen
- 2.1.7 Max und Arg Max
- 2.1.8 Zuweisungsoperator
- 2.1.9 Ableitung und Gradient
- 2.2 Zufallsvariable
- 2.3 Erwartungstreue Schätzer
- 2.4 Satz von Bayes
- 2.5 Parameterschätzung
- 2.6 Parameter und Hyperparameter
- 2.7 Klassifikation und Regression
- 2.8 Modellbasiertes und instanzbasiertes Lernen
- 2.9 Shallow Learning und Deep Learning
- 2.1 Notation
- 3 Grundlegende Algorithmen
- 3.1 Lineare Regression
- 3.1.1 Problemstellung
- 3.1.2 Lösung
- 3.2 Logistische Regression
- 3.2.1 Problemstellung
- 3.2.2 Lösung
- 3.3 Entscheidungsbaum-Lernen
- 3.3.1 Problemstellung
- 3.3.2 Lösung
- 3.4 Support Vector Machine
- 3.5 k-Nearest-Neighbors
- 3.1 Lineare Regression
- 4 Aufbau eines Lernalgorithmus
- 5 Grundlegende Techniken
- 5.1 Merkmalserstellung
- 5.1.1 One-hot-Codierung
- 5.1.2 Binning
- 5.1.3 Normalisierung
- 5.1.4 Standardisierung
- 5.1.5 Handhabung fehlender Merkmale
- 5.1.6 Datenimputationsverfahren
- 5.2 Auswahl von Lernalgorithmen
- 5.3 Drei Mengen
- 5.4 Unteranpassung und Überanpassung
- 5.5 Regularisierung
- 5.6 Beurteilung der Leistung eines Modells
- 5.7 Abstimmung der Hyperparameter
- 5.7.1 Kreuzvalidierung
- 5.1 Merkmalserstellung
- 6 Neuronale Netze und Deep Learning
- 7 Aufgaben und Lösungen
- 7.1 Kernel-Regression
- 7.2 Multi-Class-Klassifikation
- 7.3 One-Class-Klassifikation
- 7.4 Multi-Label-Klassifikation
- 7.5 Ensemble Learning
- 7.5.1 Boosting und Bagging
- 7.5.2 Random Forest
- 7.5.3 Gradient Boosting
- 7.6 Kennzeichnung von Sequenzen erlernen
- 7.7 Sequenz-zu-Sequenz-Lernen
- 7.8 Aktives Lernen
- 7.9 Teilüberwachtes Lernen
- 7.10 One-Shot Learning
- 7.11 Zero-Shot Learning
- 8 Fortgeschrittene Techniken
- 9 Unüberwachtes Lernen
- 9.1 Dichteschätzung
- 9.2 Clustering
- 9.2.1 k-Means-Clustering
- 9.2.2 DBSCAN und HDBSCAN
- 9.2.3 Anzahl der Cluster festlegen
- 9.2.4 Weitere Clustering-Algorithmen
- 9.3 Dimensionsreduktion
- 9.3.1 Hauptkomponentenanalyse
- 9.3.2 UMAP
- 9.4 Erkennung von Ausreißern
- 10 Weitere Formen des Lernens
- 10.1 Metric Learning
- 10.2 Ranking
- 10.3 Empfehlungen
- 10.3.1 Faktorisierungsmaschinen
- 10.3.2 Denoising Autoencoder
- 10.4 Selbstüberwachtes Lernen: Wort-Embeddings
- 11 Schlussbemerkungen
- 11.1 Was nicht behandelt wurde
- 11.1.1 Topic Modeling
- 11.1.2 Gaußprozesse
- 11.1.3 Generalisierte lineare Modelle
- 11.1.4 Probabilistische grafische Modelle
- 11.1.5 Markow-Ketten-Monte-Carlo-Algorithmen
- 11.1.6 Generative Adversarial Networks
- 11.1.7 Genetische Algorithmen
- 11.1.8 Reinforcement Learning
- 11.2 Danksagungen
- 11.1 Was nicht behandelt wurde




