Mainzer | Die Berechnung der Welt | E-Book | sack.de
E-Book

E-Book, Deutsch, 354 Seiten

Mainzer Die Berechnung der Welt

Von der Weltformel zu Big Data
1. Auflage 2014
ISBN: 978-3-406-66131-0
Verlag: Verlag C. H. Beck GmbH & Co. KG
Format: EPUB
Kopierschutz: 6 - ePub Watermark

Von der Weltformel zu Big Data

E-Book, Deutsch, 354 Seiten

ISBN: 978-3-406-66131-0
Verlag: Verlag C. H. Beck GmbH & Co. KG
Format: EPUB
Kopierschutz: 6 - ePub Watermark



Klaus Mainzer zeigt in diesem Buch, wie es bei dem Vorhaben, die Welt zu berechnen, zu einer Revolution der Denkart kam. Während Generationen von Mathematikern, Physikern und Philosophen auf der Suche nach der Weltformel mit Gleichungen arbeiteten und in den Kategorien von Ursache und Wirkung dachten, ist die 'new science' dadurch charakterisiert, dass an die Stelle mathematischer Beweise und Theorien Computerexperimente und Algorithmen treten. 'Korrelation' statt 'Begründung', lautet die Devise des neuen Denkens. Die Korrelationen in Big Data sollen bislang verborgene Zusammenhänge aufdecken. Nach diesem Prinzip, schreibt das US-Magazin Time, will die 2013 von Google neu gegründete Medizinfirma Calico an der Lebensverlängerung des Menschen arbeiten, indem nicht die Ursachen von Alter und Krankheit untersucht, sondern Unmengen medizinischer Daten mit Algorithmen ausgewertet werden. Eine beispiellose Erfolgsgeschichte also? Mainzer stellt in diesem Buch die faszinierende neue Art der Wissensgewinnung vor, aber er macht auch die Gegenrechnung auf. Sein Buch ist ein Plädoyer für die Besinnung auf die Grundlagen, Theorien, Gesetze und die Geschichte, die zu der Welt führen, in der wir heute leben.

Mainzer Die Berechnung der Welt jetzt bestellen!

Autoren/Hrsg.


Weitere Infos & Material


1;Cover;1
2;Titel;4
3;Impressum;5
4;Inhalt;6
5;Vorwort;14
6;Einführung;18
7;Kapitel 1: Auf der Suche nach der Weltformel;36
7.1;Weltformel der Platonischen Körper;37
7.2;Mathematische Symmetrie;38
7.3;Globale Symmetrie physikalischer Gesetze;39
7.4;Lokale Symmetrie physikalischer Gesetze;39
7.5;Eichsymmetrie und Große Vereinigungstheorie;40
7.6;Eichsymmetrie als Weltformel?;41
7.7;Spontane Symmetriebrechung;42
7.8;Symmetrie und Eleganz von Formeln;43
7.9;Feynman-Diagramme und abstrakte Formeln;43
7.10;Big Data und vorläufige Erfolgsrezepte;45
7.11;Big Data und fundamentale Symmetriegesetze;47
8;Kapitel 2: «Nichts wäre ungewiss …» (Laplacescher Geist);49
8.1;Formeln analytischer Geometrie;50
8.2;Formeln analytischer Mechanik;50
8.3;Formeln der Verwaltung?;51
8.4;Laplace und Gott;52
8.5;Laplacescher Geist und Berechenbarkeit der Welt;53
8.6;Berechenbarkeit in der Politik?;55
8.7;Erbe von Laplace;56
9;Kapitel 3: «Wir müssen wissen – wir werden wissen» (David Hilbert);58
9.1;Euklids Axiomensystem der Geometrie;59
9.2;Hilberts formales Axiomensystem der Geometrie;59
9.3;Modelle formaler Axiomensysteme;60
9.4;Unabhängigkeit formaler Axiome;61
9.5;Widerspruchsfreiheit formaler Axiome;62
9.6;Vollständigkeit formaler Axiome;62
9.7;Grundlagenkrise der Mathematik;63
9.8;Cantors Axiomensystem der Mengenlehre;64
9.9;Mathematischer Intuitionismus und Konstruktivismus;64
9.10;Hilberts Programm finiter Formalismen;66
9.11;Axiomatische Methode und Weltformel;67
10;Kapitel 4: Unvollständigkeit und Unentscheidbarkeit (Gödel und Turing);70
10.1;Gödels unentscheidbare Aussagen und unvollständige Formalismen;71
10.2;Formalismen und Computersprachen;72
10.3;Turings Beiträge zur Theorie und Praxis der Berechenbarkeit;73
10.4;Berechenbarkeit und Turingmaschine;74
10.5;Universelle Turingmaschine;75
10.6;Churchsche These und Berechenbarkeit;75
10.7;Komplexität der Berechenbarkeit;76
10.8;Berechenbarkeit und Leibniz' Programm der Mathesis Universalis;76
10.9;Effektive Entscheidbarkeit;77
10.10;Effektive Aufzählbarkeit;78
10.11;Unentscheidbarkeit und Halteproblem einer Turingmaschine;79
10.12;Unentscheidbarkeit und nicht-berechenbare Zahlen;80
10.13;Formales System der Prädikatenlogik;80
10.14;Logische Wahrheiten;81
10.15;Vollständigkeit und Unentscheidbarkeit der Prädikatenlogik;81
10.16;Unvollständigkeit und Turings Halteproblem;82
10.17;Widerspruchsfreiheitsbeweise und Hilberts finite Methoden;83
11;Kapitel 5: Von der Beweistheorie zu Computerprogrammen (Gentzen und Turing);84
11.1;Von der Turingmaschine zur Gödelmaschine;84
11.2;Widerspruchsfreiheitsbeweise und Gentzens transfinite Methoden;85
11.3;Turings ordinale Beweistheorie;86
11.4;Grade der Entscheidbarkeit;86
11.5;Hyper-Berechenbarkeit;87
11.6;Turings Orakelmaschine;87
11.7;Orakelmaschinen und Intuition;88
11.8;Big Data und Orakelmaschinen;88
11.9;Orakelmaschinen in der Wissenschaft;89
11.10;Vom logisch-mathematischen Formalismus zum Software-Engineering;90
11.11;Theorembeweiser und Gentzen-Kalkül;91
11.12;Churchs ?-Kalkül und mathematische Funktionen;93
11.13;Von mathematischen Funktionen zum funktionalen Programmieren;93
12;Kapitel 6: Die Welt als Automat (John von Neumann, Konrad Zuse et al.);95
12.1;Leibniz’ Welt der göttlichen Automaten;95
12.2;Kluge Frauen über Automaten;96
12.3;Die Erfindung zellulärer Automaten;96
12.4;Umgebungsfunktionen einer Zelle;97
12.5;Computersimulation zellulärer Automaten;98
12.6;Selbstreproduktion zellulärer Automaten;99
12.7;Zelluläre Automaten und Churchsche These;100
12.8;Zelluläre Automaten und biologische Evolution;100
12.9;Konrad Zuse und John von Neumann;101
12.10;Zuses «Rechnender Raum»;101
12.11;Zuse-Fredkin-Hypothese;102
12.12;1-dimensionale zelluläre Automaten;103
12.13;Stephen Wolframs «A New Kind of Science»;104
12.14;Computerexperimente reichen nicht!;105
12.15;Boolesche Gesetze der Musterbildung;105
12.16;Platonische Würfel als Bausteine des Universums zellulärer Automaten;106
12.17;Komplexitätsgrade zellulärer Automaten;106
12.18;Symmetriegesetze im Universum zellulärer Automaten;109
12.19;Symmetrie und Berechenbarkeit im Universum zellulärer Automaten;111
12.20;Zeitpfeil und Zeitsymmetrie im Universum der Physik und zellulärer Automaten;111
12.21;Zeitsymmetrie im Universum zellulärer Automaten;112
12.22;Zeitpfeil im Universum zellulärer Automaten;113
12.23;Zelluläre Automaten als dynamische Systeme;114
12.24;Berechenbarkeit der Automatenwelt und der physikalischen Wirklichkeit;116
13;Kapitel 7: Quantenwelt und Quantencomputer (Feynman et al.);118
13.1;Quantenzustände und Superpositionen;118
13.2;Verschränkte Zustände und EPR-Experimente;119
13.3;Quantencomputer und Quantenparallelismus;120
13.4;Quantenbits und Hilberträume;122
13.5;Quanten-Turingmaschine und Churchsche These;123
13.6;Zelluläre Quantenautomaten;123
13.7;Digitale Quantenwelt;124
13.8;It from Bit?;126
13.9;Quantencomputer und Big Data;126
14;Kapitel 8: Chaos und Komplexität (Poincaré et al.);128
14.1;Definition dynamischer Systeme;128
14.2;Lineare Dynamik;129
14.3;Zustandsraum dynamischer Systeme;129
14.4;Nichtlineare Dynamik;131
14.5;Mehrkörperprobleme und Grenzen der Berechenbarkeit;132
14.6;KAM-Theorem und Grenzen der Berechenbarkeit;133
14.7;Rekursionsverfahren und Differenzengleichungen;133
14.8;Zeitreihen und Komplexitätsgrade;134
14.9;Attraktoren im Zustandsraum;134
14.10;Zufall und Chaos;136
14.11;Strömungsdynamik und stochastische Gleichungen;136
15;Kapitel 9: Big Data – Die Berechnung von Leben und Gehirn;138
15.1;Turings Modell zellulärer Strukturbildung;138
15.2;Stephen Smales Modell zellulärer Strukturbildung;140
15.3;Selbstorganisation komplexer dynamischer Systeme;141
15.4;Das Prinzip lokaler Aktivität erklärt komplexe Struktur- und Musterbildung;141
15.5;Reaktions-Diffusionsgleichungen und zelluläre Dynamik;142
15.6;Testverfahren für lokale Aktivität;143
15.7;Parameterraum für Struktur- und Musterbildung;143
15.8;Struktur- und Musterbildung am Rand des Chaos;144
15.9;Struktur- und Musterbildung in der Chemie;145
15.10;Struktur- und Musterbildung in Zoologie und Botanik;146
15.11;Struktur- und Musterbildung in der Gehirnforschung;147
15.12;Berechnung neuronaler Musterbildung durch FitzHugh-Nagumo-Gleichungen;149
15.13;Elektrotechnisches Modell eines Axons;150
15.14;Elektrotechnisches Modell einer Hodgkin-Huxley-Zelle;150
15.15;Memristoren;152
15.16;Berechnung neuronaler Musterbildung durch Hodgkin-Huxley (HH)-Reaktions-Diffusionsgleichungen;152
15.17;Prinzip lokaler Aktivität als Ursache neuronaler Musterbildung;153
15.18;Von der Selbstwahrnehmung zum Selbstbewusstsein;154
15.19;Neurotechnische Erklärung von Semantik;155
15.20;Von Daten über Information zu Wissen;157
15.21;Vom Wissen über Informations- zur Datenverarbeitung;158
15.22;Architektur von Gehirnen und Computern;158
15.23;Theory of Mind: Erklärung sozialer Kompetenz;159
15.24;Kartographierung und Vermessung des Gehirns;160
15.25;Totale Berechnung des Gehirns?;160
16;Kapitel 10: Vom Internet zu soziotechnischen Systemen;162
16.1;Komplexe Kommunikationsnetze der Evolution;162
16.2;Komplexe Kommunikationsnetze der Technik;163
16.3;Struktur und Dynamik von Computernetzen;163
16.4;Internet als komplexes sich selbst organisierendes Informationssystem;165
16.5;Analogien von Computernetzen und Gehirnen;166
16.6;Big Data in Computernetzen und Gehirnen;167
16.7;World Wide Web als virtuelle Maschine;168
16.8;Mobilfunk und Kommunikationsnetze;169
16.9;Mooresches Gesetz;169
16.10;Ubiquitous Computing;170
16.11;Von Virtual Reality zu Augmented Reality;171
16.12;Cyberphysical Systems und Big Data;171
16.13;Smart Grids und Big Data;173
16.14;Cloud Computing und Big Data;174
16.15;Mathematik komplexer Netze;175
16.16;Komplexitätsgrade von Signalmustern;176
16.17;Evolution von Versorgungs-, Kontroll- und Informationssystemen;178
16.18;Vereinigte Theorie komplexer Netzwerke;179
16.19;Grade der Berechenbarkeit und Orakelmaschinen;179
16.20;Komplexität und logische Tiefe;180
16.21;Smart Cities und Big Data;181
16.22;Cyberphysical Systems realisieren soziotechnische Systeme;182
16.23;Modellierung von Informationsinfrastrukturen;183
16.24;Ethos von Informationsinfrastrukturen;185
16.25;Informationsinfrastrukturen und Demokratie;186
17;Kapitel 11: Berechenbarkeit von Risiken und Wahrscheinlichkeit;187
17.1;Leibniz über Risiken und Wahrscheinlichkeit;187
17.2;Fairer Münzwurf und das Gesetz der großen Zahl;189
17.3;Gaußsche Glockenkurve;190
17.4;Normalverteilung und Big Data;191
17.5;Laplacescher Geist und Wahrscheinlichkeit;193
17.6;Wahrscheinlichkeit als Grenzwert regelloser Zufallsfolgen;194
17.7;Kolmogorovs Axiomensystem des Wahrscheinlichkeitsbegriffs;194
17.8;Beispiele von Wahrscheinlichkeitsverteilungen;196
17.9;Seltene Ereignisse und das Gesetz der kleinen Zahl;198
17.10;Zentraler Grenzwertsatz und Normalverteilung;198
17.11;Extreme Ereignisse und Nicht-Gaußverteilungen;199
17.12;Berechnung von Risiken auf Versicherungsmärkten;200
17.13;Bacheliers Modell zur Berechnung des Börsenmarkts;201
17.14;Voraussetzungen von Bacheliers Modell;202
17.15;Berechnung von Portfolios;204
17.16;Black-Scholes-Formel zur Berechnung von Call-Optionen;204
17.17;Universelle Berechenbarkeit von Turbulenzen in Natur und Gesellschaft?;204
17.18;Risikomanagement durch Verbriefung;206
17.19;Berechnungsmodell für Risiken durch VaR (Value at Risk);207
17.20;Krise der Risikoberechnung;209
17.21;Axiomatische Definition kohärenter Risikomaße;211
17.22;Konvexe Risikomaße und Modellunsicherheit;213
17.23;Beschränkte Rationalität und Big Data;213
17.24;Karl Popper und der schwarze Schwan;214
17.25;Bertrand Russell und der naive Truthahn;215
17.26;Nassim Taleb und das «Ende der Theorie»;215
17.27;Der Aberglaube an ein Perpetuum Mobile der Gewinnmaximierung;216
17.28;Skeptische Philosophie und Big Data;216
17.29;Berechenbarkeit der Soziodynamik;218
17.30;Komplexitätsmanagement und Berechenbarkeit;220
17.31;Verhaltensökonomie und Berechenbarkeit;221
17.32;Was macht die Mathematisierung der sozialen Welt so schwierig?;224
18;Kapitel 12: Big Data – Die Berechnung der sozialen Welt;228
18.1;Internet der Dinge;228
18.2;Soziale Netzwerke;228
18.3;Facebook, Twitter und Big Data;230
18.4;Prinzip lokaler Aktivität und Big Data;231
18.5;Datenexplosion und Big Data;233
18.6;Big Data und das «Ende der Theorie»?;234
18.7;Definition von Big Data;234
18.8;Big Data-Algorithmen;235
18.9;Metadaten und Big Data;236
18.10;Metadaten und Datenkontext;237
18.11;Big Data im Gesundheitssystem;238
18.12;Big Data in der Ökonomie;239
18.13;Industrie 4.0 und Big Data;240
18.14;Big Data in Staat und Verwaltung;240
18.15;Big Data in Geistes- und Kulturwissenschaften («Digital Humanities»);241
18.16;Automatische Schreibprogramme und Big Data;242
18.17;Partnersuche, Liebe und Big Data;244
18.18;Big Data und Intuition;244
18.19;Big Data im Fußball;245
18.20;Big Data und die totale Überwachung;246
18.21;Big Data und «A New Kind of Science»?;248
18.22;WolframAlpha-Wissensmaschine;248
18.23;Mathematische Gesetze in Mathematica-Software;252
18.24;Datenkompression oder Irreduzibilität der Rechenzeit?;252
18.25;Werte und Gewissen in der Big-Data-Welt;254
18.26;Berechenbarkeit in der Politik?;254
18.27;Sind Kriege berechenbar?;255
18.28;Drohnen und Big Data;256
18.29;Big Data und die Illusion von der Berechenbarkeit des Tötens;256
18.30;Big Data und die schöne neue Welt der Spionage;257
18.31;Big Data und Gödels Entdeckung der Unvollständigkeit der Demokratie;258
19;Kapitel 13: «Formeln zur Macht» oder Berechenbarkeit unserer Zukünfte?;260
19.1;«Formeln zur Macht» – oder wer wird Supermacht?;260
19.2;Macht der Algorithmen im Zweiten Weltkrieg;261
19.3;Wie berechenbar ist die Zukunft?;263
19.4;Szenarien von Zukünften;263
19.5;Delphi-Verfahren;264
19.6;Zukunft der Menschheit;265
19.7;Energieskala zukünftiger Zivilisationen;266
19.8;Weltraumtechnologie zukünftiger Zivilisationen;267
19.9;Zuses Vision sich selbst reproduzierender Weltraumroboter;268
19.10;Zukünfte von Cyberphysical Systems;269
19.11;Zukünfte des Lebens;269
19.12;Informationsskala zukünftiger Zivilisationen;269
19.13;«Datengetriebene» (data driven) Prognosen;270
19.14;Bedeutung der Naturgesetze;271
19.15;Erkenntnisschema mathematischer Naturgesetze;271
19.16;Big Data in den Lebenswissenschaften reicht nicht;272
19.17;Vermessung und Berechnung des Lebens auf der Grundlage von Gesetzen;273
19.18;Prognosepotential in Wirtschafts- und Sozialwissenschaften;274
20;Kapitel 14: Wieso passt die Mathematik so gut auf die Welt?;276
20.1;Vom Zählen zum Zahlbegriff;276
20.2;Beweis des Unendlichen: die Macht der Theorie;278
20.3;Mathematische Welten jenseits des Abzählbaren;279
20.4;Von geometrischen Konstruktionen zur Idealität geometrischer Formen;279
20.5;Lösung mathematischer Probleme durch Abstraktion: die Macht der Theorie;280
20.6;Die Gesetze der Mathematik gelten im strengen logischen Sinn unabhängig von der physikalischen Raum-Zeit;281
20.7;Mathematische Abstraktion und physikalische Anwendung;282
20.8;Formale Axiomensysteme, Modelle und Datenmuster;283
20.9;Invarianz- und Symmetriegesetze der Natur;284
20.10;Sind mathematische Strukturen Konstruktionen des menschlichen Geistes oder reale Strukturen der Welt?;284
20.11;Symmetrie und Symmetriebrechung;285
20.12;Digitale Struktur der physikalischen Welt;286
20.13;Kritik der Urteilskraft und Big Data;286
20.14;Das Lachen der thrakischen Magd und Big Data;287
21;Anhang;290
21.1;Anmerkungen;292
21.2;Literaturverzeichnis;328
21.3;Abbildungsnachweis;340
21.4;Sachverzeichnis;343
21.5;Personenverzeichnis;351
22;Zum Buch;354
23;Über den Autor;354



 
 
Einführung

Epidemien, Marktprodukte und Verbrechen lassen sich, so melden Zeitungen und Medien, immer besser vorausberechnen. Grund sind exponentiell steigende Datenmengen, die immer preiswerter gespeichert und mit gigantisch wachsender Rechenpower immer schneller verarbeitet werden können. Es sind nicht nur die Daten, die viele Millionen von Nutzern in Informations- und Kommunikationsnetzen hinterlassen. Bücher, Musik, Fotografien und Videos gehören ebenso dazu wie Telefonanrufe oder Navigationssysteme unserer Fahrzeuge. Im Internet der Dinge beobachtet die Welt sich selber und produziert über Sensoren Milliarden von Dateneinheiten. Informationskonzerne wie z.B. Google und Facebook vermessen damit die Welt, berechnen Persönlichkeitsprofile und bestimmen unsere Zukunft.
Einige dieser Strategen verkündigen bereits das «Ende der Theorie» – ein radikaler und neuer Paradigmenwechsel, so glaubt man, der die Ursachen und Wirkungen von Krankheiten, Märkten und Verbrechen nicht mehr verstehen muss, sondern durch blitzschnelles Durchforsten von riesigen Datenmengen Muster und Korrelationen erkennt, die Voraussagen in Echtzeit erlauben. Gemeint ist dabei keine wahrscheinlichkeitstheoretisch begründete Hochrechnung aus repräsentativen Stichproben. Gemeint ist die Berechnung von Korrelationen aus nahezu allen Daten eines gesamten Datensatzes. Tatsächlich waren es nur Korrelationen über Anfragen und Kaufverhalten im Internet, die Google 2009 den Ausbruch einer Epidemie voraussagen ließen, ohne langwierige Datenerhebungen von z.B. Gesundheitsämtern und repräsentative Stichproben abwarten oder sogar medizinisch begründete Modelle des Krankheitsverlaufs kennen zu müssen.
Ebenso lassen sich Markttrends und Profile von Produkten aus scheinbar zufälligen und nicht zusammenhängenden Daten über Personen, ihre Themen und Präferenzen schneller und verlässlicher erschließen als über gezielte Befragungen. Bemerkenswerte Erfolge gelangen in der Prävention von Verbrechen, indem aufgrund von automatischen Datenanalysen die Wahrscheinlichkeit von Diebstahl, Einbrüchen und Tötungsdelikten in bestimmten Straßen berechnet wurde und präventiv Polizei vor Ort die Straftaten verhinderte: Das kommt dem Science-Fiction-Film «Minority Report» erstaunlich nahe, in dem in einer total vernetzten Welt eine Art von Gedankenpolizei Strafdaten vollständig ausschalten wollte.
Technisch bezeichnet man mit dem Schlagwort «Big Data» gigantische Datenmengen, die in konventionellen Datenbanken nicht mehr bearbeitet werden können. Dazu wurden neue Softwarewerkzeuge entwickelt, die nicht mehr wie klassische Computerprogramme mit einem Rechnerprozessor auskommen. Vielmehr werden in Parallelrechnung Hunderte oder Tausende von Prozessoren in Superrechnern gleichzeitig eingesetzt, um so eine Reduktion der Komplexität in der Bearbeitung zu erreichen. In diesem Sinn lassen sich mit «Big Data» konkrete Geschäftsmodelle für Firmen aller Art entwickeln, die möglichst adaptiv, trendsicher und schnell auf Märkte reagieren sollen. Die deutsche Industrie sieht daher durchaus das Potential solcher Art von Big Data-Technologie, gibt sich aber bescheiden und bedeckt gegenüber den weitreichenden Visionen von jenseits des Atlantiks.
Es wäre allerdings leichtfertig und fahrlässig, den Big Data-Hype als typisch amerikanische Marketingstrategie herunterzuspielen, um sich auf derzeit vorhandene Software-Technologien zu beschränken. Tatsächlich wird hier ein Trend sichtbar, der bereits die Dynamik menschlicher Zivilisation maßgeblich bestimmt und auch die Wissenschaften erfasst hat: Was wäre, wenn in Zukunft tatsächlich neue Erkenntnis und die Lösung unserer Probleme nur von der schieren Steigerung von Datenmenge, Datenanalyse und Rechenpower abhängen? Ist die Suche nach Erklärungen, Ursachen und kausalen Zusammenhängen, Gesetzen und Theorien angesichts der steigenden Komplexität der Probleme nicht völlig überholt? Können wir uns angesichts des Tempos zivilisatorischer Entwicklung und der Notwendigkeit schneller Entscheidungen überhaupt noch solche zeitraubende Grundlagenforschung leisten? Sollten wir nicht die «Warum»-Frage vergessen und uns auf das «Was» der Daten beschränken?
Historisch steht die «Warum»-Frage am Anfang menschlichen Denkens in Wissenschaft und Philosophie. Warum bewegen sich Sterne und Planeten in regelmäßigen Bahnen? Ist die Vielfalt der Stoffe aus einfachen Grundbausteinen aufgebaut? In griechischer Tradition entstand eine faszinierende Idee, die den weiteren Entwicklungsgang von Forschung grundlegend beeinflusste. Der scheinbar chaotischen Vielfalt der Sinneseindrücke liegen einfache Gesetze der Symmetrie, Regelmäßigkeit und Harmonie zugrunde, die mathematisch beschreibbar sind. Diese Entwicklung begann mit den regulären Körpern Piatons und führte zur Suche nach Symmetrien in den Grundgesetzen der modernen Elementarteilchenphysik. Die Suche nach der Weltformel ist der Versuch, die Komplexität der Welt durch einfache Symmetriegesetze zu bewältigen (Kapitel 1). Das ist der Trend einer theoriegeleiteten («hypotheses-driven») Forschung. Dahinter steht die Überzeugung: Erst wenn wir eine gute Theorie haben, können wir wissen, wonach wir suchen, um die Vielfalt der Welt zu verstehen und zu bewältigen.
Aber auch die datengetriebene («data-driven») Forschungsperspektive ist keineswegs neu, wie leider historisch wenig gebildete Trendmacher von Big Data glauben machen wollen. Vielmehr ist dieser Trend tief in den Anfängen der Wissenschaftsentwicklung verwurzelt. In einer technisch-wissenschaftlich geprägten Zivilisation bekommen die dahinterstehenden wissenschaftlichen und philosophischen Traditionen eine dramatische Bedeutung. Die Forderung, auf Fakten und Messdaten zu setzen und Hypothesen zu misstrauen, findet sich von Francis Bacon bis Isaac Newton. Der schottische Aufklärungsphilosoph David Hume kritisiert kausale Verknüpfungen von Ereignissen als Hirngespinste und führt sie auf Korrelationen von Sinneseindrücken zurück. Mit Auguste Comtes Positivismus zieht der Glaube an Fakten und Daten auch in die Sozialwissenschaften ein.
Daten werden Zahlen zugeordnet und damit berechenbar. Gesetze werden zu Rechenregeln, um mathematische Gleichungen zu lösen. Ende des 18. Jahrhunderts ist für den Mathematiker und Astronomen Pierre Simon Laplace die Welt durch Anfangsdaten und Bewegungsgleichungen vollständig bestimmt. Daher kommt es nur auf die Berechnung von Gleichungslösungen an, um zu präzisen Voraussagen zu gelangen. Wenn also, so argumentiert Laplace, einer «Intelligenz» alle diese Daten und Gleichungen gegeben wären, müsste für sie die Welt total berechenbar sein. Diese von Laplace unterstellte «Intelligenz» geht als Laplacescher Geist in die Geschichte ein (Kapitel 2). Naheliegend ist es heute, sich darunter einen Superrechner vorzustellen. Berechnungen sind nach Laplace keineswegs auf deterministische Abläufe beschränkt. Die Wahrscheinlichkeit von abhängigen und unabhängigen Ereignissen und ihre Erwartungswerte sind Thema seines zweibändigen Werks über Wahrscheinlichkeitsrechnung von 1812.
Sind Gesetze aber tatsächlich überflüssig, ein Relikt aus einer Zeit, als Naturgesetze noch wie bei Galilei und Newton als «Gedanken Gottes» in der Sprache der Mathematik aufgefasst wurden? Von Nietzsches «Gott ist tot» zum «Tod der Gesetze» als unumkehrbarer Trend der modernen Welt? Massen von Daten und Zahlen alleine sind für uns aber ebenso sinnlos wie die Milliarden von Sinneseindrücken, die unsere Sinnesorgane tagtäglich bombardieren. Seit frühster Jugend haben wir gelernt, uns an Mustern und Regelmäßigkeiten dieser Daten zu orientieren. Stellen wir uns ein Gerät vor, das eine Folge von Werten aus den Ziffern 0 und 1 (Bits) generiert. In der Bitfolge 01010101010101010101 erkennen wir die periodische Abfolge des Paares 01. Es ist daher kürzer, die Regel «10 mal 01» zu notieren und mit dieser Regel die nächsten Schritte dieser Abfolge vorauszusagen. In der Datenfolge 01100010111001011110 ist kein Muster zu erkennen und damit auch keine Möglichkeit der Voraussage. Um diese Abfolge zu beschreiben, gibt es keine kürzere Darstellung als die Folge selber. Regeln und Gesetze sind also zunächst Datenkompressionen, die ein Muster zum Ausdruck bringen.
Unser Gehirn wurde während seiner Evolution auf Datenkompression und Reduktion von Komplexität trainiert. Blitzschnelle Entscheidungen hängen von dieser Fähigkeit ab. Das traf nicht nur im Überlebenskampf während der Steinzeit zu. Auch im heutigen Geschäftsleben und in der Politik stehen wir unter dem Druck häufig reflexartiger Entscheidungen. Superrechner und Big Data scheinen diesen Trend zur schnellen Entscheidung zu bedienen. Gelegentlich bilden wir uns aber auch Zusammenhänge und Muster ein, denen nur scheinbare Korrelationen von Ereignissen zugrunde liegen. Wetterregeln unserer Vorfahren waren häufig nicht besser begründet als das Zockerverhalten von Börsenspekulanten. Aber die Muster und Korrelationen von Big Data bleiben zufällig, wenn wir die zugrunde liegenden Zusammenhänge nicht verstehen. Natürlich greift...


Klaus Mainzer war Professor für Philosophie und Wissenschaftstheorie an der Universität Konstanz und der Universität Augsburg. Seit 2008 hat er den Lehrstuhl für Philosophie und Wissenschaftstheorie und ist Direktor der Carl von Linde-Akademie an der Technischen Universität München. Seit 2012 ist er Gründungsdirektor des Munich Center for Technology in Society.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.