E-Book, Deutsch, 154 Seiten
ISBN: 978-3-17-045345-6
Verlag: Kohlhammer
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Autoren/Hrsg.
Weitere Infos & Material
1Grenzen der KI
Theoretisch, praktisch, ethisch Klaus Mainzer Abstract: Die technisch-praktischen Grenzen heutiger Computer und KI hängen von den theoretischen Grenzen digitaler Berechenbarkeit ab. Zunächst orientierte sich KI am logischen Schließen der symbolischen Logik. Das statistische Lernen aus großen Datenmassen führte schließlich zum Machine Learning, das die technisch-wirtschaftlichen Durchbrüche der heutigen KI dominiert. Dazu gehören auch Chatbots wie ChatGPT, die täuschend echt Texte und Unterhaltungen auf anspruchsvollem Niveau generieren, aber auch gefährliche Fehlinformationen und Diskriminierungen in den Medien verbreiten können. Was fehlt, ist logisches und kausales Begründen und Verstehen. Einige Grenzen digitaler Berechenbarkeit, Entscheidbarkeit und Lösbarkeit von Problemen lassen sich theoretisch jenseits der Turing-Berechenbarkeit überwinden. Neuartige analoge Rechnerstrukturen, die am menschlichen Gehirn orientiert sind (z. B. memristive Systeme), ermöglichen ihre technisch-praktische Umsetzung. Ebenso lässt sich zunächst theoretisch beweisen, dass im Formalismus der Quantenmechanik Probleme in polynomialer Zeit lösbar werden, die in den Grenzen klassischer Turing-Berechenbarkeit nicht-polynomial sind und damit praktisch unlösbar. Die technisch-praktische Umsetzung erfordert allerdings den Quantencomputer. Daher wird eine Erweiterung zu einer hybriden KI gefordert, die digitales, analoges und Quanten-Computing in neuromorphen Rechnerstrukturen verbindet. Anwendungen werden sowohl für Roboter als auch in intelligente Infrastrukturen erörtert. Ziel ist eine Künstliche Intelligenz als Dienstleistung am Menschen, um Vertrauen in KI durch Technikgestaltung zu erreichen. Ethische Orientierung der KI als humane Dienstleistung sind Menschenwürde und Autonomie, wie sie in den Grundrechten demokratischer Verfassungen gefordert werden. 1.1Grenzen digitaler Berechenbarkeit und Künstlicher Intelligenz
Traditionell wurde KI (Künstliche Intelligenz) als Simulation intelligenten menschlichen Denkens und Handelns aufgefasst. Alan Turings schlug daher in seiner Definition der KI von 1950 ein Simulationsspiel (Turingtest) vor, wonach ein technisches System ›intelligent‹ genannt werden sollte, wenn es in seinen Antworten, Reaktionen und seinem Verhalten nicht von einem Menschen unterschieden werden kann. 1936 hatte Turing bereits theoretisch definiert, was ein digitaler Computer überhaupt ist. Sein Konzept der Turingmaschine besteht aus einem (nach beiden Seiten) unbegrenztem Band, auf dessen Felder Symbole eines endlichen Alphabets nach einfachen Befehlen gedruckt, gelöscht, verschoben und gelesen werden können. Das Band dient also als Speicher und die Lese- und Druckvorrichtung als Prozessor. Im einfachsten Fall handelt es sich bei den Symbolen um die Bits 0 und 1, mit denen alle digitalen Informationen kodiert werden können. Eine Turingmaschine heißt deterministisch, wenn die Ausführung der Befehle nacheinander eindeutig festgelegt ist. Nach der Churchschen These kann jeder digitale Algorithmus durch eine Turingmaschine simuliert werden. Danach ist die Turingmaschine Repräsentant eines digitalen Algorithmus überhaupt. Technisch wurde Turings theoretisches Konzept der Turingmaschine in den 1940er Jahren sowohl durch Zuses als auch von Neumanns programmgesteuertem digitalen elektronischen Computer realisiert. Die theoretisch auf Turing zurückgehende Trennung von Prozessor und Speicher wird als von Neumann-Architektur bezeichnet und bis heute in digitalen Computern vom Smartphone bis zum Supercomputer verwendet. Universell nannte Turing eine Turingmaschine dann, wenn sie alle möglichen Computer mit ihren Maschinencodes simulieren kann. Eine universelle Turingmaschine ist daher das theoretische Konzept eines digitalen Vielzweck-Computers. Mit der Turingmaschine lag erstmals eine logisch-mathematisch präzise Definition eines digitalen Algorithmus überhaupt vor. Noch Hilbert war Anfang des 20. Jahrhunderts der Auffassung von Leibniz, dass alle logisch-mathematischen Probleme im Prinzip entscheidbar seien. Das Halteproblem für Turingmaschinen ist ein Beispiel für ein prinzipiell unentscheidbares Problem: Prinzipiell gibt es kein allgemeines Entscheidungsverfahren, ob eine beliebige Turingmaschine für einen beliebigen Input nach endlich vielen Schritten stoppt oder nicht. Die Annahme eines solchen Verfahrens würde der Existenz einer prinzipiell nicht berechenbaren reellen Zahl widersprechen. Daran wird deutlich, wie die Grenzen von mathematischen Entscheidungsverfahren mit dem Konzept digitaler Berechenbarkeit und digitaler Computer zusammenhängen. Ebenso folgt Gödels Unvollständigkeit direkt aus der Unentscheidbarkeit des Halteproblems. Gäbe es ein vollständiges formales System mit formalen Beweisen für alle mathematischen Wahrheiten, dann gäbe es ein Entscheidungsverfahren, ob ein beliebiges Computerprogramm stoppt oder nicht. Für die Grenzen digitalen Computing wurden Komplexitätsklassen zur Unterscheidung von P-, NP-, NP-harten und NP-vollständigen Problemen eingeführt.[1] Da die Leistungen von Künstlicher Intelligenz von unterschiedlichen Algorithmenklassen abhängen, ist die Berechenbarkeits- und Komplexitätstheorie grundlegend. In Alltagsentscheidungen greifen wir häufig auf Hintergrundwissen zurück, das wir selbst nicht entscheiden und beweisen können. Das gilt auch in einer arbeitsteiligen Forschung, in der wir uns häufig des Wissens von Nachbardisziplinen bedienen, ohne selbst dieses Wissen entscheiden zu können. Häufig handelt es sich dabei auch um angenommene Hypothesen. Diese Art von erweiterter Intelligenz lässt sich in Algorithmen abbilden. Turing hatte dazu das Konzept einer ›Orakel-Maschine‹ eingeführt. In diesem Fall greift eine Turingmaschine zusätzlich auf eine Instanz (Orakel) zurück, die Fragen beantwortet, ohne selbst dieses Wissen entscheiden zu können. 1.2Grenzen der symbolischen und subsymbolischen KI
1.2.1Symbolische KI: Logik und Deduktion
Auf der Grundlage digitaler Berechenbarkeit orientierte sich KI in einer ersten Phase an formalen (symbolischen) Kalkülen der Logik, mit denen Problemlösungen regelbasiert abgeleitet werden können. Man spricht deshalb auch von symbolischer KI. Ein typisches Beispiel ist das automatische Beweisen mit logischen Deduktionen, die sich mit Computerprogrammen realisieren lassen. Dabei wird der Beweis der Allgemeingültigkeit eines logischen Schlusses durch ein logisches Widerlegungsverfahrens gefunden. Bei der Resolutionsmethode wird die entsprechende Formel mit Annahme des Gegenteils der Allgemeingültigkeit systematisch nach logischen Regeln aufgelöst und auf einen Widerspruch geführt. In der Aussagenlogik terminieren alle Resolutionsalgorithmen, in der Prädikatenlogik nur in Teilsystemen.[2] Automatisierung bedeutet bis zu einem bestimmten Grad auch Autonomie, da Computerprogramme die Beweistätigkeit eines Mathematikers übernehmen. Wissensbasierte Expertensysteme sind Computerprogramme, die Wissen über ein spezielles Gebiet speichern und ansammeln, aus dem Wissen automatisch Schlussfolgerungen ziehen, um zu konkreten Problemen des Gebietes Lösungen anzubieten. Im Unterschied zu menschlichen Experteninnen und Experten ist das Wissen eines Expertensystems aber auf eine spezialisierte Informationsbasis beschränkt ohne allgemeines und strukturelles Wissen über die Welt.[3] Um ein Expertensystem zu bauen, muss das Wissen der Expertin oder des Experten in Regeln gefasst werden, in eine Programmsprache übersetzt und mit einer Problemlösungsstrategie bearbeitet werden. Die Architektur eines Expertensystems besteht daher aus den folgenden Komponenten: Wissensbasis, Problemlösungskomponente (Ableitungssystem), Erklärungskomponente, Wissenserwerb, Dialogkomponente. In dieser...