E-Book, Deutsch, 196 Seiten
Fink / Rosenzweig Wo sitzt der Geist?
1. Auflage 2022
ISBN: 978-3-948787-06-6
Verlag: Kortizes
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Von Leib und Seele zur erweiterten Kognition
E-Book, Deutsch, 196 Seiten
ISBN: 978-3-948787-06-6
Verlag: Kortizes
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Die Hirnforschung hat das Leib-Seele-Problem modernisiert, aber nicht gelöst. Wie sich bewusstes Erleben zu neuronalen Anregungen verhält, wird durch bildgebende Verfahren alleine nicht beantwortet. Gleichwohl macht die Neurowissenschaft Fortschritte und erkennt im Gehirn Funktionsprinzipien, die sich nicht ohne weiteres auf künstliche Systeme übertragen lassen. Doch funktionale Erklärungen unserer geistigen Fähigkeiten reichen heute oft über das Gehirn hinaus: Verkörperung des Geistes, »Embodiment«, erweiterte und situierte Kognition sind neuere Konzepte der Kognitionswissenschaft. Dieser Band beleuchtet Einflüsse von Körper und Umwelt auf den Geist und führt an aktuelle Debatten in der Philosophie des Geistes heran.
Autoren/Hrsg.
Weitere Infos & Material
Wolf Singer Unterschiede zwischen natürlichen
und künstlichen kognitiven Systemen
Zusammenfassung
Es werden die Unterschiede zwischen natürlichen und künstlichen kognitiven Systemen aufgezeigt. Beide Systeme müssen ein internes Modell der Umwelt besitzen, um ihre Leistungen an die Bedingungen der jeweiligen Umgebung anpassen zu können. Die informationsverarbeitenden Strategien zur Bewältigung dieser Herausforderungen unterscheiden sich jedoch in grundlegenden Aspekten. Viele der spezifisch menschlichen Eigenschaften lassen sich nicht allein aus den neuronalen Funktionen einzelner Gehirne ableiten, sondern verdanken sich zudem der kulturellen Evolution. Soziale Interaktionen zwischen Agenten, die mit den kognitiven Fähigkeiten des Menschen ausgestattet sind, erzeugen immaterielle Realitäten, die als soziale oder kulturelle Realitäten angesprochen werden. Intentionalität, Moral, Verantwortung und bestimmte Aspekte des Bewusstseins wie die Qualia des subjektiven Erlebens gehören zur immateriellen Dimension der sozialen Realitäten. Es ist verfrüht, in Diskussionen darüber einzutreten, ob künstliche Systeme Funktionen übernehmen können, die wir als intentional und bewusst ansehen, oder ob künstliche Agenten als moralische Agenten mit Verantwortung für ihre Handlungen betrachtet werden können. Einleitung
Organismen und künstliche autonome Systeme haben sehr ähnliche Herausforderungen zu bewältigen. Beide müssen ein internes Modell der Umwelt besitzen, um Signale aus dieser im Kontext zu interpretieren und beide müssen ihre Aktionen an die idiosynkratischen Bedingungen der jeweiligen Umwelt anpassen. Die Verarbeitungsstrategien zur Bewältigung dieser Herausforderungen weisen jedoch deutliche Unterschiede zwischen natürlichen und künstlichen Systemen auf. In natürlichen Systemen ist das Modell der Welt weitgehend ererbt, d. h. die relevanten Informationen wurden durch Selektion und Anpassung im Laufe der Evolution erworben, sind in den Genen gespeichert und drücken sich in der funktionellen Anatomie des Organismus und der Architektur seines Nervensystems aus. Dieses angeborene Modell wird anschließend während der Ontogenese durch Erfahrung und Übung ergänzt und verfeinert. Das Gleiche gilt für die Spezifikation der Aufgaben, die der Organismus zu erfüllen hat, und für die Programme, die die Ausführung von Handlungen steuern. Auch hier werden die notwendigen Informationen zum Teil durch die Evolution und zum Teil durch lebenslanges Lernen bereitgestellt. Um sich in einer sich ständig verändernden Umwelt weiterentwickeln zu können, haben Organismen kognitive Systeme entwickelt, die es ihnen erlauben, die aktuellen Bedingungen ihrer einbettenden Umwelt zu analysieren, mit dem internen Modell abzugleichen, das Modell zu aktualisieren, Vorhersagen abzuleiten und zukünftige Handlungen an die aktuellen Anforderungen anzupassen. Um das angeborene Modell der Welt zu ergänzen, greifen Organismen auf zwei verschiedene Lernstrategien zurück: unüberwachtes und überwachtes Lernen. Ersteres dient dazu, häufig auftretende Zusammenhänge in der Umwelt zu erfassen und Verarbeitungsarchitekturen an die effiziente Analyse dieser Zusammenhänge anzupassen. Der unüberwachte Lernprozess wird durch adaptive Verbindungen realisiert, die ihre Effizienz in Abhängigkeit von der Aktivität der verbundenen Neuronen ändern. Wenn in einem Netzwerk zwei miteinander verbundene Neuronen häufig gemeinsam aktiviert werden, weil die Merkmale, auf die sie reagieren, oft gleichzeitig vorhanden sind, werden die Verbindungen zwischen diesen beiden Neuronen effizienter. Die Neuronen, die diese korrelierten Merkmale repräsentieren, werden miteinander assoziiert. So werden Beziehungen zwischen Merkmalen durch die Stärke der neuronalen Interaktionen repräsentiert. »Neuronen verdrahten sich miteinander, wenn sie zusammen feuern« (Englisch: »Neurons wire together if they fire together«). Umgekehrt schwächen sich die Verbindungen zwischen Neuronen ab, wenn diese selten gemeinsam aktiv sind, d. h. wenn ihre Aktivität unkorreliert ist. Komplementär dazu werden überwachte Lernstrategien eingesetzt, wenn das Ergebnis eines kognitiven oder exekutiven Prozesses bewertet werden soll. Ein Beispiel ist die Erzeugung von Kategorien. Wenn das System lernen soll, dass Hunde, Haie und Adler zur Kategorie der Tiere gehören, muss ihm gesagt werden, dass eine solche Kategorie existiert, und es muss während des Lernprozesses eine Rückmeldung über die Richtigkeit der verschiedenen Klassifizierungsversuche erhalten. Beim überwachten Lernen wird die Entscheidung, ob ein bestimmtes Aktivitätsmuster eine Änderung der Kopplung induziert, nicht nur von der lokalen Aktivität der gekoppelten Neuronen abhängig gemacht, sondern von zusätzlichen Kontroll-Signalen, die eine »Jetzt-lernen«-Funktion haben. Nur wenn diese Signale zusätzlich vorhanden sind, kann die lokale Aktivität zu synaptischen Veränderungen führen. Diese Kontroll-Signale werden von wenigen spezialisierten Zentren in der Tiefe des Gehirns erzeugt und über weit verzweigte Nervenfasern an das gesamte Vorderhirn weitergeleitet. Die Aktivität dieser bewertenden Systeme wird wiederum von weit verteilten Hirnstrukturen gesteuert, die die Verhaltensvalidität laufender oder erst kürzlich durchgeführter kognitiver oder exekutiver Prozesse bewerten. Im Falle eines positiven Ergebnisses werden die Netzwerkverbindungen, deren Aktivität zu diesem Ergebnis beigetragen hat, gestärkt, im Falle eines negativen Ergebnisses werden sie geschwächt. Diese retrospektive Anpassung der synaptischen Modifikationen ist möglich, weil Aktivitätsmuster, die eine Verbindung potentiell verändern könnten, an den jeweiligen synaptischen Kontakten eine molekulare Spur hinterlassen, die die Aktivität selbst überdauert. Trifft das »Jetzt-lernen«-Signal der Kontroll-Systeme ein, während diese Spur noch vorhanden ist, wird die markierte Synapse nachhaltig verändert. Auf diese Weise wird das spezifische Aktivitätsmuster des Netzwerks, das zu dem gewünschten Ergebnis geführt hat, verstärkt. Daher wird diese Form des überwachten Lernens auch als Verstärkungslernen (englisch: »reinforcement learning«) angesprochen. Vergleicht man diese grundlegenden Eigenschaften natürlicher Systeme mit der Organisation künstlicher »intelligenter« Systeme, so zeigen sich bereits einige wichtige Unterschiede. Künstliche Systeme haben keine evolutionäre Geschichte, sondern sind das Ergebnis eines zielgerichteten Designs, so wie jedes andere Werkzeug, das Menschen zur Erfüllung spezieller Funktionen entworfen haben. Ihr internes Modell wird also von Ingenieuren installiert und an die spezifischen Bedingungen angepasst, unter denen die Maschine arbeiten soll. Das Gleiche gilt für die Programme, die Signale von den Sensoren des Systems in Aktionen umsetzen. Es gibt jedoch eine neue Generation von »intelligenten Systemen«, die sich die jüngsten Fortschritte im maschinellen Lernen zunutze machen. Aufgrund der erstaunlichen Leistung dieser Systeme – autonome Autos sind ein Beispiel dafür – und aufgrund der Demonstration, dass Maschinen den Menschen in Spielen wie Go und Schach übertreffen, ist es notwendig, genauer zu untersuchen, inwieweit die in diesen Maschinen realisierten Rechenprinzipien denen natürlicher Systeme ähneln. In den letzten Jahrzehnten wurde das Gebiet der künstlichen Intelligenz durch die Implementierung von Verarbeitungsstrategien revolutioniert, die auf künstlichen neuronalen Netzen basieren. In der zweiten Hälfte des letzten Jahrhunderts häuften sich die Beweise, dass relativ einfache neuronale Netze, bekannt als Perceptrons oder Hopfield-Netze, trainiert werden können, um Muster zu erkennen und zu klassifizieren, und dies beflügelte die intensive Forschung im Bereich der künstlichen Intelligenz. Die wachsende Verfügbarkeit von massiver Rechenleistung und die Entwicklung ausgeklügelter Trainingsalgorithmen lieferten den überzeugenden Beweis, dass diese Rechenstrategie skalierbar ist. Die frühen Systeme bestanden aus nur drei Schichten und ein paar Dutzend Netzwerkknoten, die einige sehr einfache Funktionen von Neuronen erfüllen. Im Wesentlichen summieren diese verschiedene Eingangssignale auf und geben das Ergebnis an nachgeschaltete Knotenpunkte weiter. Die Systeme, die in letzter Zeit viel Aufmerksamkeit auf sich gezogen haben, weil sie professionelle Go-Spieler übertreffen, eine riesige Anzahl von Objekten erkennen und richtig klassifizieren, verbale Befehle in Handlungen umwandeln und Autos steuern können, sind alle nach den gleichen Prinzipien aufgebaut wie die anfänglichen dreischichtigen Netzwerke. Allerdings bestehen die Systeme inzwischen aus mehr als hundert Schichten und Millionen von Knoten, was ihnen die Bezeichnung »Deep Learning Networks« eingebracht hat. Obwohl das Training dieser Netze Millionen von Trainingsversuchen mit einer sehr großen Anzahl von Stichproben erfordert, wird ihre erstaunliche Leistung oft als Beweis...




