E-Book, Deutsch, 334 Seiten
Reihe: Informatik aktuell
Levi / Schanz / Lafrenz Autonome Mobile Systeme 2005
2006
ISBN: 978-3-540-30292-6
Verlag: Springer Berlin Heidelberg
Format: PDF
Kopierschutz: 1 - PDF Watermark
19. Fachgespräch Stuttgart, 8./9. Dezember 2005
E-Book, Deutsch, 334 Seiten
Reihe: Informatik aktuell
ISBN: 978-3-540-30292-6
Verlag: Springer Berlin Heidelberg
Format: PDF
Kopierschutz: 1 - PDF Watermark
Das 19. Fachgespräch Autonome Mobile Systeme (AMS 2005) ist ein Forum, das Wissenschaftlerinnen und Wissenschaftlern aus Forschung und Industrie, die auf dem Gebiet der autonomen mobilen Systeme arbeiten, eine Basis für den Gedakenaustausch bietet und wissenschfltiche Diskussionen sowie Kooperationen auf diesem Forschungsgebiet fördert bzw. initiiert. Ausgewählte Beiträge zu den Themen Kooperative Systeme, Bildverarbeitung, Lokalisierung und Kartographierung, Outdoor-Systeme, Fahrerassistenzsysteme, Kognitive Sensordatenverarbeitung, Architekturen und Anwendungen sowie Steuerung und Navigation bilden den Inhalt dieses Bandes.
Autoren/Hrsg.
Weitere Infos & Material
1;Vorwort;5
2;Inhaltsverzeichnis;7
3;Kooperative Systeme;11
3.1;Architektur und Komponenten für ein heterogenes Team kooperierender, autonomer humanoider Roboter;13
3.1.1;1 Einleitung;13
3.1.2;2 Humanoide Roboterplattformen;15
3.1.3;3 Softwarearchitektur;15
3.1.4;4 Module;16
3.1.5;5 Ergebnisse und Ausblick;18
3.1.6;Literaturverzeichnis;20
3.2;Dynamic Task Assignment in a Team of Agents;21
3.2.1;1 Introduction;21
3.2.2;2 State of the Art;22
3.2.3;3 Evolution of Preferences to Decisions;22
3.2.4;4 Team Behavior IModeling by Role Assignment;23
3.2.5;5 Experimental Results: Example of a Defense Scenario;24
3.2.6;6 Conclusion and Outlook;27
3.2.7;7 Acknowledgment;27
3.2.8;References;27
3.3;Verbesserte Effizienz der Monte-Carlo- Lokalisierung im RoboCup;29
3.3.1;1 Einleitung;29
3.3.2;2 Verbesserte Monte-Carlo-Lokalisierung;29
3.3.3;3 Ergebnisse;31
3.3.4;4 Zusammenfassung;33
3.3.5;Literaturverzeichnis;34
3.4;Swarm Embodiment - A New Way for Deriving Emergent Behavior in Artificial Swarms;35
3.4.1;1 Introduction;35
3.4.2;2 Microscopic and macroscopic constraints;36
3.4.3;3 Top-down methodology;37
3.4.3.1;3.1 Embodied top-down computational approach;38
3.4.4;References;41
3.5;Kooperative Multi-Roboter-Wegplanung durch heuristische Prioritätenanpassung;43
3.5.1;1 Einleitung;43
3.5.2;2 Weltmodell;44
3.5.3;3 Lokale Wegplanung;45
3.5.4;5 Konfliktlösung;46
3.5.5;6 Ergebnisse und Ausblick;48
3.5.6;Literaturverzeichnis;49
3.6;A Unified Architecture for the Control Software of a Robot Swarm: Design and Investigation Results;51
3.6.1;1 Introduction;51
3.6.2;2 Two layer architecture;52
3.6.3;3 Implemented scenarios;53
3.6.4;4 Investigation results;56
3.6.5;5 Summary and Outlook;57
3.6.6;6 Acknowledgment;57
3.6.7;References;57
4;Bildverarbeitung;59
4.1;Kaiman Filter based Detection of Obstacles and Lane Boundary in Monocular Image Sequences;61
4.1.1;1 Introduction;61
4.1.2;2 Kaiman Filter based 3D from Motion;62
4.1.2.1;2.1 System Model;63
4.1.2.2;2.2 Measurement Model;63
4.1.2.3;2.3 Initialization;63
4.1.3;3 Pitch Correction;64
4.1.4;4 Obstacle and Lane Boundary Detection;65
4.1.5;5 Real World Results;65
4.1.6;6 Conclusion;66
4.1.7;References;67
4.2;Komponentenbasierte Bildanalyse zur Identifikation von Objektkategorien;69
4.2.1;1 Einleitung;69
4.2.2;2 Ermittlung der Objektgeometrie;70
4.2.3;3 Beschreibung von Objektkategorien;71
4.2.4;4 Bildanalyse;72
4.2.5;5 Zusammenfassung;74
4.2.6;Literaturverzeichnis;74
4.3;Gesichtsanalyse für die intuitive Mensch-Roboter-Interaktion;77
4.3.1;1 Einleitung;77
4.3.2;2 Datenmaterial;77
4.3.3;3 Verfahren zur Gesichtsanalyse;78
4.3.3.1;3.1 Elastic Graph Matching (EGM);78
4.3.3.2;3.2 Independent Component Analysis (ICA);78
4.3.3.3;3.3 Active Appearance Model (AAM);79
4.3.4;4 Ergebnisse;79
4.3.4.1;4.1 Identifikation;79
4.3.4.2;4.2 Geschlechtsschätzung;80
4.3.5;5 Praktische Anwendung im Dialogprozess;81
4.3.6;Literaturverzeichnis;82
4.4;Klassifizierungsaspekte bei der SD-Szenenexploration mit einer neuen 2D/3D-Multichip-Kamera;85
4.4.1;1 Einleitung;85
4.4.2;2 2D/3D-Kameratechnologie;86
4.4.2.1;2.1 3D-Kamera;86
4.4.2.2;2.2 MultiChip 2D/3D-Kamera;88
4.4.3;3 2D-Registrierte 3D-Messung;88
4.4.4;Literaturverzeichnis;90
4.5;Segmentation of Independently Moving Objects Using a Maximum-Likelihood Principle;91
4.5.1;1 Introduction;91
4.5.2;2 Related work;92
4.5.3;3 Detecting IlMOs using the EIM-Algorithm;92
4.5.3.1;3.1 Data representation;93
4.5.3.2;3.2 EM-Algorithm;93
4.5.3.3;3.3 Method;94
4.5.4;4 Results;95
4.5.5;5 Conclusion;96
4.5.6;6 Acknowledgements;97
4.5.7;References;97
4.6;Region-based Depth Feature Map for Visual Attention in Autonomous Mobile Systems;99
4.6.1;1 Introduction;99
4.6.2;2 Visual Attention for Mobile Robots;100
4.6.3;3 Existing Methods for Depth Computation;101
4.6.4;4 Region Based Depth Map;102
4.6.5;5 Experimental Results;103
4.6.6;6 Discussion;103
4.6.7;References;104
4.6.8;Lokalisierung und Kartographierung;107
5;Lokalisierung und Kartographierung;107
5.1;Bearing-Only SLAM with an Omnicam An Experimental Evaluation for Service Robotics Applications;109
5.1.1;1 Introduction;109
5.1.2;2 Related Work;110
5.1.3;3 Bearing-Only SLAM;110
5.1.3.1;3.1.1 Feature Initialization;112
5.1.3.2;3.1.2 Feature Extraction;113
5.1.4;4 Experiments and Results;113
5.1.5;5 Conclusion and Future Work;115
5.1.6;6 Acknowledgement;115
5.1.7;References;115
5.2;Automatic Generation of Indoor VR-Models by a Mobile Robot with a Laser Range Finder and a Color Camera;117
5.2.1;1 Introduction;117
5.2.2;2 Data Acquisition;118
5.2.3;3 Line Model;118
5.2.4;4 3D Model;119
5.2.5;5 Results;121
5.2.6;6 Conclusion;122
5.2.7;References;123
5.3;Elastic View Graphs: A new Framework for Sequential 3D-SLAM;125
5.3.1;1 Introduction;125
5.3.2;2 State of 3D SLAM and new approach;126
5.3.3;3 Sequential capturing and pose tracking of ränge views;127
5.3.4;4 Loop hypothesizing and closing;128
5.3.5;5 Preliminary experimental results;130
5.3.6;References;131
5.4;Selbstständige Erstellung einer abstrakten topologiebasierten Karte für die autonome Exploration;133
5.4.1;1 Einleitung;133
5.4.1.1;1.1 Kartierungsformen für die Exploration im Indoor-Bereich;133
5.4.2;2 Systemübersicht;134
5.4.2.1;2.1 Raumerkennung;135
5.4.2.2;2.2 Raumaktualisierung;135
5.4.2.3;2.3 Kartenerstellung;137
5.4.3;3 Ergebnisse;137
5.4.3.1;3.1 Simulationsergebnisse;137
5.4.3.2;3.2 Der Roboter Marvm;138
5.4.4;4 Zusammenfassung und Ausblick;138
5.4.5;Literaturverzeichnis;139
5.5;Integration of a Sound Source Detection into a Probabilistic-based Multimodal Approach for Person Detection and Tracking;141
5.5.1;1 Introduction;141
5.5.2;2 Robot System HOROS;142
5.5.3;3 Generation of User Models;143
5.5.4;4 Integration of Sound Source Detection as a further Hypothesis;143
5.5.5;5 Summary and Conclusions;146
5.5.6;References;147
5.6;Using Descriptive Image Features for Global Localization of Mobile Robots;149
5.6.1;1 Introduction;149
5.6.2;2 Integral invariants;150
5.6.3;3 DoG-based point detector;151
5.6.4;4 Using global integral invariants for robot localization;151
5.6.5;5 Extracting local integral invariants;151
5.6.6;6 Experimental results;152
5.6.6.1;6.1 The database of Images;152
5.6.6.2;6.2 Global integral invariants;152
5.6.6.3;6.3 Local integral invariants;153
5.6.6.4;6.4 Results;153
5.6.7;7 Conclusion;154
5.6.8;8 Acknowledgment;154
5.6.9;References;154
6;Outdoor-Systeme;157
6.1;Extension Approach for the Behaviour-Based Control System of the Outdoor Robot RAVON;159
6.1.1;1 Introduction;159
6.1.2;2 Mobile robot platform RA VON;160
6.1.3;3 Control Software extension exploiting behaviour fusion;160
6.1.3.1;3.1 Experiments;162
6.1.4;4 Conclusion and outlook;165
6.1.5;References;165
6.2;Visual Odometry Using Sparse Bündle Adjustment on an Autonomous Outdoor Vehicle;167
6.2.1;1 Introduction;167
6.2.2;2 Sparse Bündle Adjustment;167
6.2.3;3 Visual Motion Estimation using Sparse Bündle Adjustment;169
6.2.4;4 Experimental Results;170
6.2.5;5 Conclusions and Further Work;172
6.2.6;References;173
6.3;Verbesserte GPS-Positionsschätzung mit IP-transportierten Korrekturdaten für autonome Systeme im Outdoor-Bereich;175
6.3.1;1 GPS;175
6.3.2;2 Differential GPS;176
6.3.3;3 NTRIP;176
6.3.4;4 Versuchsaufbau;177
6.3.5;5 Ergebnisse;178
6.3.5.1;5.1 Unterschiede zwischen den GPS-Geräten;179
6.3.5.2;5.2 Unterschiede durch die Art der Übertragung;179
6.3.5.3;5.3 Unterschiede durch verschiedene Referenzquellen;179
6.3.6;6 Ausblick;180
6.3.7;7 Danksagung;180
6.3.8;Literaturverzeichnis;180
7;Fahrerassistenzsysteme;181
7.1;Videobasierte Fahrspurerkennung zur Umfelderfassung bei Straßenfahrzeugen;183
7.1.1;1 Einleitung;183
7.1.2;2 Fahrspurerkennung auf Basis des 4D-Ansatzes;184
7.1.2.1;2.1 Erweiterte Modellierung der Dynamik;185
7.1.2.2;2.2 Klassifikation der Spurmarkierung;186
7.1.3;3 Zusammenfassung und Ausblick;188
7.1.4;Literaturverzeichnis;188
7.2;Introduction of a Full Redundant Architecture into a Vehicle by Integration of a Virtual Driver;189
7.2.1;1 Introduction;189
7.2.2;2 Modeling a Virtual driver;190
7.2.2.1;2.1 Architecture of the multiagent System;190
7.2.2.2;2.2 Definition of tlie tactic agents;191
7.2.2.3;2.3 Towards a fault-tolerant technology;191
7.2.3;3 Integration of a decision control into the vehicle;192
7.2.3.1;3.1 Understanding the driver's maneuver;192
7.2.4;4 Fusion of the two commands;193
7.2.5;5 Implications for the roles and interaction between human and Virtual driver;193
7.2.6;6 Conclusion and next research;194
7.2.7;References;195
7.3;Systemplattform für videobasierte Fahrerassistenzsysteme;197
7.3.1;1 Einleitung;197
7.3.2;2 Menschliches Vorbild;198
7.3.3;3 Systemplattform;199
7.3.3.1;3.1 Kameraplattform;199
7.3.3.2;3.2 Hardwareplattform;199
7.3.4;4 Ergebnisse und Ausblick;202
7.3.5;5 Danksagung;203
7.3.6;Literaturverzeichnis;203
8;Kognitive Sensordatenverarbeitung;205
8.1;Sequential Parameter Estimation for Fault Diagnosis in Mobile Robots Using Particle Filters;207
8.1.1;1 Introduction;207
8.1.2;2 Sequential Estimation of the System State and Model Parameters;208
8.1.3;3 Evaluation of the Estimation Methods in a Fault Diagnosis Scenario;209
8.1.4;4 Conclusions and Further Research;211
8.1.5;References;211
8.2;Ermittlung von Linienkorrespondenzen mittels Graph-Matching;213
8.2.1;1 Einleitung;213
8.2.2;2 Graph Aufbau;214
8.2.3;3 Probabilistische Relaxation und lokale Isomorphismen;216
8.2.4;4 Diskussion der Ergebnisse;217
8.2.5;Literaturverzeichnis;219
8.3;Information Integration in a Multi-Stage Object Classifier;221
8.3.1;1 Introduction;221
8.3.2;2 Multi-stage Object Classifier;222
8.3.3;3 Evidence Fusion;223
8.3.4;4 Evaluation;224
8.3.5;5 Related Work;226
8.3.6;6 Conclusion;227
8.3.7;7 Acknowledgment;227
8.3.8;References;227
8.4;Finding Rooms on Probabilistic Quadtrees;229
8.4.1;1 Introduction;229
8.4.2;2 Probabilistic Quadtrees;230
8.4.3;3 Finding Regions on PQTs;230
8.4.4;4 Region Finding Method;231
8.4.5;5 Experimental Evaluation;233
8.4.6;6 Conclusions;235
8.4.7;References;235
8.5;Active Autonomous Object Modeling for Recognition and Manipulation;237
8.5.1;1 Introduction;237
8.5.2;2 Related Research;237
8.5.3;3 Unified Object Model and Learning Cycle;238
8.5.4;4 Implementations and Results;239
8.5.4.1;4.1 Learning a Geometric Model for Grasping;239
8.5.4.2;4.2 Learning an Appearance Model for Invariant Object Detection;241
8.5.5;5 Summary and Conclusions;242
8.5.6;6 Acknowledgements;243
8.5.7;References;243
9;Architekturen und Anwendungen;245
9.1;Die Softwarearchitektur eines Laufroboters für RoboCup Rescue AIMEE;247
9.1.1;1 Einleitung;247
9.1.2;2 Software-Architektur;248
9.1.3;3 Zentrale Mustergeneratoren;249
9.1.4;4 Reflexe;251
9.1.5;5 Fazit;252
9.1.6;Literaturverzeichnis;253
9.2;Flexible Combination of Vision, Control and Drive in Autonomous Mobile Robots;255
9.2.1;1 Introduction;255
9.2.1.1;1.1 Overview of the Architecture;255
9.2.2;2 Software Architecture;257
9.2.2.1;2.1 Software Modularity;257
9.2.2.2;2.2 The Vision Unit;258
9.2.2.3;2.3 The World Model;258
9.2.2.4;2.4 The Central Control Unit;258
9.2.3;3 Hardware Architecture;260
9.2.3.1;3.1 Vision Unit;260
9.2.3.2;3.2 Central Control Unit;260
9.2.3.3;3.3 Drive;260
9.2.3.4;3.4 Actuators;260
9.2.4;4 Conclusion;260
9.2.5;References;261
9.3;Zentrale Aufgaben Verteilung in einem fahrerlosen Transportsystem;263
9.3.1;1 Einleitung;263
9.3.2;2 Aufgaben eines zentralen Leitstands;264
9.3.3;3 Repräsentation der Anlagendefinition;265
9.3.4;4 Auftragsvergabe;266
9.3.4.1;4.1 Anforderungen;266
9.3.4.2;4.2 Das Verfahren Magycs (multi-attributed, global, d^namic, supplanting);267
9.3.5;5 Evaluierung des Verfahrens;267
9.3.5.1;5.1 Bewertungsfunktion;268
9.3.5.2;5.2 Experimente;268
9.3.6;6 Zusammenfassung;268
9.3.7;Literaturverzeichnis;269
9.4;Autonom navigierende Fahrerlose Transportsysteme in der Produktion;271
9.4.1;1 Einleitung;271
9.4.2;2 Neues Konzept für Fahrerlose Transportfahrzeuge;272
9.4.3;3 Mechanischer Aufbau;272
9.4.4;4 Konzeption eines verteilten Steuerungsansatzes;273
9.4.4.1;4.1 Kartographie, Hinderniserkennung und Kollisionsvermeidung;273
9.4.4.2;4.2 Bahnplanung;274
9.4.4.3;4.3 Agentenmechanismen;276
9.4.5;5 Zusammenfassung;276
9.4.6;Literatur;277
9.5;Sensorgestützte Bewegungssynchronisation von Operationsinstrumenten am schlagenden Herzen;279
9.5.1;1 Einleitung;279
9.5.2;2 Problemformulierung;280
9.5.3;3 Herzoberflächenmodell;281
9.5.3.1;3.1 Herleitung der System-, Mess- und Rekonstruktionsgleichung;282
9.5.3.2;3.2 Simulationsergebnisse;283
9.5.3.3;3.3 Ermittlung von 3D-Messungen der Herzoberfläche;284
9.5.4;4 Zusammenfassung und Ausblick;285
9.5.5;Literaturverzeichnis;285
10;Steuerung und Navigation;287
10.1;Robot Guidance Navigation with Stereo-Vision and a Limited Field of View;289
10.1.1;1 Introduction;289
10.1.2;2 Our approach;290
10.1.2.1;2.1 Image warping;290
10.1.2.2;2.2 Image matching;291
10.1.3;3 Experiments;292
10.1.4;4 Conclusion and future work;295
10.1.5;References;295
10.2;Einfaches Steuerungskonzept für mobile Roboter in dynamischen unstrukturierten Umgebungen;297
10.2.1;1 Einleitung;297
10.2.2;2 Definition der Einsatzumgebung;297
10.2.3;3 Die Steuerungsarchitektur;298
10.2.3.1;3.1 Der Pilot;298
10.2.3.2;3.2 Der Navigator;299
10.2.3.3;3.3 Der Pfadfinder;300
10.2.4;4 Sensorinformationen;300
10.2.5;5 Evaluierung;301
10.2.6;Literaturverzeichnis;303
10.3;Graphbasierte Bewegungsanalyse dynamischer Hindernisse zur Steuerung mobiler Roboter;305
10.3.1;1 Einführung;305
10.3.2;2 Systemübersicht;306
10.3.3;3 Sensorik;307
10.3.4;4 Graphbasiertes Lernen und Vorhersagen dynamischer Bewegungen;307
10.3.4.1;4.1 Das Modell;307
10.3.4.2;4.2 Lernen der Übergangswahrscheinlichkeiten;309
10.3.4.3;4.3 Vorhersage von Hindernisbewegungen;309
10.3.4.4;4.4 Initialisierung der Topologie mit dem Voronoigraphen;310
10.3.5;5 Ergebnisse und Ausblick;311
10.3.6;Literaturverzeichnis;311
10.4;Mobile Robot Motion using Neural Networks: An Overview;313
10.4.1;1 Introduction;313
10.4.2;2 Control of a Nonholonomic Robot with ESN;314
10.4.2.1;2.1 Background;314
10.4.2.2;2.2 Motion control using ESN;315
10.4.3;3 Control of a Holonomic Robot with ESN;316
10.4.3.1;3.1 Control Design;316
10.4.4;4 Conclusion;319
10.4.5;References;319
10.5;Combining Learning and Programming for High-Performance Robot Controllers;320
10.5.1;1 Introduction;320
10.5.2;2 Learning Mechanisms;322
10.5.3;3 Progress and Further Work;322
10.5.4;4 Conclusion;323
10.5.5;References;323
10.6;Automatic Neural Robot Controller Design using Evolutionary Acquisition of Neural Topologies;325
10.6.1;1 Evolutionary Acquisition of Neural Topologies;325
10.6.2;2 Evolving Neural Controller for Navigation;329
10.6.3;3 Conclusion;330
10.6.4;4 Acknowledgment;330
10.6.5;References;331
10.7;KAWA'I krabbelt! Entwurf, Aufbau und Steuerungsarchitektur des Colani-Babys;333
10.7.1;1 Die Aufgabe;333
10.7.2;2 Systementwurf;334
10.7.2.1;2.1 Spezifikation;334
10.7.2.2;2.2 Arcliitektur und Schnittstellen;334
10.7.3;3 Umsetzung;335
10.7.3.1;3.1 Hardware;335
10.7.3.2;3.2 Software und Algorithmik;335
10.7.3.2.1;3.2.1 Servo-Timing;335
10.7.3.2.2;3.2.2 Adaptierter Bresenham-Algorithmus zur Bewegungssteuerung;336
10.7.3.3;3.3 Das Software-Framework MCA;337
10.7.4;4 Ergebnisse und Ausblick;338
10.7.5;Literatur;339
11;Autorenverzeichnis;341
Architektur und Komponenten für ein heterogenes Team kooperierender, autonomer humanoider Roboter (S. 3-4)
Jutta Kiener, Sebastian Petters, Dirk Thomas, Martin Friedmann, Oskar von Stryk
Fachgebiet Simulation und Systemoptimierung, Fachbereich Informatik, Technische Universität Darmstadt,
D-64289 Darmstadt,
E-mail: {kiener,petters,dthomas,friedmann,stryk}@sim.tu-darmstadt.de
Zusammenfassung.
Für ein kooperierendes Team autonomer, humanoider Roboter, das derzeit aus insgesamt vier unterschiedlichen, ca. 37-68 cm großen Robotertypen besteht, werden eine plattformübergreifende, modulare Softwarearchitektur sowie plattformübergreifende und individuelle Module zur Sensordatenverarbeitung, Planung und BewegungsSteuerung entwickelt.Das entwickelte funktionale Framework ermöglicht die Kommunikation der Softwaremodule, d.h. Algorithmen für die unterschiedlichen Aufgaben innerhalb der Architektur untereinander, sowie die Kommunikation per WLAN zwischen verschiedenen Rechnern und Robotern. Als Anwendungsszenario für die Teamkooperation in einer dynamischen und strukturierten Umgebung wird Roboterfußball untersucht. Die entwickelten Methoden wurden im Juli 2005 von den Darmstadt Dribblers beim RoboCup in Osaka bei der Premiere von Teamspielen in der Humanoid Robot League eingesetzt. Daneben werden KooperationsSzenarien von heterogenen Robotersystemen bestehend aus vierbeinigen und humanoiden Robotern untersucht.
1 Einleitung
Motivation und Zielsetzung.
Kooperierende, autonome Mehrrobotersysteme werden derzeit für unterschiedliche Anwendungen, z.B. den kooperativen Transport einer Last durch mehrere fahrende oder fliegende Roboter, die Überwachung und Aufklärung eines Katastrophengebiets oder beim Roboterfußball in einer besonders dynamischen Umgebung untersucht.
Zur effektiven, flexiblen und robusten Entwicklung eines heterogenen Mehrroboterteams werden neben Modulen zur Lösung der grundlegenden Fragen der Sensordatenverarbeitung, Planung und Bewegungssteuerung Softwarearchitekturen sowie ein effizientes Framework benötigt. Anforderungen sind dabei Modularität für die Integration plattformunterschiedlicher oder konkurrierender Module zur Sensor-, insbesondere Kameradatenverarbeitung, Lokalisierung, Bewegungssteuerung, Verhaltenssteuerung sowie Flexibilität zur Anpassung an wechselnde Hardware wie unterschiedliche Prozessoren, Kamerasysteme oder Bewegungsapparate.
Ebenso unterstützt werden muss die Kommunikation zwischen einzelnen Modulen und verschiedenen Robotern und Rechnern in unterschiedlichen Phasen von Entwicklung und der Betrieb der Mehrrobotersysteme unter Berücksichtigung der besonderen Anforderungen laufender, zwei- und vierbeiniger Roboter, die u.a. in der besonderen Schwierigkeit und Vielfalt der Bewegungsmöglichkeiten sowie der Auge-Bein Koordination liegen.
Stand der Forschung.
In den letzten Jahren wurden wesentliche Fortschritte bei humanoiden Robotern erzielt. Dennoch enthält die robuste und schnelle Fortbewegung beim zweibeinigen Laufen sowie die autonome Navigation mit Auge-Bein-Koordination noch viele ungelöste Fragen. Die Herausforderungen beim Fußballspielen mit autonomen humanoiden Robotern liegen unter anderem in der Ausführung möglichst schneller, zielorientierter und situationsabhängiger Bewegungen unter Berücksichtigung von Bewegungsstabilität und Echtzeitanforderungen. Bisherige Ansätze für Roboterarchitekturen für zielorientiert kooperierende Mehrrobotersysteme erfüllen die vorstehend ausgeführten Anforderungen für die hier betrachteten Humanoid-Roboter nur bedingt.
Beispielsweise ist das für rollende Mehrrobotersysteme entwickelte auf CORBA basierende Miro für leistungsfähige Mehrprozessorsysteme optimiert. Auf stromsparenden, leistungsschwächeren Einoder Mehr-prozessorsystemen wie auf den hier betrachteten Humanoid-Robotern bringt die Verwendung von CORBA jedoch einen Effizienzverlust mit sich, da nur wenige Vorteile dieser Middleware ausgenutzt werden können.




