ETH Life - wissen was laeuft

Die tägliche Web-Zeitung der ETH Zürich - in English

ETH Life - wissen was laeuft ETH Life - wissen was laeuft
ETH Life - wissen was laeuft
Home

ETH - Eidgenoessische Technische Hochschule Zuerich - Swiss Federal Institute of Technology Zurich
Rubrik: Tagesberichte
Print-Version Drucken
Publiziert: 09.10.2003 06:00

Umwelt verändert die Wahrnehmung eines Roboters
Lernen mit Robotern

Dass das Verhalten die Wahrnehmung beeinflusst, scheint intuitiv klar zu sein. Wie sich dieses Zusammenspiel aber konkret gestaltet, ist wesentlich schwieriger zu zeigen. Forscher des Instituts für Neuroinformatik von ETH und Uni Zürich konnten jetzt aber mit Hilfe simulierter und realer Roboter ein Modell entwickeln, wie sich Wahrnehmung und Verhalten gegenseitig beim Lernen beeinflussen.

Von Christoph Meier

Lernen – Lernen ist, wenn man aus einzelnen sensorischen Begebenheiten eine Einheit bilden kann. Lernen ist aber auch, wenn es gelingt, eine Verbindung zwischen Wahrnehmungen und Handlungen zu knüpfen, ohne die einzelnen Wahrnehmungen zu einem Ganzen zusammenzufassen. Natürlich weiss jeder aus eigener Erfahrung, dass auch beide Lernformen zusammentreffen können.

Doch wie geschieht das? Von der Wissenschaft gibt es wenig Hilfe, da beispielsweise bei Studien an Tieren nicht genügend Neuronen gemessen werden könnten, um eine schlüssige Antwort auf die Frage zu bekommen. So geht es den meisten Forschenden wie den Weisen bei Konfuzius, der sagte: „Der normale Mensch staunt über ungewöhnliche Dinge; der weise Mann staunt über das Alltägliche.“ Nicht nur Staunen kann Paul Verschure. Er und zwei weitere Forschende des Instituts für Neuroinformatik der ETH und Uni Zürich konnten mit Hilfe simulierter und realer Roboter zeigen, dass die Wahrnehmung und das Verhalten via die Umwelt zu einen effektiven Lernen führen. Die Arbeit wird diese Woche im Wissenschaftsmagazin „Nature“ publiziert (1).

Dreistufige Kontrolle

Für die Untersuchung statteten die Forscher sowohl in Computersimulationen als auch im Labor Roboter mit ganz einfachen Grundreaktionen aus. Die Roboter versuchten einerseits möglichst viele erleuchtete Regionen aufzusuchen, die auf einer rund ein Quadratmetergrossen Fläche verteilt waren. Andererseits sollten sie aber auch Kollisionen mit der Bande vermeiden, welche die Versuchsfläche begrenzte. Kontrolliert wurde die Roboter von einem neuralen Modell, DAC genannt für „Distributed adaptive control“. Dieses wird in der künstlichen Intelligenzforschung standardmässig eingesetzt.

Die beschriebenen Grundreaktionen werden bei diesem Modell auf der untersten Stufe reguliert. Auf einer nächst höheren Kontrollebene ändert sich das rein reaktive Verhalten, indem der Roboter durch Verstärkungen zunehmend eine interne Repräsentation für die folgenden Reaktionen benutzt. So entstehen konditionierte Antworten. Die höchste, als kontextuell bezeichnete Kontrollstufe besteht aus Kurz- und Langzeitgedächtnis, welche die Repräsentationen, die zu konditionierten Antworten führen, verarbeiten.

Die Hypothese der Forscher war nun, dass die Leistung des Roboters durch diese höchste Stufe verbessert wird, indem weniger Kollisionen vorkommen und mehr leuchtende Ziele erreicht werden. Computersimulationen bestätigten die Vermutung. Die virtuellen Roboter mit der kontextuellen Kontrolle wiesen im Vergleich mit solchen, denen diese Regulierungsstufe fehlte, ein signifikant besseres Verhältnis zwischen Zielerreichen und Hindernisvermeiden auf. Das äusserte sich auch darin, dass die Diskrepanz zwischen erwarteten Stimuli und wirklich vorhandenen kleiner wurde.


weitermehr

Herr und Roboter: Paul Verschure mit einem lernfähigen Roboter. Im Hintergrund das Versuchfeld mit der gelben Bande. gross

Da aber keine Rückkopplung der kontextuellen zur darunter liegenden Stufe bestand, musste dieser Unterschied in einem unterschiedlichen Verhalten liegen, das durch die verschiedenen Kontrollen hervorgerufen wurde. Das zeigte sich auch bei den Versuchen mit realen, rund 10 Zentimeter grossen Robotern. Auch diese verarbeiteten mit einer kontextuellen Kontrolle ihre sensorischen Inputs so, dass sie über das Verhalten das erneute Sammeln solcher Inputs strukturierten. Beim Roboter spielte sich also ein Prozess ab, bei dem einerseits, wie erwartet, die neuronale Organisation das Verhalten beeinflusste, andererseits aber auch das Verhalten die neuronale Organisation.

Lernen heisst sich einschränken

Doch was heisst das nun? „Wir können erkennen, dass die Roboter nach einem Lernprozess ihr Verhalten dahingehend verändern, dass sie vermehrt nur noch relevante Inputs empfangen“, erläutert Paul Verschure. Das sei vergleichbar mit der Situation bei einem Interview, bei dem die Gesprächspartner gelernt haben, sich so zu verhalten, dass sie ihre Wahrnehmungen auf das Gespräch fokussieren, obwohl noch viel mehr Reize in der Umgebung sind. Zugleich zeigt die Studie, dass Lernen nicht eine Frage von „Nature“ oder „Nurture“ ist, sondern eine von „Nature“ und „Nurture“.

Verschure ist bewusst, dass seine Ergebnisse nicht einfach auf biologische Systeme wie das menschliche Gehirn übertragen werden können, da diese viel komplexer seien. Die Komplexität erfordere aber eine Modellierung, um überhaupt eine Idee zu erhalten, wie Lernen funktionieren könnte. Roboter haben dabei den grossen Vorteil, dass sich ihr Verhalten und ihre Wahrnehmung vollständig quantifizieren lassen. Dazu kommt, dass das Robotermodell ein ganzes System bildet und sich nicht wie beispielsweise molekulare Untersuchungen an biologischen Systemen auf einzelne Komponenten beschränken muss. Hat man aber einmal ein gutes Robotermodell gefunden, gibt es wieder die Möglichkeit, sie in biologischen Systemen zu überprüfen.

Künstliche Motten und Ratten

Trotz der Erkenntnis, dass das Einschränken wichtig sein kann für ein effektives Lernen, will Verschure sein Modell natürlich ausbauen. Er möchte das DAC weiter entwickeln, dass es mit der Zeit auch das Bilden von Regeln beim Lernen miteinbezieht. Doch das Regeln-Lernen ist nur ein Teil dessen, was der Forscher mit dem System vorhat. Es soll auch eingesetzt werden, um eine künstliche Ratte und eine künstliche Motte zu steuern.

Auch bei ADA, dem von der Expo02 her bekannten intelligenten Raum, wird DAC als Kontrollsystem weiterentwickelt (2). Denn die Landesausstellung war für Verschure nur eine erste Evaluation von ADA.


Fussnoten:
(1) Paul F. M. J. Verschure, Thomas Voegtlin & Rodney J. Douglas: “Environmentally mediated synergy between perception and behaviour in mobile robots”, Nature , Vol 425
(2) Ada - der intelligente Raum: www.ada-ausstellung.ch/



Sie können zu diesem Artikel ein Feedback schreiben oder die bisherigen lesen.




!!! Dieses Dokument stammt aus dem ETH Web-Archiv und wird nicht mehr gepflegt !!!
!!! This document is stored in the ETH Web archive and is no longer maintained !!!