Home - Mehr zu diesem Thema

 

Die Intelligenz sitzt nicht nur im Kopf, sondern im System

 

Das Geheimnis der Intelligenz ist nicht nur im Hirn zu suchen - und sie lässt sich mit einem Computer allein nicht simulieren. Zu dieser ernüchternden Einsicht gelangte die Suche nach künstlicher Intelligenz Mitte der 80er Jahre. Die Forschung orientierte sich neu und schuf den Begriff der "Neuen künstlichen Intelligenz". Intelligenz hat demnach mit Verhalten zu tun, wer sie erforschen will braucht autonome Systeme, die in einer realen Interaktion mit der Aussenwelt stehen - wie zum Beispiel Roboter. Rolf Pfeifer, der Leiter des Labors für künstliche Intelligenz am Institut für Informatik der Universität Zürich hat kürzlich zusammen mit Christian Scheier mit dem Werk "Understanding Intelligence" -  eine Gesamtdarstellung der neueneren Forschung vorgelegt.

 

"Sorry, I can't do that, Dave", mit liebenswürdig weicher Stimme verweigert der Computer Hal dem letzten überlebenden Besatzungsmitglied Dave den Wiedereinstieg ins Raumschiff.  Die Szene stammt aus dem Film  "2001 - A Space Odyssey"  von Stanley Kubrick aus dem Jahr 1968. Hal - bereits im Namen eine deutliche Anspielung auf IBM  -  ist zur Legende geworden. Er verfügt über Intelligenz, entwickelt eigene Ziele, übernimmt das Kommando und führt die Mission schliesslich ins Verderben. "Hal" ist nicht sichtbar aber omnipräsent - im Film wird er durch eine rote Kontrolllampe symbolisiert. Der Regisseur Stanley Kubrick  fasst in diesem Film diffuse Ängste, Hoffnungen und Erwartungen gegenüber dem gerade eben anbrechenden Digitalzeitalters in eine grosse Metapher, die genau den Zeitgeist traf. Zu Spekulationen gab auch der Sieg des IBM Computer Deep Blue Anlass,  den dieser im Mai 1997 über den Schachweltmeister Gary Kasparov errang. Im Unterschied zum allmächtigen Hal  existierte dieser Computer allerdings wirklich - mindestens damals; IBM zeigte sich nach dem knappen Sieg über Kasparow an einer Fortführung des Projekts nicht interessiert. Die Science Fiction Schöpfung Hal aber auch die eindrückliche Leistung von Deep Blue,  prägen auch heute noch ein weit verbreitetes Verständnis von künstlicher Intelligenz. Es beruht auf der einfachen Gleichsetzung von Hirn und Computer und der naheliegenden Folgerung, dass es nur eines genügend grossen Computers bedarf um die Leistung des menschlichen Hirns zu erreichen oder gar zu übertreffen. Die Metapher vom 'Elektronenhirn' ist ein beredtes Zeugnis dieser Haltung. Intelligenz kann demnach auf bestimmte Algorithmen reduziert werden: "Schach ist genau die richtige Anwendung für die traditionelle Auffassung von künstlicher Intelligenz. Es ist ein formales Spiel. Jede Position und jeder Zug im Spiel lassen sich mit formalen Regeln eindeutig beschreiben. Mit der Umwelt findet keine oder nur eine triviale Interaktion statt wie etwa das Verschieben von Figuren. Fairerweise muss hier beigefügt werden, dass das Ziel von Deep Blue nicht die Erzeugung von Künstlicher Intelligenz war, sondern den stärksten menschlichen Gegner im Schachspiel zu besiegen. Dieses Ziel hat Deep Blue auch erreicht und damit einen lang gehegten Traum verwirklicht.

 

Die Vorstellung, mit diesem neuen Recheninstrument die menschliche Intelligenz nachbilden oder gar übertreffen zu können kam bereits in der Frühzeit der Computerentwicklung. Grosse Hoffnungen ruhten auf den Expertensystemen, die in den 70er Jahren entwickelt wurden. Sie sollten in der Lage sein, komplexe Fragestellungen in einem Fachgebiet zu beantworten. Ein Beispiel dafür war etwa das Expertensystem, das einer US Fluglinie half, aufgrund einer ständig aktualisierten Marktanalyse die optimale Menge an Discount-Tickets zu bestimmen. Die Hoffnungen erfüllten sich nicht, neugegründete Firmen, die solche Expertensysteme anboten, verschwanden wieder vom Markt.

Bis Mitte der 80er Jahre dachten Forscher, dass sich künstliche Intelligenz mit viel Computerleistung erzeugen lassen könnte. Interaktion mit der Umwelt war kein Thema. Sie liesse sich allenfalls am Schluss mit dem einfachen Anschliessen von Sensoren und Motoren lösen. Man baute zwar auch Roboter, aber sie enttäuschten die hoch gesteckten Erwartungen. Dies hing vor allem mit dem Problem der Wahrnehmung zusammen, wie ein Beispiel zeigt: Das Auge nimmt zunächst nichts anderes als eine eine immense Menge von Farb- und Helligkeitswerten wahr, die sich mit einer kaum vorstellbaren Geschwindigkeit ändern. Die Welt hinter den Farbwerten zu erkennen ist eine schwierig zu bewältigende Aufgabe. Jeder Computer war damit überfordert und es dauerte Stunden bis sich ein Roboter sich auch nur einige Meter weit bewegen konnte. Dafür waren nicht nur langsame Prozessoren verantwortlich, schuld daran war vor allem eine zentralistische Rechner-Architektur, die tief in unserem Denken verankert ist und letztlich mit unserem Weltbild zusammenhängt: Sie geht auf die geläufige Vorstellung zurück, die sich mit dem Trias "Wahrnehmen - Denken - Handeln " beschreiben lässt. Nach dieser Vorstellung ist das Hirn die zentrale Instanz, die alle Informationen sammelt, auswertet und adäquate Aktionen veranlasst; ein naheliegendes Modell, das sich aber als falsch erwies.

Intelligentes Verhalten entsteht möglicherweise anders, als man sich dies lange vorsgestellt hatte. Diese dämmerte einigen hellen Köpfen Mitte der 80er Jahre. Rodney Brooks vom Massachusetts Institute of Technology (MIT) formuliert den neuen Ansatz so: "Intelligenz ist nicht das, was im Kopf ist. Intelligenz entsteht in der Interaktion mit der Welt. Kopf und Körper sind eine Einheit und zusammen mit der Welt bilden sie ein komplexes System". Die sequentielle Verarbeitung von Daten genügt in einem solchen System nicht mehr. Deshalb wandte man sich neuronalen Netzen zu. Sie haben die Fähigkeit, Daten parallel zu verarbeiten und vermögen ungenaues und fehlerhaftes Datenmaterial - und es gibt in der realen Welt nur solches - zu generalisieren. Gleichzeitig besitzen sie die Robustheit und Redundanz, die für autonome Systeme gefordert war.


Diese Einsichten führten zu vollkommen anderen Versuchsanordnungen. Es ging jetzt nicht mehr darum, möglichst grosse und leistungsstarke Computer zu konstruieren. Gefragt waren vielmehr einfache und robuste autonome Systeme. Schon die  einfache Versuchsanordnung der "Swiss Robots", die unter anderem am Zürcher Labor für künstliche Intelligenz entwickelt wurde, ermöglicht überraschende Einsichten: In einem durch Seitenbanden begrenzten Feld von zwei mal zwei Metern befinden sich ungeordnet kleinere Styroporblöcke. Drei einfache Roboterfahrzeuge - sogenannte "Braitenberg Vehicles" fahren nun durch diese Versuchsanordnung. Dank Sensoren am Fahrzeug sind sie in der Lage, allfälligen Hindernissen auszuweichen. An der Stirnseite des Fahrzeugs wurden in dieser Versuchsanordnung keine Sensoren angebracht. Die Fahrzeuge weichen zwar schräg vor ihnen liegenden Blöcken aus, können aber Hindernisse direkt vor ihnen nicht wahrnehmen und stossen sie vor sich her. Lässt man die drei "Braitenberg Vehicles" fahren, so bietet sich nach rund einer Viertelstunde immer dasselbe Bild: Die Styroporblöcke liegen auf einigen wenigen Haufen. Der Weg dazwischen ist frei. Was ist passiert? - Haben die Roboter "aufgeräumt"? - Nein, sie sind nur Hindernissen ausgewichen. Das "Aufräumen" ist von selbst entstanden, ohne dass die Fahrzeuge mit einem entsprechenden Programm ausgestattet worden wären. Dieses Phänomen heisst in der Fachsprache Emergenz - oder einfach Selbstorganisation. Es ist einer der zentralen Begriffe in dieser Forschung, die stark von biologischen Erkenntnissen beeinflusst ist und zunehmend interdisziplinär arbeitet. Komplexität - dies eine Folgerung aus diesem Modell - liegt nicht notwendigerweise im Programm begründet und muss dort auch nicht notwendigerweise repräsentiert sein. Dass nicht das Programm, sondern das System für das Endresultat verantwortlich ist lässt sich einfach aufzeigen: Verändert man die Lage der Sensoren so passiert nichts Ähnliches mehr - die Roboter räumen nicht mehr auf!

 

Emergenz ist für Pfeifer eines der Prinzipien der künstlichen Intelligenz - weitere solche Prinzipien sind Embodiment, Redundanz, Subsumption und das Streben nach extremer Einfachheit ("Cheap Design"). Mit Embodiment wird das Arbeiten mit körperhaften Systemen, wie sie eben Roboter darstellen, bezeichnet. Redundanz bedeutet nicht einfach die Verdoppelung der Systeme - wie etwa im Flugzeugcockpit - sondern die partielle Überschneidung wie sie etwa beim Menschen durch Hören, Sehen und Fühlen geschieht. "Der Mensch verlässt sich selten auf nur eine Methode allein, wir kennen verschiedene Wege um zu einem Ziel zu gelangen", sagt etwa Marvin Minsky, vom Massachusetts Institute of Technology (MIT). Zur Intelligenz gehört auch das Prinzip der Subsumption: Damit ist das ständige Ablaufen von parallelen Prozessen gemeint, die nur lose und nicht hierarchisch miteinander verbunden sind. Das Prinzip des Cheap Design bedeutet, dass immer möglichst einfache und deshalb billige Lösungen gesucht werden. Die Natur geht sparsam mit Ressourcen um und nutzt bestehende Eigenschaften eines Systems optimal aus.

 

Komplexe Fragestellungen, wie jene nach dem Ursprung der Intelligenz, müssen interdisziplinär gelöst werden. Ihre Antworten zielen dementsprechend über ein einzelnes Wissenschaftsgebiet hinaus und können sich zu eigentlichen grossen Ideen - den "powerful ideas" - entwickeln. Das gilt auch für das Prinzip der Selbstorganisation: Es ist kaum revolutionär zu sagen, dass es in einem Fischschwarm oder einem Ameisenhaufen kein zentralisiertes Organisationsprinzip gibt, das irgendwo als Programm oder Bauplan abgelegt ist. Wenn dieselbe Aussage aber auf soziale Systeme und damit menschliche Gesellschaften angewendet wird, entsteht daraus eine höchst interessante Hypothese, die unser karthesianisches Denken in Frage stellt. 

 

Robotik wird immer mehr in den Alltag integriert, davon ist Rolf Pfeifer überzeugt. "In naher Zukunft werden viele alltägliche Geräte mit Sensoren ausgestattet sein und damit eine sehr viel 'menschlichere' Interaktion erlauben". Der Staubsauger-Roboter ist bereits Realität, bald werden weitere bisher banale Geräte wie Kühlschrank, Stereo-Anlage oder Kochherd folgen.  Konsequenzen haben diese Erkenntnise auch für die Pädagogik: Pfeifer begrüsst zwar die stärkere Integration von Computer und Internet in den Schulunterricht, sieht aber auch gewisse Grenzen:"Der starke Fokus auf das Digitale, auf das Programm führt zu einer Einschränkung des Denkens und der Kreativität". Die Auseinandersetzung mit den neuen Informationstechnologien muss deshalb Interaktionen mit der realen Welt miteinschliessen." Robotik ist für Pfeifer ein ideales Lernwerkzeug.

 

Wenig gibt der Zürcher Forscher den Thesen des Roboterspezialisten Hans Moravec. Der Leiter des Mobile Robot Laboratory an der renommierten Carnegie Mellon University von Pittsburgh prophezeit seit Jahren eine Machtübernahme durch die Roboter, so auch in seinem 1998 erschienen Buch "Robot: Mere Machine to Transcendent Mind". Die Ideen von Moravec beruhen auf der Annahme, dass die Entwicklung von Rechen- und Speicherkapazität in absehbarer Zukunft die Konstruktion von Maschinen erlauben wird, die dem menschlichen Gehirn ebenbürtig sind. Spekulativ und auf Medienwirksamkeit hin gestaltet erachtet Pfeifer auch ähnliche Ideen des Informatikers Ray Kurzweil, wie sie im 1999 erschienenen Buch "The Age of Spiritual Machines" beschrieben werden. Roboter, so Pfeifer,  müssten nicht nur alle komplexen Interaktionen beherrschen, sondern zudem die Fähkigkeit zur Selbstreproduktion besitzen. "Als Wissenschafter würde ich nicht sagen, so etwas kann nie passieren. Das wissen wir nämlich nicht. Aber ich halte es für reichlich naiv", führt Pfeifer aus.

 

KASTEN 1

 

Mit künstlicher Intelligenz auf der Spur der Wüstenameise

Die Beschäftigung mit künstlicher Intelligenz mag gelegentlich in die Nähe von Science Fiction führen und zu weit reichenden Spekulationen Anlass geben, der Informatiker Rolf Pfeifer sieht Sinn und Zweck dieser Wissenschaft nüchterner. Sie verfolgt für ihn drei Ziele: Es geht erstens darum zu verstehen, was natürliche Intelligenz ist. Zweites Ziel ist es, selber intelligente Artefakte, also Maschinen zu bauen um damit drittens schliesslich Prinzipien des intelligenten Verhaltens eruieren zu können. Die Wissenschafter bedienen sich dabei einer synthetischen Methodik, die mit dem einfachen Satz "Verstehen durch Nach-Erfinden" umschrieben werden könnte.

 

Ein Beispiel für eine solche "Nach-Erfindung" ist das Projekt "Sahabot", das in Zusammenarbeit mit dem Institut für Zoologie an der Uni Zürich betreut wird. Rüdiger Wehner, Leiter dieses Instituts, erforscht seit langem Hirn und Verhalten der Wüstenameise Cataglyphis. Dieses erstaunliche, nur wenig Millimeter grosse Insekt erweist sich auf seiner Nahrungssuche als ausserordentlich agil und findet nach seinen ausgedehnten Exkursionen über den glühend heissen Wüstenboden immer wieder geradlinig den Weg zurück zu seiner Höhle.  Die Ameise muss also über eine erstaunliche Navigationsfähigkeit verfügen. Durch eigene, neuro- und verhaltensbiologische Forschungen haben die Zoologen die Mechanismen, die hinter dieser Fähigkeit liegen, Stück um Stück aufgeschlüsselt. So konnten sie beweisen, dass sich die Wüstenameise am Muster des polarisierten Himmelslichts, das für den Menschen unsichtbar ist, orientiert und aufklären, wo im Hirn der Ameise der entsprechende Kompass liegt. Gleichzeitig kann diese Ameise  sich an die Umrisse ihrer engsten Umgebung erinnern. Weitere Versuche zeigten, dass die Ameise bei jedem Richtungswechsel nicht nur den Winkel, sondern auch die Anzahl Schritte speichert, die sie in eine bestimmte Richtung zurücklegt.

 

In dreijähriger Arbeit haben die Biologen zusammen mit den Informatikern vom Labor für künstliche Intelligenz einen Roboter entwickelt der die Leistungen der Wüstenameise nachahmt. Jahr für Jahr werden die Hypothesen der Biologen in der tunesischen Sahara unter realistischen Bedingungen überprüft.  Das Resultat ist erstaunlich: Der Roboter "Sahabot" bewegt sich zuerst ziellos und im Zickzack durch die Wüste, fährt aber zielgenau und geradlinig nach Hause, sobald er Futter gefunden hat.

 

Äusserlich hat dieser Roboter nichts mehr mit einer Ameise gemein: Er präsentiert sich als rund 30 Zentimeter langes Gefährt, das sich mit walzenartigen Rädern fortbewegt und mehr an einen kleinen Panzer als an ein Insekt erinnert. Sahabot analysiert die Umgebung mittels einer 360 Grad Kamera und besitzt Sensoren, welche die Muster des polarisierten Himmelslichts messen können. Die Auswertung der Daten wiederum besorgt ein autonomes, neuronales Netzwerk, das als Teil des Roboters dem Hirn der Ameisen nachempfunden ist.

Der Zoologe Rüdiger Wehner ist vom intellektuellen Ping-Pong Spiel mit den Informatikern begeistert."Ich bin überzeugt, dass sich komplexe Probleme der Biologie - und dazu zählt bereits die Analyse des nur 0,1 Milligramm schweren Ameisengehirns - in Zukunft durch interdisziplinäre Forschung und stärkerem Theoriebezug werden lösen lassen." Wehner arbeitet daher nicht nur mit den Informatikern der Universität Zürich sondern auch mit dem Institut für theoretische Biologie der Berliner Humboldt Universität zusammen, an dessen Gründung er vor fünf Jahren mitbeteiligt war.

 

KASTEN 2

 

Das Buch "Understanding Intelligence"

 

Rolf Pfeifer und Christian Scheier haben nach über vierjähriger Vorbereitungsarbeit kürzlich das Buch "Understanding Intelligence" publiziert. Dass der gewichtige, fast 700 Seiten zählende Band, im Verlag MIT Press erschienen ist, zeigt dass die Arbeiten des Zürcher AI Labors auch am renommierten Masschussetts Institute of Technoloy ernst genommen werden."Understanding Intelligence"  fasst die wesentlichen Erkenntnisse zusammen und beschreibt damit gewissermassen den "State of the Art" der jüngeren Forschung. Das Werk wendet sich nicht nur an Informatiker sondern auch an die wachsende Schar der Wissenschafter aus anderen Disziplinen wie etwa der Linguistik, Biologie, Psychologie oder Soziologie. Hauptteil des Werks ist die Beschreibung von intelligenten Prinzipien und Systemen. Die Autoren verzichten auf die detaillierte Wiedergabe von Formeln und Computerprogrammen und erschliessen ihr Werk damit auch einem interessierten Publikum ausserhalb der Wissenschaft. Nur ansatzweise diskutiert sind die die philosophischen und gesellschaftlichen Auswirkungen der Erkenntnisse, aber eine angemessene Darstellung und Diskussion darüber würde wohl einen weiteren Band füllen.

 

Rolf Pfeifer, Christian Scheier: Understanding Intelligence. MIT Press (Cambridge, Massachusetts) 1999. 697 Seiten.

http://www.ifi.unizh.ch/staff/pfeifer/

 

Dominik Landwehr
Der Autor leitet beim Migros-Kulturprozent den Bereich "Science & Future".

 

Home - Mehr zu diesem Thema