Künstliche Intelligenz: ein weites Feld mit verschwimmenden Grenzen(13)

Neuronale Netze lernen rasch dazu

16.12.1988

Herkömmliche Computer mit ihren Rechen-, Speicher- sowie Ein- und Ausgabe-Werken unterscheiden sich grundlegend von biologischen Gehirnen; und dementsprechend arbeiten sie auch auf völlig andere, nämlich programmgesteuert-sequentielle Weise. Doch schließt man einzelne Rechen-Elemente nach Art eines Nervensystems zu einem sogenannten neuronalen Netz zusammen, so ähnelt das entstehende Gebilde schon eher dem sich "intelligent" dünkenden Neuronen-Gewirr knapp unter unserem Scheitel. Und dementsprechend verblüffend und überraschungsträchtig arbeitet so ein Netz dann auch, wie Versuche gezeigt haben.

Beispielsweise haben Wissenschaftler eines Forschungslabors in Los Alamos im US-Bundesstaat New Mexico auf einem Supercomputer neuronale Netze simuliert und auf ihnen dabei einen Lern-Algorithmus nach dem Schema der Rückwärts-Verkettung ("back propagation") erprobt. Wobei sie zur eigenen Verblüffung fanden, daß ihr Netz sowohl Probleme aus dem Bereich der Genetik als auch Aufgaben aus der Signalverarbeitung vielfach "besser" löste, als auf herkömmlichem Wege möglich ist.

Im Bereich der Genetik würden Forscher gern wissen, ob ein gegebener, relativ kurzer Strang der Erbsubstanz DNA (Desoxyribonukleinsäure) die Produktion bestimmter Proteine bewirken kann - oder nicht. Dabei wissen sie schon, daß die DNA-Bausteine beziehungsweise "Basen" Adenin, Cytosin, Guanin und Thymin, die man in der Regel mit A, C, G und T abkürzt, einfach durch die Reihenfolge ihrer Anordnung auf der DNA-Kette bestimmen, ob und was für Proteine - das sind die Eiweiß-Bausteine des lebenden Organismus - in der jeweiligen Zelle aus einzelnen Aminosäuren erzeugt werden sollen. Doch leider können sie bisher nur für Ketten mit mehr als 200 Basen oder, genauer, Paaren dieser Basen mit Hilfe statistischer Techniken sagen, was für biologische Wirksamkeit die fragliche Doppel-Kette von Basen-Paaren wohl entfalten mag. Bei kürzeren Ketten tippen sie dagegen nur zufällig richtig und damit oft daneben.

Da die Proteinfabriken innerhalb der Zellen, also die sogenannten Ribosomen, nun aber vermutlich nur Ketten von etwa 30 AT- sowie CG-Paaren als eine Art "Blaupause" benutzen, nach deren Vorgaben sie dann komplizierte Protein-Strukturen als Ketten von Aminosäuren synthetisieren, würde die Wissenschaft gern genau wissen, was derart kurze DNA-Doppelstränge denn eigentlich für einen Informationsgehalt in sich tragen. Und auf der Suche nach der Antwort half nun den vernetzten Zellen des Gehirns, die ja selber nach DNA-Bauanleitung hergestellt sind, prompt am besten das simulierte künstliche Netz neuronenähnlicher Rechen-Zellen.

Die Trefferquote stieg um mehr als die Hälfte

Alan Lapedes und Robert Farber trainierten in Los Alamos ein simuliertes Netz in einer Lern-Up-Phase zunächst dadurch, daß sie ihm an den Eingängen je 900 DNA-Segmente zu je 30 Basen-Paaren vorlegten. Man wußte, daß die Stränge biologisch aktiv sind, während die anderen - nach allem Wissen - keine Wirkung zeigen. Und anschließend ließen sie das Netz neue, unbekannte Sequenzen beurteilen. Statt nur rund 50 Prozent an rein zufälliger Trefferquote erzielte das Netz 80. In acht von zehn Fällen "sah" es dem unbekannten DNA-Strang also korrekt an, ob er aktiv oder inaktiv sein würde.

Ist schon dieses Ergebnis bemerkenswert, so läßt erst recht Lapedes Bemerkung aufhorchen, das Netz sei für ihn zwar zur Zeit nur eine Black-Box, die nach außen hin nur simple Ja-Nein-Aussagen mache, doch intern scheine es bei seiner Arbeit dennoch grundlegende genetische Gesetzmäßigkeiten "erlernt" zu haben; und zwar sogar solche, die den Menschen möglicherweise noch unbekannt sind. Dieses "entdeckt" kann sich natürlich nur darauf beziehen, daß das Netz im Zuge der Lernschritte eine ganz spezielle interne Gestalt und mithin eine ganz spezielle interne "Arbeits"-Weise angenommen haben muß, die letztlich beide ein elektronisch-informatorischer Ausdruck jener bislang immer noch verborgenen, aber ganz offensichtlich zu richtigen Antworten führenden genetischen Gesetze sind. Und die diese Gesetze etwa so widerspiegeln, wie die Gestalt eines Hechts die Gesetze der Strömungsmechanik in Form konkreter biologischer Strukturen ausdrückt. Die Evolution "gestaltete" die Hechte ja exakt so, wie die Strömungsgesetze es von einer Struktur fordern, die flott durch einen Teich gleiten soll. Womit die Evolution beziehungsweise der Hecht indirekt wiederum die Existenz eben jener allgemeingültigen Gesetze dokumentiert.

Antiautoritäres Verhalten bei neuronalen Netzen

Das simulierte Netz Lapedes und Farbers hat sich in Sachen Genetik aber nicht nur als gelehriger Schüler erwiesen, es hat sogar seine Lehrer gewissermaßen ein wenig übertroffen. Denn es fand heraus, daß eine DNA-Sequenz, von der es anfangs gesagt bekommen hatte, sie "codiere" nicht die Synthese eines Proteins, dies in der Tat aber doch tue.

Das bedeutet: Der Lernerfolg des Netzes war während der Trainingsphase derart intensiv, daß das Häufchen elektronischer "Neuronen", das da ja letztlich bloß simuliert wurde, ganz einem selbstsicheren Klassenprimus ähnlich selbst erkennen konnte: Wenn die 1800 Lehr-Beispiele im großen und ganzen stimmten - dann muß jedenfalls dieses eine Exempel meines Lehrers ein falsches sein!

Das Netz hat sich also ähnlich verhalten wie ein Dreijähriger, dem man Skizzen von Pferden und Kühen zeigt und der plötzlich laut plärrend protestiert: Das jüngste Bild einer angeblichen Kuh zeige doch gar keine, sondern in Wahrheit ein Pferd. Neuronale Netze sind also zumindest bei diesen genetischen Experimenten zu Ansätzen eines fast schon antiautoritären Verhaltens in der Lage und weigern sich daher, den ihnen vorgesetzten Lehrstoff kritiklos zu schlucken. Doch fast noch größere Leistungen bot das simulierte System in Los Alamos, als es später um den Aufgabenbereich "Signalverarbeitung" ging.

Netz findet verborgene Gesetzmäßigkeiten

Hier gab der Physiker Lapedes dem Netz eine derart komplizierte Folge verschiedener Zahlen ein, daß man sie eigentlich nur für eine Zufalls-Sequenz halten konnte. Dennoch sollte das Netz sagen, welche Zahl nun "logischerweise" als nächste kommen müßte - und tatsächlich erschien in der Ausgabe mit großer Genauigkeit der richtige Wert. Was bedeutet, daß die experimentelle Neuronenstruktur aus Transistoren und Programm- befehlen die gut verborgenen Gesetzmäßigkeiten hinter der ersten und anderen Zahlenreihen fand und denn "um Größenordnungen besser", als man hier von Experimenten mit herkömmlichen Techniken her gewohnt ist, antwortete.

Die Frage, wie das Netz zu diesen verblüffenden Leistungen fähig war, beantworten Lapedes und Farber mit der Vermutung, es habe wohl zu den Eingabe-Zahlen passend eine stetige Funktion entwickelt und mit deren Hilfe dann eben den nächsten Punkt der zugehörigen stetigen Kurve bestimmt. Und es dürfte dabei, indem es aber nur einfach die "Gewichte" seiner internen Verbindungen modifiziert hat, ähnlich vorgegangen sein, wie man es sonst von den sogenannten Fourier-Transformationen her kennt, von Verfahren mithin, bei denen man stetige Kurven einfach durch Überlagern von Sinus-Wellen unterschiedlicher Frequenz, Amplitude und Phase erzeugen kann.

Ein ähnlicher Algorithmus zum Simulieren eines neuronalen Netzes auf einem Rechner herkömmlicher Art ist Nettalk, eine Entwicklung von Terrence Sejnowski von der John-Hopkins-Universität in Baltimore. Doch während der anfangs nur zu Experimenten diente, bei denen ein Computer lernt, englisch geschriebenen Text korrekt vorzulesen, hat man inzwischen auch ein biophysikalisch-biochemisches Problem damit behandelt: Nettalk sollte herausfinden, welche (zweidimensionale) Schattenriß-Gestalten eigentlich Proteine haben, wobei dem Rechner nur bekannt ist, welche Aminosäuren hier in welcher Reihenfolge zum Protein verknüpft sind.

Auch diese Aufgabe, berichtet Sejnowski, soll das simulierte Netz "besser" als irgendein anderes System gelöst haben. Doch leider haben weitere Versuche inzwischen bestätigt, daß man nicht auch schon erwarten kann, das Netz werde vielleicht gar die volle räumliche 3D-Struktur der jeweiligen Aminosäuren-Kette prognostizieren können, also die Gesamtstruktur des resultierenden Proteins, die für dessen endgültige biologische Wirkung ausschlaggebend ist.

Zusammen mit Experten aus der Rüstungsindustrie wurde Nettalk inzwischen auch an Sonar-Signalen getestet, die U-Booten zur Ortung von Gegnern dienen. Hierbei soll das Netz allein anhand der Sonar-Signalmuster klarer als andere Techniken zwischen unterschiedlichen Objekten unterscheiden können - und sogar erfahrenen Obermaaten um einiges voraus sein.

Experimente wie jene in Los Alamos und Baltimore zeigen immer deutlicher, daß neuronale Netze selbst solche Muster noch gut erkennen beziehungsweise unterscheiden können, die sich infolge zu großer Komplexität oder auch zu subtiler Feingestalt der menschlichen Diskriminationsfähigkeit entziehen.

Der Roboter lernt aus seinen Fehlern

Neuronale Netze können auch im Bereich der Roboter-Technik sinnvoll genutzt werden, zeigen Arbeiten mit einem lernenden System, das in Brookline im US-Bundesstaat Massachusetts entwickelt wird. Michael Kuperstein von der kleinen Firma Neurogen führt einen Roboter vor, der von einem neuronalen Netz gesteuert wird und der einen hölzernen Zylinder, den man ihm entgegenhält, mit seinem Arm samt angeschlossenem Greifer sicher fassen kann.

Dieser Roboter gewinnt mit Hilfe zweier Videokameras Informationen über seine Umgebung und lernt mit Hilfe seines neuronalen Netzes, die Bewegungen seines Armes und die Bild-Signale seiner Kameras zu koordinieren.

Bei. diesem Lernen bewirkt die Steuerungs-Elektronik zunächst, daß der Greifarm samt Zylinder der Reihe nach viele unterschiedliche Stellen im Raum rund um den Robby anfährt, und ferner, daß die Kameras im gleichen Augenblick aufzeichnen wo der Zylinder gerade ist. Somit entsteht für jede dieser Positionen ein ganz spezifisches Muster von Bild-Signalen, das den Blick der Kameras auf den Zylinder repräsentiert, sowie ein Satz Positions-Informationen, die die zugehörigen Winkel-Stellungen der einzelnen Gelenke des Roboters festhalten.

Die Lernphase dieses Systems kann mehrere Stunden dauern und viele Tausend Versuche umfassen, ein dem Roboter dargebotenes Objekt korrekt zu ergreifen. Doch wenn sie abgeschlossen ist, beherrscht das System seine Aufgabe mit wachsender Perfektion: Der Robby greift dann recht zielstrebig nach dem Dargebotenen und lernt aus gelegentlichen Mißgriffen.

Da man auf abstraktem Niveau einen ausgefüllten Kreditantrag ebensogut als Muster auffassen kann wie die Sonar-Reflexionen eines unbekannten U-Boots irgendwo im Atlantik, kann man neuronale Netze in dem Geldgewerbe einsetzen. So erprobt beispielsweise die Firma Textron in den USA ein solches Netz bei der Bewertung von Kreditersuchen ihrer Kunden, während wieder ein anderes Unternehmen mit diesen Netzen handgeschriebene Zahlen auf Schecks entziffern möchte.

Neuronen setzen auf die besten Kurse

Betrachtet man die Art und Weise, wie Börsenhändler versuchen, aus den verschiedenen Kurs-Kurven die künftigen Chancen der einzelnen Werte vorherzusagen - so sieht man unschwer, daß auch hier im Grunde nur wieder Muster bewertet werden. Daher leuchtet wohl ein, warum amerikanische Forscher versuchen, neuronale Netze mit gleichen Aufgaben zu betrauen und ihnen im Experiment die Aufgabe zuweisen, historische Kurs-Muster nach entsprechendem Training mit aktuellen zu vergleichen und dann vorherzusagen, bei welchen Werten die besten Kurse zu erwarten sind.

An Versuchen, neuronale Netze beim Bewerten von Kreditanträgen einzusetzen, sieht man gleichfalls wieder die typische Vorgehensweise. Denn auch hier werden dem Netz in einer Lernphase Tausende von früheren Kreditanträgen vorgelegt und ihm gleichzeitig auch Informationen über das Schicksal der jeweiligen Verträge gegeben; ob also die Raten korrekt zurückgezahlt wurden, oder ob es Schwierigkeiten gegeben hat. Und erst später, in seiner Arbeits-Phase - die aber gleichfalls auch noch einen Lerneffekt haben kann -, wird das Netz dann neue, unbekannte Kredit-Anträge zu bewerten versuchen.

Geringes Einkommen = hohe Kreditwürdigkeit

Verblüffende Erfahrungen mit dieser Art von Netz-Nutzung hat Murray Smith gemacht, der Gründer des Unternehmens Adaptive Decision Systems in Andover, Massachusetts. Er nämlich hat beobachtet, daß man die assoziativen Fähigkeiten dieser hochinteressanten Strukturen leicht irreleiten kann. Und zwar nicht allein, indem man ihnen einfach unzureichend ausgewählte Beispiele vorsetzt, sondern auch, indem man ihnen beim Lernen des "Guten zuviel" antut.

Daß man im Umgang mit Netzen sehr vorsichtig sein sollte, wurde Smith bewußt, als er bei seinen Studien seltsame Auffälligkeiten bemerkte. Denn er mußte mit ansehen, wie das Netz entgegen aller Regeln erfahrener Bankiers Bewerbern mit niedrigen Einkommen oft Kredite einräumte, während Bewerber mit höheren Gehältern abgewiesen wurden.

Die Analyse dieser Entscheidungen zeigt, daß im Trainings-Material des Netzes eine Reihe Kunden mit niedrigen Einkommen enthalten waren, die ihre Kredite aber seinerzeit äußerst korrekt zurückgezahlt hatten. Und dies führte das Netz natürlich zur automatischen Ausprägung einer schrittweise sich verfestigenden inneren Struktur, die nun die Vermutung widerspiegelte: "Geringes Einkommen = hohe Kreditwürdigkeit."

Schwierigkeiten der skizzierten Art können behoben werden, indem man das Netz entweder entsprechend modifiziert oder bei der Auswahl der Beispiele größere Sorgfalt walten läßt. Doch klappt schließlich alles, so sollen diese Netze sich auch in der Welt der Dollar und Mark, der Zinsen und Gebühren vielfach schon besser bewähren als ihre menschliche Konkurrenz im klassischen Nadelstreifen-Anzug der Bankiers.

So hat etwa eine New Yorker Beratungsfirma, die ein System für Finanzleute entwickelt, mit Blick auf das Geschäft mit Hypotheken gefordert, ein Netz sollte beim Lernen das Entscheidungsverhalten möglichst vieler einzelner Hypotheken-Fachleute in sich aufnehmen, ehe man es dann konkret nutzt. Denn es habe sich gezeigt, daß seine Assoziationen zwischen Kreditantrag einerseits und Gewährungs-Entscheidung andererseits in so einem Fall die kollektive Weisheit und Erfahrung der ganzen Experten-Truppe widerspiegeln. Und daß die Entscheidungen des Systems dadurch "besser" werden als die eines Menschen.

Auch soll die Leistung so eines Systems fortlaufend verbesserbar sein, fügt man seiner Erfahrungs-Basis peu a peu neue Beispiele hinzu.