Man nehme: Eine Anzahl von Neuronen – simulierten Rechenknoten –, die mit gewissen Variablen gefüttert werden; zum Beispiel mit Zahlen, die den Messwerten der verschiedensten Sensoren einer Polyurethanverarbeitenden Anlage für den Fahrzeugbau entsprechen: Druck im Dosierkopf, Temperatur in den Rohstoffleitungen, Werkzeuginnendruck.
{1l}
Die Neuronen verbinde man mit einer weiteren Ebene aus ähnlichen Baueinheiten, diese mit einer weiteren – und so fort, wobei jeder Knoten mit allen anderen der darunter liegenden Ebene in Kontakt steht. Dann fällt der Startschuss: Die Eingangsneuronen senden Signale, die den in ihnen abgelegten Maschinenparametern entsprechen, an die Knoten der zweiten Ebene. Diese entscheiden anhand einer einfachen Regel, ob sie ein Signal an die nächste Verarbeitungsebene schicken oder nicht.
An der Spitze der Pyramide steht dann ein Ausgangssignal – praktisch der Speicherinhalt des obersten Neurons. Nach dem ersten Durchlauf dürfte der allerdings herzlich wenig mit der Qualität des produzierten Kotflügels zu tun haben – denn das Netzwerk ist ja noch völlig ungelernt. Was fehlt, ist ein übergeordnetes Programm, das den Output des Netzwerks mit der Realität vergleicht – und den Netzknoten Anweisung gibt, die Bedeutung, die sie den eingehenden Leitungen zuordnen, möglichst sinnvoll neu zu gewichten.
Was dann über etliche tausend Zyklen mit immer neuen Parametersätzen und Realitätsabgleichen hinweg passiert, ist verblüffend: Das Netzwerk wird in der Vorhersage der richtigen Ergebnisse, etwa einer Zahl, welche die Qualität des Polyurethanformteils beschreibt, immer treffsicherer! Allein durch die immer besseren Gewichtungen, die die einzelnen Neuronen ihren Eingangssignalen verleihen – ohne dass das Netzwerk die dahinter stehende Formel kennt.
Der Grund dafür: Ein neuronales Netz, das derart ausgelernt hat, lässt sich auch als Summenformel schreiben, in welcher der Inhalt jedes einzelnen Neurons – sein Potenzial – sowie die Gewichtungen dieses Potenzials in den Verschaltungen mit den Nachbarneuronen aufgelistet sind. Diese Gewichtungen bestimmen, wie stark das Potenzial eines jeden Neurons zum Gesamtergebnis beiträgt – und zwar immer in Abhängigkeit vom Input. Ähnlich wie eine simple trigonometrische Funktion durch eine Reihenentwicklung angenähert werden kann, lässt sich über derartig flexible Summenfunktionen jede nur denkbare mathematische Funktion ausdrücken.
Weiterer Vorteil: Neuronale Netze sind äußerst tolerant gegenüber Fehleingaben im Lernprozess. Denn auf die Gewichtung der Inputleitungen, die sich über etliche Zyklen hinweg allmählich einpendelt, hat der eine oder andere falsche Messwert keinen Einfluss – ähnlich, wie sich ein einmal unter Dampf stehender Ozeanriese durch ein kleines Ruderboot kaum vom Kurs abbringen ließe, durch tausende allerdings schon.
Stand: 27.05.2005