Technik

Die Formel hinter dem Netzwerk

Funktionsweise künstlicher neuronaler Netze

Man nehme: Eine Anzahl von Neuronen – simulierten Rechenknoten –, die mit gewissen Variablen gefüttert werden; zum Beispiel mit Zahlen, die den Messwerten der verschiedensten Sensoren einer Polyurethanverarbeitenden Anlage für den Fahrzeugbau entsprechen: Druck im Dosierkopf, Temperatur in den Rohstoffleitungen, Werkzeuginnendruck.

{1l}

Die Neuronen verbinde man mit einer weiteren Ebene aus ähnlichen Baueinheiten, diese mit einer weiteren – und so fort, wobei jeder Knoten mit allen anderen der darunter liegenden Ebene in Kontakt steht. Dann fällt der Startschuss: Die Eingangsneuronen senden Signale, die den in ihnen abgelegten Maschinenparametern entsprechen, an die Knoten der zweiten Ebene. Diese entscheiden anhand einer einfachen Regel, ob sie ein Signal an die nächste Verarbeitungsebene schicken oder nicht.

An der Spitze der Pyramide steht dann ein Ausgangssignal – praktisch der Speicherinhalt des obersten Neurons. Nach dem ersten Durchlauf dürfte der allerdings herzlich wenig mit der Qualität des produzierten Kotflügels zu tun haben – denn das Netzwerk ist ja noch völlig ungelernt. Was fehlt, ist ein übergeordnetes Programm, das den Output des Netzwerks mit der Realität vergleicht – und den Netzknoten Anweisung gibt, die Bedeutung, die sie den eingehenden Leitungen zuordnen, möglichst sinnvoll neu zu gewichten.

Was dann über etliche tausend Zyklen mit immer neuen Parametersätzen und Realitätsabgleichen hinweg passiert, ist verblüffend: Das Netzwerk wird in der Vorhersage der richtigen Ergebnisse, etwa einer Zahl, welche die Qualität des Polyurethanformteils beschreibt, immer treffsicherer! Allein durch die immer besseren Gewichtungen, die die einzelnen Neuronen ihren Eingangssignalen verleihen – ohne dass das Netzwerk die dahinter stehende Formel kennt.

Der Grund dafür: Ein neuronales Netz, das derart ausgelernt hat, lässt sich auch als Summenformel schreiben, in welcher der Inhalt jedes einzelnen Neurons – sein Potenzial – sowie die Gewichtungen dieses Potenzials in den Verschaltungen mit den Nachbarneuronen aufgelistet sind. Diese Gewichtungen bestimmen, wie stark das Potenzial eines jeden Neurons zum Gesamtergebnis beiträgt – und zwar immer in Abhängigkeit vom Input. Ähnlich wie eine simple trigonometrische Funktion durch eine Reihenentwicklung angenähert werden kann, lässt sich über derartig flexible Summenfunktionen jede nur denkbare mathematische Funktion ausdrücken.

Weiterer Vorteil: Neuronale Netze sind äußerst tolerant gegenüber Fehleingaben im Lernprozess. Denn auf die Gewichtung der Inputleitungen, die sich über etliche Zyklen hinweg allmählich einpendelt, hat der eine oder andere falsche Messwert keinen Einfluss – ähnlich, wie sich ein einmal unter Dampf stehender Ozeanriese durch ein kleines Ruderboot kaum vom Kurs abbringen ließe, durch tausende allerdings schon.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. 8
  18. |
  19. 9
  20. |
  21. 10
  22. |
  23. weiter


Stand: 27.05.2005

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

In den Schlagzeilen

Inhalt des Dossiers

Ein Roboter mit Köpfchen
Wie lernen künstliche neuronale Netze?

Das Gehirn steckt im Laptop
Roboter Rob und sein neuronales Netz

Die Black Box des Mathematikers
Vom Neuron zur Software

Die Formel hinter dem Netzwerk
Funktionsweise künstlicher neuronaler Netze

Komplexität ohne Grenzen?
Leistungen und Grenzen neuronaler Netze

Mit 100 Neuronen durch ein Labyrinth
Komplexes Verhalten aus einfachen Strukturen

Immer an der Wand lang…
Homöostasen als ergonomische Lösung

Rob – gefangen in der Depression
Wenn destabilisierende Effekte positiv wirken

Neue Prothesen in Sicht?
Von der Forschung in die Praxis

Kein Stein der Weisen
Das Gehirn bleibt rätselhaft

Diaschauen zum Thema

keine Diaschauen verknüpft

News zum Thema

keine News verknüpft

Dossiers zum Thema