Technik

Die Black Box des Mathematikers

Vom Neuron zur Software

In der chemischen Analytik, in der Wetter- und Erdbebenvorhersage, sogar in den Rechts- und Wirtschaftswissenschaften waren neuronale Netze lange Zeit in Mode: Mit ihrer Hilfe kann man riesige Datenmengen nach verborgenen Zusammenhängen durchforsten, die der puristischen, klassischen Analyse verborgen geblieben wären. Heute ist ihr Stern jedoch ein wenig im Sinken begriffen. Präzisere, aber in der dahinter stehenden Theorie ungleich anspruchsvollere Analysemethoden und die Leistungsfähigkeit schneller Rechner haben den Softwareneuronen den Rang abgelaufen.

Denn der Segen der neuronalen Netze ist zugleich ihr Fluch: Mit ihnen lässt sich zwar prinzipiell der Verlauf jeder beliebigen mathematischen Funktion annähern. Leider verrichten sie ihren Job in der Praxis aber nur mit mäßiger Genauigkeit. Um dies zu verstehen, reicht ein Blick auf ihre Funktionsweise. So geht ihr Arbeitsprinzip auf eine Idee des russischen Mathematikers Andreij Nikolajewitsch Kolmogorow zurück, eines der bedeutendsten mathematischen Köpfe des 20. Jahrhunderts.

Kolmogorow machte sich im Jahr 1948 noch recht abstrakte Gedanken über ein „Black-Box-System“, das jeden wie auch immer gearteten Input auf logische Weise mit einem passenden Output verbinden kann – wie eine Parabelfunktion ein x mit einem y verbindet. Nur eben viel universeller. Am einfachsten lässt sich der „universale Approximator neuronales Netz“ tatsächlich durch einen Vergleich mit echten Nervenzellen verstehen.

Neuronen summieren Signale, die sie von ihren Nachbarn übermittelt bekommen. Sobald ein gewisser Erregungslevel erreicht ist, feuern sie selbst. © Rohrer/MPI für Dynamik und Selbstorganisation

Bekanntlich besteht das Gehirn aus einer Vielzahl einander sehr ähnlicher Zellen (Neuronen), die über gewisse Leitungen mit anderen, gleichartigen verschaltet sind, die wiederum Kontakt zu weiteren haben. In der Natur kann eine einzelne Nervenzelle mit tausenden anderer verbunden sein. Wenn ein solches Neuron dann von seinen Nachbarn mit Signalen bestürmt wird, macht es zunächst nichts weiter, als diese eingehenden Signale zu summieren. Erreicht die Summe aller Anrufe zusammengenommen einen gewissen Schwellenwert, entscheidet sich das Neuron, seinerseits ein Signal zu feuern, das nun zur Erregung der Nachbarzellen beiträgt.

Ein neuronales Netz lernt, indem es den Inputsignalen der Nachbarn ein variables Gewicht zuordnet: Wenige Signale über wichtige Leitungen tragen mehr zum Potenzial des Neurons bei als viele Signale, die über schwächere Inputs hereinkommen. © Rohrer/ MPI für Dynamik und Selbstorganisation

Oder eben nicht. Denn ein klein wenig komplexer ist die Geschichte schon: So gibt es zum Beispiel nicht nur erregende, sondern auch dämpfende Signale. Und: Nervenzellen sind in der Lage, jeder Leitung eine gewisse Bedeutung oder Wichtigkeit beizumessen. So können wenige Signale, die über starke Leitungen ankommen – man denke an die roten Telefone im Kanzleramt – genügen, um die Zelle zum Feuern zu veranlassen, während tausend eingehende Signale, die über schwache Leitungen auflaufen, die Zelle noch lange nicht aus ihrer Lethargie wecken.

Gehen immer wieder sinnvolle Signale über bislang schwache Leitungen ein, können diese jedoch an Bedeutung gewinnen – so baut das Gehirn allmählich Muster aus starken und schwachen Bahnen auf, die durch immer geringere Anlässe angeregt werden können: Es lernt. Mehr braucht es im Prinzip auch im Computer nicht, um überaus komplexe mathematische Funktionen in den Griff zu bekommen.

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. 6
  14. |
  15. 7
  16. |
  17. 8
  18. |
  19. 9
  20. |
  21. 10
  22. |
  23. weiter


Stand: 27.05.2005

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

In den Schlagzeilen

Inhalt des Dossiers

Ein Roboter mit Köpfchen
Wie lernen künstliche neuronale Netze?

Das Gehirn steckt im Laptop
Roboter Rob und sein neuronales Netz

Die Black Box des Mathematikers
Vom Neuron zur Software

Die Formel hinter dem Netzwerk
Funktionsweise künstlicher neuronaler Netze

Komplexität ohne Grenzen?
Leistungen und Grenzen neuronaler Netze

Mit 100 Neuronen durch ein Labyrinth
Komplexes Verhalten aus einfachen Strukturen

Immer an der Wand lang…
Homöostasen als ergonomische Lösung

Rob – gefangen in der Depression
Wenn destabilisierende Effekte positiv wirken

Neue Prothesen in Sicht?
Von der Forschung in die Praxis

Kein Stein der Weisen
Das Gehirn bleibt rätselhaft

Diaschauen zum Thema

keine Diaschauen verknüpft

News zum Thema

keine News verknüpft

Dossiers zum Thema