Es ist offensichtlich, dass sich ein Netzwerk aus rund 1.000 Milliarden Nervenzellen nicht ohne weiteres durch ein analytisches mathematisches Modell beschreiben lässt. Die Situation ist noch hoffnungsloser als der Versuch, die Bewegung aller Teilchen in einem Luftballon zu beschreiben. Während im Luftballon mit etwa 10 hoch 23 Teilchen ein thermisches Gleichgewicht herrscht, in dem einfache globale Größen wie Temperatur und Druck über simple Gleichungen verknüpft werden können, ist ein vergleichbarer Ansatz beim neuronalen Netzwerk kaum möglich.
1.000 Milliarden Neuronen mit einer Feuerrate von einem Hertz erzeugen pro Sekunde eine Informationsmenge von 2.500 Gigabyte, wenn man für die Beschreibung von Ort und Zeit eines Aktionspotentials einen Informationsbedarf von nur 20 Bits ansetzt. Diese Information ist auf irgendeine Weise für das verantwortlich, was wir als die erstaunliche Leistung des Gehirns bezeichnen. Mit einfachen globalen Größen werden wir der Frage nach dem Funktionsprinzip des Hirns wohl kaum auf die Spur kommen können.
Gehirn ist „massiv parall“
Die Komplexität der Informationsverarbeitung des Gehirns beruht also vermutlich auf großen Zahlen – und nicht auf hoher Geschwindigkeit. Systeme, die Komplexität aus extrem vielen vernetzten Übertragungselementen erzeugen, bezeichnet man auch als massiv parallel. Parallelität ist ein aktuelles und stark wachsendes Arbeitsgebiet der modernen Informationstechnologie. Das Verknüpfen von Computern zu sehr großen Clustern, die aus zehntausenden von Einzelrechnern bestehen, erlaubt es heute, das Wetter, Verbrennungsprozesse oder Wirtschafts- und Sozialsysteme zu analysieren.
Im Wettbewerb um den leistungsfähigsten Cluster der Welt wird alljährlich die „TOP-500-Liste“ kreiert, die derzeit von einem IBM-BlueGene/L-Rechner am amerikanischen Lawrence Livermore Laboratory mit 131.072 Prozessoren angeführt wird. Es liegt nahe, solche Systeme einzusetzen, um neuronale Netzwerke zu simulieren und besser zu verstehen. Dies geschieht derzeit in einer Reihe von Forschungsprojekten. Am bekanntesten ist vermutlich das an der „Ecole Polytechnique Fédérale de Lausanne“ gerade begonnene BlueBrain-Projekt des Neurowissenschaftlers Henry Markram. Ihm stehen achttausend IBM-Prozessoren zur Verfügung, um große Netzwerke zu simulieren.
Komplexität bremst Simulation
Offensichtlich sind aber selbst einhunderttausend Prozessoren noch zu wenig – verglichen mit 10 hoch 12 Nervenzellen im Kortex. Mit der simplen Gleichung „ein Neuron = ein Prozessor“ werden sich so bald also keine Netzwerke von wirklich biologischer Komplexität simulieren lassen. Dazu bräuchte man zehn Millionen mal mehr Computerknoten im Netzwerk. Natürlich kann ein moderner Prozessor gleichzeitig viele Nervenzellen simulieren, also gewissermaßen ein Teilnetzwerk repräsentieren. Dies verlangsamt jedoch notwendigerweise die Simulation.
Es ist tatsächlich so, dass die Simulation von Netzwerken mit extrem hoher Komplexität zwar möglich ist – jedoch erheblich langsamer abläuft als die Prozesse des biologischen Vorbilds. Dies macht es schwierig, Lernprozesse zu untersuchen, da diese bereits im biologischen System langsam sind: Lernen dauert Stunden, wenn nicht gar Tage oder Monate.
Karlheinz Meier / Universität Heidelberg / Ruperto Carola
Stand: 31.10.2008