Als die ersten wissenschaftlichen Grundlagen für die aktuell verwendeten maschinellen Lernverfahren in den 1950er-Jahren entwickelt wurden, hatte man nur grobe Vorstellungen davon, wie das Lernen im Gehirn auf der Ebene der Neuronen funktioniert. Die Algorithmen, die daraus resultierten, sind unzweifelhaft sehr leistungsfähig – ebenso unzweifelhaft ist aber auch, dass diese Verfahren so, wie sie heutzutage implementiert sind, in der Natur nicht vorkommen.
Lernen mit Schwächen
Auf diesem Manko, könnte man spekulieren, beruhen viele der Beschränkungen, denen die Künstliche Intelligenz heute noch unterliegt. Eine typische Schwachstelle von KI-Systemen ist beispielsweise ihre Abhängigkeit von einer riesigen Menge an Lernbeispielen, eine weitere Schwäche ist ihre mangelnde Fähigkeit zu abstrahieren oder korrekt zu verallgemeinern. Das kann beispielsweise dazu führen, dass KI-Systeme „Vorurteile“ entwickeln.
Auch die fehlende Einbettung in einen kontinuierlichen Zeitablauf ist ein Defizit aktueller KI-Systeme. Doch nur dann können das Lernen, die Anpassung an die Umgebung und das Handeln eng miteinander verwoben und von einem gemeinsamen inneren Zustand bestimmt und koordiniert werden. Erst wenn Maschinen diese Fähigkeiten besitzen, wird es ihnen möglich, selbstständig komplexe Aufgaben in einer natürlichen Umwelt zu übernehmen.
Abgucken beim realen Vorbild
Wie kann man diese Schwachstellen angehen und lösen? Wir setzen in unserer Arbeitsgruppe auf das „neuromorphe Rechnen“, eine Forschungsrichtung, deren Grundannahme es ist, dass man das natürliche Vorbild nur genau genug studieren und die Mechanismen der Natur nur gut genug verstehen muss, um Antworten zu erhalten.
Das Ziel des neuromorphen Rechnens ist es, das komplette Wissen über die Funktion des natürlichen Nervensystems auf künstliche neuronale Systeme zu übertragen – eine derart maximal biologisch inspirierte Künstliche Intelligenz sollte idealerweise überlegene Ergebnisse zeigen.
Es gibt allerdings auch gute Gründe, warum andere KI-Forscher mehr auf herkömmliche Methoden setzen, anstatt wie wir die Kenntnisse der Neurowissenschaften einzubeziehen. Einer dieser Gründe ist die komplexe Art und Weise, wie Nervenzellen in der Natur miteinander kommunizieren: Jede einzelne Nervenzelle nimmt Kontakt mit rund tausend, manche gar mit Millionen weiteren Zellen auf. Wollte man dieses natürliche Verhalten mit Computersystemen nachbilden, müsste man für jedes Signal jeder Nervenzelle mindestens tausend Nachrichten abschicken und an die zugehörigen Empfängerzellen verteilen.
Flexible Verbindungen
Erschwerend kommt hinzu: Die natürliche Verknüpfung der Nervenzellen ist nicht statisch festgelegt, sondern ändert sich fortwährend. Jeden Tag werden in unserem Gehirn etwa zehn Prozent aller neuronalen Verbindungen aufgelöst und durch neue ersetzt. Welche der Verbindungen aufgelöst,
welche schwächer oder stärker werden, bestimmen sehr viele äußere Bedingungen – welche das genau sind, verstehen wir bislang nur in Ansätzen.
Was wir derzeit jedoch wissen, ist, dass die Signale kompletter Nervenzellpopulationen räumliche und zeitliche Muster bilden und dass das gezielte Umverdrahten der Verbindungen erlernt wird.
Vor diesem Hintergrund lautet also die erweiterte Frage: Wie kann das neuromorphe Rechnen dazu beitragen, die Mechanismen des Lernens sowie den Auf-, Ab- und Umbau neuronaler Verbindungen zu verstehen?
Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola