Neuromorphes Rechnen soll KI-Systeme leistungsfähiger machen

Wie Maschinen das Lernen lernen

Neuromorphes Rechnen
Lernen wie unser Gehirn – das ist das Ziel des neuromorphen Computings. © Peshkova/ iStock.com

Eine der herausragendsten Leistungen des menschlichen Gehirns ist seine Lernfähigkeit. Das neuromorphe Rechnen versucht deshalb, diese fundamentale Hirnfunktion auf Maschinen zu übertragen. Dadurch lernen diese Rechner ähnlich wie wir. Doch wie funktioniert das? Und welche Vorteile haben solche KI-Systeme nach Vorbild des Gehirns?

Vom mittelalterlichen Golem bis zum Terminator, von Metropolis bis „Wall-E“ – das menschliche Gehirn zu verstehen, sich seine Eigenschaften nutzbar zu machen und unbelebte Materie mit menschlichen Fähigkeiten auszustatten, ist ein häufig aufgegriffenes, meist bedrohliches, oft nützliches, stets aber faszinierendes Thema. Doch wie realistisch sind diese Ideen in heutiger Zeit? Und welche Möglichkeiten haben wir überhaupt, ein derart komplexes System wie das Gehirn zu erforschen und nachzuahmen?

Forscher der Universität Heidelberg um Johannes Schemmel versuchen genau das: Sie arbeiten daran, Rechner nach dem Vorbild des Gehirns zu konstruieren. Diese neuromorphen Systeme lernen auch auf der Ebene ihrer Funktion und Struktur ähnlich wie wir. Erste Erfolge gibt es bereits.

Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola

Von Neuronen zur KI

Vorbild Gehirn

Nur auf den ersten Blick erscheint das Gehirn als dankbares Forschungsobjekt: Es hat eine handliche Größe, und solange sich die Wissenschaftler mit Maushirnen begnügen, mangelt es auch nicht an Untersuchungsmaterial. Die wahren Bedingungen der Hirnforscher sehen aber anders aus.

Gehirn
Unser Gehirn ist ein komplexes und anpassungsfähiges Gefüge von Zellen und Verschaltungen. © pixologicstudio/ iStock.com

Mehr als Summe seiner Teile

Das Gehirn ist mit mehr als 100 Milliarden Nervenzellen das komplexeste Organ des Menschen, nur im lebenden Organismus kann man es bei der Arbeit beobachten. Dabei wird rasch eine seiner wesentlichsten Eigenschaften deutlich: Das Ganze ist mehr als die Summe seiner Teile. Das Gehirn ist nicht nur eine Ansammlung von zig Milliarden Nervenzellen – es sind die komplexen Verschaltungen der Nervenzellen untereinander, die uns denken und lernen lassen.

Am Anfang der Entwicklung entsteht das Gehirn aus einer einzigen Zelle. Es muss also Regeln geben, die steuern, wie die Nervenzellen während der Embryonalentwicklung zusammenspielen. Diese Regeln können nach heutigem Stand des Wissens nur in unseren Erbanlagen gespeichert sein. Man nimmt an, dass rund ein Drittel der circa 20.000 Gene des menschlichen Erbguts für die Hirnentwicklung benötigt wird – schon allein das weist auf die außerordentliche Komplexität des Organs hin.

Wie also kann man sich an diese außerordentliche biologische Komplexität mit dem Ziel heranwagen, Denkvorgänge von Maschinen nachahmen zu lassen, also eine „Künstliche Intelligenz“ (KI) zu erzeugen?

Vom Schach zu komplexen Echtzeit-Strategien

Schon heute wartet die Künstliche Intelligenz mit durchaus beeindruckenden Resultaten auf, etwa mit Siegen von Maschinen über die besten menschlichen Schachspieler. Aber nicht nur traditionelle Brettspiele wie Schach oder Go, auch moderne computergestützte Echtzeitstrategiespiele können von Maschinen erfolgreich bestritten werden. Das haben Forscher kürzlich unter anderem anhand des Online-Spiels „Starcraft“ demonstriert.

ALpha Zero
Die KI AlphaZero lernte Schach, Go und Shogi in kürzester Zeit bis auf Weltmeisterniveau. © DeepMind Technologies Ltd

Auch das Pokern inklusive der Bluffs beherrschen KI-Systeme bereits. KI-Systeme können Fahrzeuge nahezu unfallfrei durch dichten Verkehr lenken oder Personen in den Live-Videodaten Tausender Überwachungskameras identifizieren. All das sind Beispiele für Leistungen maschinellen Lernens, die es bereits heute gibt.

Prinzipien der Natur übernommen

Was der Künstlichen Intelligenz zu diesem Durchbruch verholfen hat, war die Übernahme von Prinzipien der Natur. Dazu gehört das Konzept des mehrlagigen Nervennetzes, dessen Nachahmung es möglich macht, selbst komplizierteste Zusammenhänge näherungsweise zu berechnen. Auch die Beobachtung, dass die Berechnungen eng mit dem dazu nötigen Speicher verknüpft sein müssen, zählt dazu – sonst wird der Transport der Daten zum Flaschenhals.

So betrachtet, beruhen die Fortschritte der Künstlichen Intelligenz also vor allem auf der Imitation biomorpher Entwurfsprinzipien.

Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola

Wie funktioniert das neuromorphe Rechnen?

Lernen wie die Neuronen

Als die ersten wissenschaftlichen Grundlagen für die aktuell verwendeten maschinellen Lernverfahren in den 1950er-Jahren entwickelt wurden, hatte man nur grobe Vorstellungen davon, wie das Lernen im Gehirn auf der Ebene der Neuronen funktioniert. Die Algorithmen, die daraus resultierten, sind unzweifelhaft sehr leistungsfähig – ebenso unzweifelhaft ist aber auch, dass diese Verfahren so, wie sie heutzutage implementiert sind, in der Natur nicht vorkommen.

KI
Bisherige KI-Systeme benötigen enorme Datenmengen zum Lernen. © Andrea Danti/ iStock.com

Lernen mit Schwächen

Auf diesem Manko, könnte man spekulieren, beruhen viele der Beschränkungen, denen die Künstliche Intelligenz heute noch unterliegt. Eine typische Schwachstelle von KI-Systemen ist beispielsweise ihre Abhängigkeit von einer riesigen Menge an Lernbeispielen, eine weitere Schwäche ist ihre mangelnde Fähigkeit zu abstrahieren oder korrekt zu verallgemeinern. Das kann beispielsweise dazu führen, dass KI-Systeme „Vorurteile“ entwickeln.

Auch die fehlende Einbettung in einen kontinuierlichen Zeitablauf ist ein Defizit aktueller KI-Systeme. Doch nur dann können das Lernen, die Anpassung an die Umgebung und das Handeln eng miteinander verwoben und von einem gemeinsamen inneren Zustand bestimmt und koordiniert werden. Erst wenn Maschinen diese Fähigkeiten besitzen, wird es ihnen möglich, selbstständig komplexe Aufgaben in einer natürlichen Umwelt zu übernehmen.

Abgucken beim realen Vorbild

Wie kann man diese Schwachstellen angehen und lösen? Wir setzen in unserer Arbeitsgruppe auf das „neuromorphe Rechnen“, eine Forschungsrichtung, deren Grundannahme es ist, dass man das natürliche Vorbild nur genau genug studieren und die Mechanismen der Natur nur gut genug verstehen muss, um Antworten zu erhalten.

Das Ziel des neuromorphen Rechnens ist es, das komplette Wissen über die Funktion des natürlichen Nervensystems auf künstliche neuronale Systeme zu übertragen – eine derart maximal biologisch inspirierte Künstliche Intelligenz sollte idealerweise überlegene Ergebnisse zeigen.

Synapsen
Unser Gehirn lernt, in dem es seine Synapsen – die Kontaktstellen zwischen den Neuronen – flexibel anpasst. © cosmin4000/ iStock.com

Es gibt allerdings auch gute Gründe, warum andere KI-Forscher mehr auf herkömmliche Methoden setzen, anstatt wie wir die Kenntnisse der Neurowissenschaften einzubeziehen. Einer dieser Gründe ist die komplexe Art und Weise, wie Nervenzellen in der Natur miteinander kommunizieren: Jede einzelne Nervenzelle nimmt Kontakt mit rund tausend, manche gar mit Millionen weiteren Zellen auf. Wollte man dieses natürliche Verhalten mit Computersystemen nachbilden, müsste man für jedes Signal jeder Nervenzelle mindestens tausend Nachrichten abschicken und an die zugehörigen Empfängerzellen verteilen.

Flexible Verbindungen

Erschwerend kommt hinzu: Die natürliche Verknüpfung der Nervenzellen ist nicht statisch festgelegt, sondern ändert sich fortwährend. Jeden Tag werden in unserem Gehirn etwa zehn Prozent aller neuronalen Verbindungen aufgelöst und durch neue ersetzt. Welche der Verbindungen aufgelöst,
welche schwächer oder stärker werden, bestimmen sehr viele äußere Bedingungen – welche das genau sind, verstehen wir bislang nur in Ansätzen.

Was wir derzeit jedoch wissen, ist, dass die Signale kompletter Nervenzellpopulationen räumliche und zeitliche Muster bilden und dass das gezielte Umverdrahten der Verbindungen erlernt wird.
Vor diesem Hintergrund lautet also die erweiterte Frage: Wie kann das neuromorphe Rechnen dazu beitragen, die Mechanismen des Lernens sowie den Auf-, Ab- und Umbau neuronaler Verbindungen zu verstehen?

Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola

Warum neuromorphes Rechnen Zukunft hat

An den Grenzen des Rechnens

Manche Wissenschaftler halten das neuromorphe Rechnen schlichtweg für einen überflüssigen Weg. Mit der stetigen Zunahme der Leistungsstärke von Großrechnern, lautet eines ihrer Argumente, würden die geschilderten Defizite von selbst verschwinden. Das letzte Jahrzehnt aber hat gezeigt, dass die in die Großrechner gesetzten Erwartungen das technisch tatsächlich Mögliche weit überstiegen haben.

neuromorpher Chip
Dieser neuromorphe Chip enthält 384 künstliche Nervenzellen und 100.000 Synapsen. © Universität Heidelberg / Ruperto Carola

Die Miniaturisierung der Elektronik, die Basis unserer Computertechnologie, hat sich erheblich verlangsamt – in Fachkreisen wird derzeit nicht mehr diskutiert, ob die Verkleinerung je ein Ende finden wird, sondern wann es soweit sein wird. Auch der Energieverbrauch der Schaltkreise nimmt schon seit geraumer Zeit nicht mehr so schnell ab, wie es notwendig wäre, wollte man an die Leistungssteigerungen der vergangenen Jahrzehnte anschließen.

Künstliche Synapsen auf einem Siliziumchip

Auch jenseits dieser Ressourcenaspekte halten wir das neuromorphe Rechnen für einen wegweisenden Ansatz, um eine biologisch inspirierte Künstliche Intelligenz zu realisieren. Es geht beim neuromorphen Rechnen darum, die aktuell bekannten biologischen Strukturen des Nervensystems möglichst unmittelbar auf elektronische Schaltungen zu übertragen.

Es ist uns beispielsweise gelungen, einzelne Neuronen mitsamt ihren Synapsen – den Kontaktstellen zwischen Nervenzellen, an denen Impulse übertragen werden – als mikroelektronische Schaltungen auf Siliziumchips nachzubilden. Diese Schaltungen haben so viele Eigenschaften wie irgend möglich mit ihren natürlichen Vorbildern gemeinsam – in dem physikalischen Modell steckt das komplette, dem heutigen Stand der Forschung entsprechende biologische Wissen. Andere Forscherteams haben künstliche Synapsen auf Basis von Magnetschaltungen oder photonischen Bauteilen konstruiert.

Die Beschränkungen des derzeit Machbaren werden dabei teilweise von der Neurowissenschaft, teilweise von der Mikroelektronik vorgegeben: So erlaubt es die Mikroelektronik nicht, die für das Lernen verantwortlichen Nervenzell-Verschaltungen in ihrer vollen Komplexität nachzubauen – dafür ermöglicht sie es, die Geschwindigkeit der natürlichen Vorgänge nicht nur nachzuahmen, sondern sogar signifikant zu beschleunigen.

Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola

Rechnen mit dem hybriden Plastizitätsmodell

Erst der Anfang

Beim Lernen können neuromorphe Systeme ihre Stärken am besten ausspielen: Erkenntnisse, die Neurowissenschaftler bei der Erforschung der Lernfähigkeit des Gehirns und der Verschaltung von Neuronen gewonnen haben, lassen sich unmittelbar in elektronische Modelle übertragen und erproben.

BrainscaleS
Das Computersystem BrainScaleS arbeitet bereits nach dem Prinzip des neuromorphen Rechnens.
© Kirchhoff-Institut für Physik/ BrainScaleS

Ein erstes Modell

Unsere Forschergruppe hat ein „hybrides Plastizitätsmodell“ entwickelt, in das gleichermaßen Erkenntnisse der Neurowissenschaft, der Elektronik und der Informatik eingeflossen sind. Für jede mögliche Verbindung zwischen elektronischen Nervenzellen hält unser Plastizitätsmodell eine Schaltung bereit, um die Signalflüsse messen zu können. Ein herkömmliches Computersystem könnte diese Aufgabe niemals auch nur annähernd so effizient und kompakt ausführen. Alle Signale müssen dazu simultan überwacht werden – eine Aufgabe, welche die Natur problemlos auf Billiarden von Synapsen gleichzeitig beherrscht.

Verglichen mit dem natürlichen Vorbild sind unsere derzeitigen elektronischen Systeme nur bescheidene Miniaturversionen. Im künftigen „Institut für Neuromorphes Computing“ der Universität Heidelberg sind jedoch je nach Ausbaustufe neuromorphe Systeme bis hin zu einer Billion Verbindungen möglich. Damit ließe sich das Lernen von komplexen Funktionen erproben, zum Beispiel von Bewegungsabläufen humanoider Roboter.

Entscheidend dafür ist: Die parallelen Messungen aller Signalflüsse zwischen Nervenzellen müssen von einem speziellen Rechnerkern innerhalb desselben Mikrochips verarbeitet werden. Nur dann kann der Rechnerkern die Messergebnisse für alle Signalflüsse schnell und direkt auswerten, ohne Informationen über Distanzen von mehr als einigen wenigen Millimetern austauschen zu müssen.

Schnelles Lernen schon durch einfache Regeln

Weil es sich bei unserem hybriden Plastizitätsmodell um einen frei programmierbaren Mikroprozessor handelt, können wir die Regeln bestimmen, nach denen die Verbindungen zwischen den Nervenzellen geändert werden sollen, und dabei stets den aktuellen Stand neurowissenschaftlicher Forschung berücksichtigen.

Unsere Versuche haben zwischenzeitlich gezeigt, dass schon relativ einfache Regeln in kurzer Zeit zu stabilen Lernergebnissen und einem effizienten Nutzen vorhandener Verbindungen führen – wenn sie entsprechend ihrer biologischen Vorbilder die verschiedenen zeitlichen und räumlichen Strukturen in den Signalen berücksichtigen.

Das Lernen in den Heidelberger Neuromorphen Systemen ist „hybrid“ im wahren Sinne des Wortes: eine Mischung aus einer physikalischen und einer virtuellen Nachbildung der Natur. Mathematik und Ingenieurwesen, zwei grundlegende Kulturtechniken des Menschen, sind nötig, um dem Verständnis einer der fundamentalsten Fähigkeiten der belebten Natur einen Schritt näher zu kommen – den Prinzipien des Lernens von Nervensystemen. Genau diese Fähigkeit zum Lernen ist es, welche das Phänomen „Kultur“ überhaupt erst möglich macht.

Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola