Neuromorphes Rechnen soll KI-Systeme leistungsfähiger machen
Wie Maschinen das Lernen lernen
Eine der herausragendsten Leistungen des menschlichen Gehirns ist seine Lernfähigkeit. Das neuromorphe Rechnen versucht deshalb, diese fundamentale Hirnfunktion auf Maschinen zu übertragen. Dadurch lernen diese Rechner ähnlich wie wir. Doch wie funktioniert das? Und welche Vorteile haben solche KI-Systeme nach Vorbild des Gehirns?
Vom mittelalterlichen Golem bis zum Terminator, von Metropolis bis „Wall-E“ – das menschliche Gehirn zu verstehen, sich seine Eigenschaften nutzbar zu machen und unbelebte Materie mit menschlichen Fähigkeiten auszustatten, ist ein häufig aufgegriffenes, meist bedrohliches, oft nützliches, stets aber faszinierendes Thema. Doch wie realistisch sind diese Ideen in heutiger Zeit? Und welche Möglichkeiten haben wir überhaupt, ein derart komplexes System wie das Gehirn zu erforschen und nachzuahmen?
Forscher der Universität Heidelberg um Johannes Schemmel versuchen genau das: Sie arbeiten daran, Rechner nach dem Vorbild des Gehirns zu konstruieren. Diese neuromorphen Systeme lernen auch auf der Ebene ihrer Funktion und Struktur ähnlich wie wir. Erste Erfolge gibt es bereits.
Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola
Von Neuronen zur KI
Vorbild Gehirn
Nur auf den ersten Blick erscheint das Gehirn als dankbares Forschungsobjekt: Es hat eine handliche Größe, und solange sich die Wissenschaftler mit Maushirnen begnügen, mangelt es auch nicht an Untersuchungsmaterial. Die wahren Bedingungen der Hirnforscher sehen aber anders aus.
Mehr als Summe seiner Teile
Das Gehirn ist mit mehr als 100 Milliarden Nervenzellen das komplexeste Organ des Menschen, nur im lebenden Organismus kann man es bei der Arbeit beobachten. Dabei wird rasch eine seiner wesentlichsten Eigenschaften deutlich: Das Ganze ist mehr als die Summe seiner Teile. Das Gehirn ist nicht nur eine Ansammlung von zig Milliarden Nervenzellen – es sind die komplexen Verschaltungen der Nervenzellen untereinander, die uns denken und lernen lassen.
Am Anfang der Entwicklung entsteht das Gehirn aus einer einzigen Zelle. Es muss also Regeln geben, die steuern, wie die Nervenzellen während der Embryonalentwicklung zusammenspielen. Diese Regeln können nach heutigem Stand des Wissens nur in unseren Erbanlagen gespeichert sein. Man nimmt an, dass rund ein Drittel der circa 20.000 Gene des menschlichen Erbguts für die Hirnentwicklung benötigt wird – schon allein das weist auf die außerordentliche Komplexität des Organs hin.
Wie also kann man sich an diese außerordentliche biologische Komplexität mit dem Ziel heranwagen, Denkvorgänge von Maschinen nachahmen zu lassen, also eine „Künstliche Intelligenz“ (KI) zu erzeugen?
Vom Schach zu komplexen Echtzeit-Strategien
Schon heute wartet die Künstliche Intelligenz mit durchaus beeindruckenden Resultaten auf, etwa mit Siegen von Maschinen über die besten menschlichen Schachspieler. Aber nicht nur traditionelle Brettspiele wie Schach oder Go, auch moderne computergestützte Echtzeitstrategiespiele können von Maschinen erfolgreich bestritten werden. Das haben Forscher kürzlich unter anderem anhand des Online-Spiels „Starcraft“ demonstriert.
Auch das Pokern inklusive der Bluffs beherrschen KI-Systeme bereits. KI-Systeme können Fahrzeuge nahezu unfallfrei durch dichten Verkehr lenken oder Personen in den Live-Videodaten Tausender Überwachungskameras identifizieren. All das sind Beispiele für Leistungen maschinellen Lernens, die es bereits heute gibt.
Prinzipien der Natur übernommen
Was der Künstlichen Intelligenz zu diesem Durchbruch verholfen hat, war die Übernahme von Prinzipien der Natur. Dazu gehört das Konzept des mehrlagigen Nervennetzes, dessen Nachahmung es möglich macht, selbst komplizierteste Zusammenhänge näherungsweise zu berechnen. Auch die Beobachtung, dass die Berechnungen eng mit dem dazu nötigen Speicher verknüpft sein müssen, zählt dazu – sonst wird der Transport der Daten zum Flaschenhals.
So betrachtet, beruhen die Fortschritte der Künstlichen Intelligenz also vor allem auf der Imitation biomorpher Entwurfsprinzipien.
Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola
Wie funktioniert das neuromorphe Rechnen?
Lernen wie die Neuronen
Als die ersten wissenschaftlichen Grundlagen für die aktuell verwendeten maschinellen Lernverfahren in den 1950er-Jahren entwickelt wurden, hatte man nur grobe Vorstellungen davon, wie das Lernen im Gehirn auf der Ebene der Neuronen funktioniert. Die Algorithmen, die daraus resultierten, sind unzweifelhaft sehr leistungsfähig – ebenso unzweifelhaft ist aber auch, dass diese Verfahren so, wie sie heutzutage implementiert sind, in der Natur nicht vorkommen.
Lernen mit Schwächen
Auf diesem Manko, könnte man spekulieren, beruhen viele der Beschränkungen, denen die Künstliche Intelligenz heute noch unterliegt. Eine typische Schwachstelle von KI-Systemen ist beispielsweise ihre Abhängigkeit von einer riesigen Menge an Lernbeispielen, eine weitere Schwäche ist ihre mangelnde Fähigkeit zu abstrahieren oder korrekt zu verallgemeinern. Das kann beispielsweise dazu führen, dass KI-Systeme „Vorurteile“ entwickeln.
Auch die fehlende Einbettung in einen kontinuierlichen Zeitablauf ist ein Defizit aktueller KI-Systeme. Doch nur dann können das Lernen, die Anpassung an die Umgebung und das Handeln eng miteinander verwoben und von einem gemeinsamen inneren Zustand bestimmt und koordiniert werden. Erst wenn Maschinen diese Fähigkeiten besitzen, wird es ihnen möglich, selbstständig komplexe Aufgaben in einer natürlichen Umwelt zu übernehmen.
Abgucken beim realen Vorbild
Wie kann man diese Schwachstellen angehen und lösen? Wir setzen in unserer Arbeitsgruppe auf das „neuromorphe Rechnen“, eine Forschungsrichtung, deren Grundannahme es ist, dass man das natürliche Vorbild nur genau genug studieren und die Mechanismen der Natur nur gut genug verstehen muss, um Antworten zu erhalten.
Das Ziel des neuromorphen Rechnens ist es, das komplette Wissen über die Funktion des natürlichen Nervensystems auf künstliche neuronale Systeme zu übertragen – eine derart maximal biologisch inspirierte Künstliche Intelligenz sollte idealerweise überlegene Ergebnisse zeigen.
Es gibt allerdings auch gute Gründe, warum andere KI-Forscher mehr auf herkömmliche Methoden setzen, anstatt wie wir die Kenntnisse der Neurowissenschaften einzubeziehen. Einer dieser Gründe ist die komplexe Art und Weise, wie Nervenzellen in der Natur miteinander kommunizieren: Jede einzelne Nervenzelle nimmt Kontakt mit rund tausend, manche gar mit Millionen weiteren Zellen auf. Wollte man dieses natürliche Verhalten mit Computersystemen nachbilden, müsste man für jedes Signal jeder Nervenzelle mindestens tausend Nachrichten abschicken und an die zugehörigen Empfängerzellen verteilen.
Flexible Verbindungen
Erschwerend kommt hinzu: Die natürliche Verknüpfung der Nervenzellen ist nicht statisch festgelegt, sondern ändert sich fortwährend. Jeden Tag werden in unserem Gehirn etwa zehn Prozent aller neuronalen Verbindungen aufgelöst und durch neue ersetzt. Welche der Verbindungen aufgelöst,
welche schwächer oder stärker werden, bestimmen sehr viele äußere Bedingungen – welche das genau sind, verstehen wir bislang nur in Ansätzen.
Was wir derzeit jedoch wissen, ist, dass die Signale kompletter Nervenzellpopulationen räumliche und zeitliche Muster bilden und dass das gezielte Umverdrahten der Verbindungen erlernt wird.
Vor diesem Hintergrund lautet also die erweiterte Frage: Wie kann das neuromorphe Rechnen dazu beitragen, die Mechanismen des Lernens sowie den Auf-, Ab- und Umbau neuronaler Verbindungen zu verstehen?
Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola
Warum neuromorphes Rechnen Zukunft hat
An den Grenzen des Rechnens
Manche Wissenschaftler halten das neuromorphe Rechnen schlichtweg für einen überflüssigen Weg. Mit der stetigen Zunahme der Leistungsstärke von Großrechnern, lautet eines ihrer Argumente, würden die geschilderten Defizite von selbst verschwinden. Das letzte Jahrzehnt aber hat gezeigt, dass die in die Großrechner gesetzten Erwartungen das technisch tatsächlich Mögliche weit überstiegen haben.
Die Miniaturisierung der Elektronik, die Basis unserer Computertechnologie, hat sich erheblich verlangsamt – in Fachkreisen wird derzeit nicht mehr diskutiert, ob die Verkleinerung je ein Ende finden wird, sondern wann es soweit sein wird. Auch der Energieverbrauch der Schaltkreise nimmt schon seit geraumer Zeit nicht mehr so schnell ab, wie es notwendig wäre, wollte man an die Leistungssteigerungen der vergangenen Jahrzehnte anschließen.
Künstliche Synapsen auf einem Siliziumchip
Auch jenseits dieser Ressourcenaspekte halten wir das neuromorphe Rechnen für einen wegweisenden Ansatz, um eine biologisch inspirierte Künstliche Intelligenz zu realisieren. Es geht beim neuromorphen Rechnen darum, die aktuell bekannten biologischen Strukturen des Nervensystems möglichst unmittelbar auf elektronische Schaltungen zu übertragen.
Es ist uns beispielsweise gelungen, einzelne Neuronen mitsamt ihren Synapsen – den Kontaktstellen zwischen Nervenzellen, an denen Impulse übertragen werden – als mikroelektronische Schaltungen auf Siliziumchips nachzubilden. Diese Schaltungen haben so viele Eigenschaften wie irgend möglich mit ihren natürlichen Vorbildern gemeinsam – in dem physikalischen Modell steckt das komplette, dem heutigen Stand der Forschung entsprechende biologische Wissen. Andere Forscherteams haben künstliche Synapsen auf Basis von Magnetschaltungen oder photonischen Bauteilen konstruiert.
Die Beschränkungen des derzeit Machbaren werden dabei teilweise von der Neurowissenschaft, teilweise von der Mikroelektronik vorgegeben: So erlaubt es die Mikroelektronik nicht, die für das Lernen verantwortlichen Nervenzell-Verschaltungen in ihrer vollen Komplexität nachzubauen – dafür ermöglicht sie es, die Geschwindigkeit der natürlichen Vorgänge nicht nur nachzuahmen, sondern sogar signifikant zu beschleunigen.
Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola
Rechnen mit dem hybriden Plastizitätsmodell
Erst der Anfang
Beim Lernen können neuromorphe Systeme ihre Stärken am besten ausspielen: Erkenntnisse, die Neurowissenschaftler bei der Erforschung der Lernfähigkeit des Gehirns und der Verschaltung von Neuronen gewonnen haben, lassen sich unmittelbar in elektronische Modelle übertragen und erproben.
Ein erstes Modell
Unsere Forschergruppe hat ein „hybrides Plastizitätsmodell“ entwickelt, in das gleichermaßen Erkenntnisse der Neurowissenschaft, der Elektronik und der Informatik eingeflossen sind. Für jede mögliche Verbindung zwischen elektronischen Nervenzellen hält unser Plastizitätsmodell eine Schaltung bereit, um die Signalflüsse messen zu können. Ein herkömmliches Computersystem könnte diese Aufgabe niemals auch nur annähernd so effizient und kompakt ausführen. Alle Signale müssen dazu simultan überwacht werden – eine Aufgabe, welche die Natur problemlos auf Billiarden von Synapsen gleichzeitig beherrscht.
Verglichen mit dem natürlichen Vorbild sind unsere derzeitigen elektronischen Systeme nur bescheidene Miniaturversionen. Im künftigen „Institut für Neuromorphes Computing“ der Universität Heidelberg sind jedoch je nach Ausbaustufe neuromorphe Systeme bis hin zu einer Billion Verbindungen möglich. Damit ließe sich das Lernen von komplexen Funktionen erproben, zum Beispiel von Bewegungsabläufen humanoider Roboter.
Entscheidend dafür ist: Die parallelen Messungen aller Signalflüsse zwischen Nervenzellen müssen von einem speziellen Rechnerkern innerhalb desselben Mikrochips verarbeitet werden. Nur dann kann der Rechnerkern die Messergebnisse für alle Signalflüsse schnell und direkt auswerten, ohne Informationen über Distanzen von mehr als einigen wenigen Millimetern austauschen zu müssen.
Schnelles Lernen schon durch einfache Regeln
Weil es sich bei unserem hybriden Plastizitätsmodell um einen frei programmierbaren Mikroprozessor handelt, können wir die Regeln bestimmen, nach denen die Verbindungen zwischen den Nervenzellen geändert werden sollen, und dabei stets den aktuellen Stand neurowissenschaftlicher Forschung berücksichtigen.
Unsere Versuche haben zwischenzeitlich gezeigt, dass schon relativ einfache Regeln in kurzer Zeit zu stabilen Lernergebnissen und einem effizienten Nutzen vorhandener Verbindungen führen – wenn sie entsprechend ihrer biologischen Vorbilder die verschiedenen zeitlichen und räumlichen Strukturen in den Signalen berücksichtigen.
Das Lernen in den Heidelberger Neuromorphen Systemen ist „hybrid“ im wahren Sinne des Wortes: eine Mischung aus einer physikalischen und einer virtuellen Nachbildung der Natur. Mathematik und Ingenieurwesen, zwei grundlegende Kulturtechniken des Menschen, sind nötig, um dem Verständnis einer der fundamentalsten Fähigkeiten der belebten Natur einen Schritt näher zu kommen – den Prinzipien des Lernens von Nervensystemen. Genau diese Fähigkeit zum Lernen ist es, welche das Phänomen „Kultur“ überhaupt erst möglich macht.
Autor: Johannes Schemmel, Universität Heidelberg/ Ruperto Carola