Simulierte Synapsen

Forschung am Fachgebiet Parallele Programmierung

24.06.2019 von

Mit einem Trick aus der Astrophysik berechnen Informatiker der TU Darmstadt die Vernetzung der Nervenzellen im Gehirn. Ihr Modell soll Neurochirurgen unterstützen und die Weiterentwicklung der künstlichen Intelligenz antreiben.

Dr. Sebastian Rinke (li.) und Professor Felix Wolf im Gebäude des Lichtenberg-Hochleistungsrechners der TU Darmstadt. Bild: Katrin Binner
Dr. Sebastian Rinke (li.) und Professor Felix Wolf im Gebäude des Lichtenberg-Hochleistungsrechners der TU Darmstadt. Bild: Katrin Binner

Der Blick in die Sterne hat schon manchen bei der Lösung eines Problems geholfen – nicht nur spirituell angehauchten Zeitgenossen, sondern auch Professor Felix Wolf und seinem Mitarbeiter Sebastian Rinke aus dem Fachbereich Informatik der TU Darmstadt. Die beiden Forscher wollen das menschliche Gehirn, oder genauer, die Vernetzung seiner etwa 100 Milliarden Nervenzellen, berechnen. Kein leichtes Unterfangen, denn jede Nervenzelle verfügt über eine Art Kabel namens Axon mit tausenden Endköpfchen. Sie schütten chemische Botenstoffe aus oder senden elektrische Impulse an andere Neuronen, wie Nervenzellen auch genannt werden.

Für den Empfang dieser Signale besitzt jedes Neuron fein verästelte Antennen, die sich mit tausenden Axon-Enden anderer Neuronen zu Synapsen verknüpfen. „Mit der Berechnung eines solchen Netzwerks ist selbst ein Supercomputer überfordert“, sagt Wolf.

Astrophysiker stehen vor einem ähnlichen Problem: Unsere Milchstraße etwa zählt mindestens 100 Milliarden Sterne und noch mehr Planeten. Wer die Position eines Himmelskörpers berechnen möchte, muss die von allen anderen ausgehenden Gravitationskräfte berücksichtigen. Da auch diese Rechenaufgabe kein Computer der Welt lösen kann, entwickelten die Astronomen Josh Barnes und Piet Hut schon in den 1980er-Jahren ein Näherungsverfahren. Es vereinfacht die Berechnung, indem es Himmelskörper zu Gruppen zusammenfasst. Man berechnet dann die Wechselwirkungen nicht mehr paarweise, sondern bündelt die Kräfte, die von hinreichend entfernten Objekten ausgehen. „Mit dieser Idee waren wir geimpft und haben die Brücke zu den Neurowissenschaften geschlagen“, sagt Wolf. Zusammen mit Rinke begann er vor fünf Jahren, damals noch an der RWTH Aachen, den Barnes-Hut-Algorithmus für die Berechnung des neuronalen Netzes zu verwenden. Dass zuvor niemand auf diese Idee kam, hat laut Wolf einen Grund: „Neurowissenschaftler reden kaum mit Astrophysikern.“

Wolf hingegen hat sich nicht nur von der Sternenkunde, sondern auch von der Hirnforschung inspirieren lassen. Während seiner Zeit an der RWTH Aachen, wo er von 2009 bis 2015 eine Professur innehatte, traf er den Neuroinformatiker Markus Butz-Ostendorf. Ein von ihm maßgeblich mitentwickeltes Computermodell simuliert die Vernetzung von Neuronen und beschränkt sich dabei nicht – wie bisherige Modelle – auf die Verstärkung oder Abschwächung bestehender Synapsen, sondern berechnet zudem neue Verknüpfungen. Diese bilden sich selbst im erwachsenen Gehirn ständig.

Aussagekraft des Modells bestätigt

Der neue Ansatz geht davon aus, dass die Neuronen ein bestimmtes Aktivitätslevel anstreben: Spüren sie zu wenig Input, bilden sie mehr Synapsen. Sind sie überreizt, kappen sie Kontakte. Untersuchungen an Mäusen bestätigten die Aussagekraft des Modells. Mehr als 100.000 Neuronen, der Hirngröße einer Fruchtfliege entsprechend, kann es allerdings nicht verarbeiten, denn der Aufwand wächst quadratisch mit der Zahl der Nervenzellen. Das heißt: Für die doppelte Anzahl dauert die Rechnung schon viermal so lange. Für die fast 100 Milliarden Neuronen des menschlichen Gehirns steigt der Aufwand ins Unermessliche. Hier kommt der Barnes-Hut-Algorithmus ins Spiel, allerdings in abgewandelter Form, wie Rinke erklärt: „Anders als die Astrophysiker berechnen wir keine Kräfte, sondern Verbindungswahrscheinlichkeiten.“

Das ursprüngliche Hirnmodell berechnete die Wahrscheinlichkeit der Synapsenbildung immer für jeweils zwei Neuronen. Das modifizierte Modell hingegen teilt die Nervenzellen zunächst in Gruppen ein und kalkuliert die Verbindungswahrscheinlichkeit eines Neurons zu einer solchen Gruppe. Anschließend zoomt man in die Gruppe hinein, unterteilt sie feiner und wiederholt die Prozedur. „Das mache ich so lange, bis ich wieder zu einzelnen Neuronen komme“, erläutert Rinke. Mit diesem Vorgehen hat er im Rahmen seiner Doktorarbeit ein Netz aus einer Milliarde Nervenzellen – mehr als ein Rattenhirn enthält – simuliert. „Mit Extrapolationen konnten wir zeigen, dass ein hinreichend großer Computer, basierend auf heutiger Technologie, sogar ein Netzwerk aus 100 Milliarden Nervenzellen berechnen kann“, ergänzt Wolf.

Die Simulation neuronaler Netze ist von medizinischem Interesse, denn unser Gehirn ist keinesfalls fest verdrahtet: Nach einem Schlaganfall, nach der Amputation von Gliedmaßen, aber auch beim Lernen, Erinnern und vielen anderen Prozessen bilden sich neue Synapsen, während unnütze verschwinden. Ließe sich die Umorganisation vorhersagen, könnten Ärzte Eingriffe am Hirn sowie Therapien von neurologischen Erkrankungen optimieren. Denn Zeitpunkt und Umfang der Behandlung eines Schlaganfallpatienten etwa ließen sich besser planen, wenn man genauer wüsste, wie und in welchem Tempo sich das Gehirn selbst repariert. Neurochirurgen wiederum könnten bei Operationen jene Hirnareale besonders schonen, die sich schlecht regenerieren.

Noch sei die klinische Anwendung des Modells aber eine Vision, betont Wolf: „Wir müssen erst einmal herausfinden, wie sich unsere Simulationen zu Patientendaten verhalten.“ Die Darmstädter Informatiker planen bereits eine Zusammenarbeit mit klinischen Partnern, um ihre Berechnungen mit Gehirnscans von Patienten vor und nach einer Operation abzugleichen. Die Weiterentwicklung der künstlichen Intelligenz soll das Modell zukünftig ebenfalls antreiben. „Das Netzwerk in unserem Gehirn ist entscheidend für unsere Lernfähigkeit“, sagt Wolf, „und wenn man die Vernetzung besser versteht, könnte man biologisch inspirierte Lernprozesse und künstliche neuronale Netze optimieren.“ Das sei aber ebenfalls erst eine grobe Idee. Von den potenziellen Anwendungen abgesehen geht es in der Hirnsimulation ohnehin vor allem um eins: um ein tieferes Verständnis der Vorgänge in unserem wichtigsten Organ.

Parallele Programmierung

Professor Felix Wolf leitet das Fachgebiet Parallele Programmierung im Fachbereich Informatik der TU Darmstadt. Sein Team entwickelt unter anderem Programme für komplexe Rechenaufgaben, die mehr als einen Prozessor benötigen. Für die Simulation des Netzwerks aus einer Milliarde Neuronen nutzte Sebastian Rinke 250.000 Prozessoren auf einem Supercomputer des Forschungszentrums Jülich.

Außerdem führte er Rechnungen auf dem Lichtenberg-Hochleistungsrechner der TU Darmstadt durch. Das sogenannte Grid-Computing hingegen, bei dem verteilte Einzelrechner zu einem virtuellen Supercomputer verknüpft werden, eignet sich in diesem Fall nicht. Da für die Simulation des neuronalen Netzes alle Nervenzellen gleichzeitig betrachtet werden müssen, lässt sich die Rechnung nicht auf verschiedene Arbeitsstationen verteilen. An einem Supercomputer, bei dem die Zusammenarbeit zwischen den einzelnen Prozessoren eng gekoppelt ist, führt kein Weg vorbei. Die neurowissenschaftlichen Arbeiten der Darmstädter Informatiker werden im Rahmen des Human Brain Project der EU gefördert.

Weitere spannende Artikel in der hoch³ FORSCHEN 2/2019: