Im Gegensatz zur Computertomographie in der Klinik ist es bei der Elektronentomographie nicht sinnvoll, das Mikroskop rund um das Objekt zu führen. Hier wird die Zelle gedreht, während die „Lichtquelle“, also die Quelle der Elektronenstrahlen, an ihrem Platz bleibt. Das klingt einfach, ist aber in der Praxis mit einer Reihe von Problemen verbunden. So verschiebt sich bei jedem Kippschritt das Gesichtsfeld ein wenig – der Elektronenstrahl muss deshalb neu ausgerichtet und wieder genau auf das Objekt fokussiert werden. Würde man dies von Hand machen, wäre die Zelle unter dem Elektronenbeschuss schon nach den ersten Bildern verkohlt.
Die Martinsrieder nehmen eine höchst empfindliche CCD-Kamera und den Computer zu Hilfe. Er wertet bei jedem Schritt das registrierte Bild aus, positioniert die Zelle wieder exakt und fokussiert auf die richtige Stelle – alles automatisch. Und während der ganzen Zeit wird der Elektronenstrahl zur Seite abgelenkt und kann deshalb das Objekt nicht schädigen. „Auf diese Weise gelingt es uns, rund 97 Prozent der Strahlendosis für das Aufnehmen der Bilder zu verwenden“, sagt Harald Engelhardt, „nur drei Prozent benötigen wir für die Einstellung des Mikroskops.“
Eine weitere Schwierigkeit: Die Probe lässt sich nicht aus allen Richtungen durchleuchten; ein gewisser Winkel wird immer durch den Probenhalter verdeckt. Diese Daten fehlen später bei der Rekonstruktion der Bilder zum 3-D-Objekt. Neuerdings versuchen die Forscher, diese Informationslücke dadurch zu verringern, dass sie die Probe in einem eigens konstruierten Dreh-Kipphalter nach einer Bilderserie um 90 Grad drehen und dann eine zweite Sequenz aufnehmen.
Objekte aus der Datenflut herausfiltern
Sind die Bilder erst einmal im Kasten, sprich Computer, beginnt die zeitaufwändige Verarbeitung der Daten. Aufgrund der extrem geringen Dosis sind die Einzelbilder sehr verrauscht – oft erkennt das menschliche Auge darauf nur schemenhafte Schleier. Die Aufgabe der Martinsrieder Bildverarbeiter um Reiner Hegerl ist es nun, diese Schleier zu lüften und die Bilder so zu kombinieren und aufzubereiten, dass man aus der Datenflut Objekte herausfiltern kann, die sich klar von der Umgebung abgrenzen lassen. „Man muss die relevanten Daten erkennen und vom überlagernden Rauschen befreien“, schildert Harald Engelhardt das Vorgehen, „wir erproben zur Zeit unterschiedliche Verfahren. Die Astronomen haben übrigens ähnliche Probleme, wenn sie winzige Lichtsignale aus dem Rauschen des Nachthimmels herausfiltern wollen.“
Gigabyte von Informationen müssen bei dieser Aufgabe transportiert, durchforstet und gegeneinander verrechnet werden. Noch vor wenigen Jahren wären die Computer an dieser gigantischen Aufgabe gescheitert. Erst heute stehen potente Parallelrechner zur Verfügung, etwa ein Linux-Cluster in Martinsried, das Rechenzentrum der Max-Planck-Gesellschaft in Garching sowie eine Reihe leistungsfähiger Workstations im Institut.
Stand: 18.03.2004