Langsam dreht sich das Gehirn auf dem Bildschirm und lässt sich aus allen Blickwinkeln inspizieren. Plötzlich glüht es an bestimmten Stellen auf: erst an der Seite, dann über den gesamten Hinterkopf. Die eindrucksvollen Bilder veranschaulichen, welche Hirnareale beim Sehen, Sprechen, Hören und Tasten in unserem Kopf aktiv werden. Das Verfahren stammt vom Fraunhofer-Institut für Bildgestützte Medizin MEVIS in Bremen und verwendet die moderne Visualisierungstechnik „Physically Based Rendering“ in Kombination mit medizinischen Bilddaten, angereichert um klinisch relevante Zusatzinformationen. Seine Premiere feiert es in einem Exponat, das am 1. Oktober im Innsbrucker Science Center AUDIOVERSUM vorgestellt wird.
Mittlerweile ist die Computertechnik so leistungsfähig, dass sich selbst mit gewöhnlichen PCs und modernen Grafikkarten fotorealistische Animationen erstellen lassen. Eine wichtige Rolle spielt hierbei ein Rechenverfahren namens Physically Based Rendering. Es simuliert, wie sich einzelne Lichtstrahlen in einer Szenerie ausbreiten. Wie in der Wirklichkeit wird jeder Lichtstrahl von der Umgebung beeinflusst: Spiegel reflektieren ihn, Milchglas schwächt ihn ab und streut ihn, Hindernisse absorbieren ihn. Das Resultat: Wände, Gegenstände und Personen erscheinen in einem natürlich anmutenden Licht, Weingläser spiegeln Reflexe, Objekte werfen komplexe Schatten – die Szene wirkt so real wie ein Foto oder eine Filmaufnahme.
Hollywood-Regisseure und Computerspiel-Programmierer verwenden solche Systeme regelmäßig und verblüffen mit immer realistischeren Computerbildern. Fachleute von Fraunhofer MEVIS nutzen die Technik nun für einen anderen Zweck: Auf der Basis von medizinischen Daten wie CT- oder MRT-Bildern erstellen sie dreidimensionale Bewegtbilder, die sie mit weiteren medizinischen Informationen anreichern. Das Resultat: Bildsequenzen, die komplexe medizinische Zusammenhänge auf ästhetische und instruktive Weise veranschaulichen. Erste Anwendungen liegen in 2D- und 3D-Filmen, Trainingsmaterialien sowie bei interaktiven Installationen. Auf lange Sicht könnte das Verfahren aber auch als erweitertes Visualisierungswerkzeug für die Medizin von Bedeutung sein, etwa bei Diagnosen und Operationsplanungen.
Softwaresysteme, die medizinische Bilddaten aus CT- oder MR-Scannern zu dreidimensionalen Bildern verarbeiten, gibt es schon länger. „Wir haben diese anatomischen Aufnahmen um eine Ebene erweitert, nämlich um fotorealistisch dargestellte, klinisch relevante Zusatzinformationen, die man mithilfe spezieller Software aus medizinischen Daten herausziehen kann“, erläutert Alexander Köhn, Softwarearchitekt bei Fraunhofer MEVIS. „Diese Zusatzinformation wird mit der Anatomie verschmolzen.“
Ein Beispiel für diesen „Meta-realistic Medical Moving Images“-Ansatz ist eine interaktive Bildsequenz, die die Funktionsweise des menschlichen Gehirns veranschaulicht. „Wir wollen die starke visuelle Wahrnehmungsfähigkeit des Menschen nutzen, um komplexe Zusammenhänge intuitiv, korrekt und schnell zu transportieren“, betont Bianka Hofmann, Wissenschaftskommunikatorin bei Fraunhofer MEVIS. Zunächst haben die Forscher mit einem MR-Scanner eine hochaufgelöste anatomische 3D-Aufnahme des Gehirns gemacht. Anschließend ließen sie Testpersonen verschiedene Aufgaben im Scanner erfüllen – Texte lesen, Gedichte rezitieren, Musik hören, Bilder betrachten. Dabei schalteten sie den Scanner in einen Modus, bei dem er mit hoher zeitlicher Auflösung den Effekt der Blutversorgung im Gehirn bei verschiedenen Aufgaben erfasst.
Aus diesen funktionellen Magnetresonanz-Aufnahmen ermitteln statistische Verfahren die Intensität, mit der ein Hirnareal an einer bestimmten Aufgabe beteiligt ist. So reagiert beim Musikhören vor allem das Hörzentrum an der Seite des Schädels, beim Bilderbetrachten der visuelle Kortex im Hinterkopf. Je höher diese Intensität ist, umso heller wird dieses Bildvolumen dargestellt. Kombiniert mit den anatomischen MR-Daten entstehen Bilder, auf denen jene Stellen im Gehirn „aufglühen“, die beim Sehen oder beim Hören aktiv sind. Mit Hilfe des Physically Based Renderings erscheinen diese Bilder überaus realistisch.
Zum Einsatz kommt die neue Technik erstmals im AUDIOVERSUM in Innsbruck anlässlich der Langen Nacht der Museen am 1. Oktober. Dann stellt das Science Center ein von Fraunhofer MEVIS konzipiertes Exponat vor, bei dem die Besucher sich interaktiv über die Funktionsweise des Gehirns informieren können. Ausschnitte aus den „Meta-realistic Medical Moving Images“ wird Fraunhofer MEVIS-Institutsleiter Horst Hahn bereits auf dem Ars Electronica Festival am 9. und 10. September in Linz präsentieren.