Titel: Das neue Bild der Welt · von Jürgen Brickmann · S. 194
Titel: Das neue Bild der Welt , 1993

Jürgen Brickmann

Eine häßliche Grafik wird eher als wissenschaftlich empfunden als eine schöne

Heute scheint es immer mehr Wissenschaften zu geben, die sich zwischen den herkömmlichen Wissenschaften ansiedeln. Gehört denn die physikalische Chemie auch zu diesen grenzüberschreitenden Wissenschaften wie etwa die Biophysik oder die Neuropsychologie?

Die eigentlichen Zwischenbereiche liegen ganz woanders. Die physikalische Chemie ist bereits ein sehr traditionsreiches Grundfach, in dem einfach physikalische Methodik auf chemische Systeme angewendet wird. In erster Linie sind dies Meßmethodiken, d.h., man versucht mit allen möglichen neuen elektronischen oder mechanischen Verfahren, den Geheimnissen der Natur auf die Schliche zu kommen. Die Methodik der physikalischen Chemie wie der Physik ganz generell durchzieht eigentlich die gesamte experimentelle Naturwissenschaft.

Sie sprachen gerade von elektronischen Verfahren. Läßt sich denn bereits sagen, in welchem Ausmaß die Verwendung des Computers die Wissenschaften verändert und ihr ganz neue Dimensionen erschlossen hat? Die nicht-linearen Gleichungen, wie sie etwa der Chaostheorie zugrunde liegen, konnten ohne Computer wohl gar nicht gelöst werden, weil einfach der Aufwand viel zu groß war und man die Mathematik auch nicht so visualisieren konnte.

Ich werde Ihnen ein Beispiel erzählen, das aus meinem eigenen wissenschaftlichen Werdegang stammt. Ich habe 1974 in Konstanz angefangen, eine Apparatur zu bauen, die es mir gestattete, Simulationsrechnungen zu visualisieren, d.h., die Bewegungen von molekularen Bewegungen auf einem Bildschirm zumindest rudimentär so darzustellen, daß man sich davon ein „Bild“ machen konnte. Die damals verfolgte Strategie basierte auf meiner Überzeugung, daß man sich als Mensch durch die Visualisierung intuitiv über ein solches Szenario ein Bild machen kann, was man meist nicht erreicht, wenn man die Ergebnisse nur als Zahlenkolonnen oder in Form von gezeichneten Kurven sieht. Mit Standardauswertungsverfahren kann man Strukturen in Ereignisdaten nicht erkennen, wenn man nach ihnen systematisch sucht. Wenn man hingegen ein Bild anschaut, dann sieht man oft viele Dinge, die man gar nicht gesucht hat. Insofern ist die Visualisierung, die der Computer ermöglicht, eine wichtige Sache. 1978 bin ich dann nach Darmstadt gekommen und konnte meine Anlage aus rein finanziellen Gründen nicht mitbringen. Ich habe dann bei der Forschungsgemeinschaft einen Antrag gestellt, um mir wieder so ein Gerät oder etwas Äquivalentes beschaffen zu können. Die Gutachter vor allem aus dem Bereich der Physik haben dabei sehr herablassende Kommentare verfaßt. Man bescheinigte mir mehr oder weniger Scharlatanerie. Es sei, so hieß es damals sinngemäß, die Aufgabe der Wissenschaft, reproduzierbare Daten zu erzeugen und nicht Bilder, die man dann intuitiv irgendwie bewerten würde. Das war das Weltbild der meisten Wissenschaftler Anfang der 80er Jahre. Die Intuition bei der Bewertung hat man als Kriterium für Wissenschaftlichkeit außer acht gelassen. Diese Situation hat sich grundlegend geändert, wobei die Mathematik mit der Visualisierung von fraktalen Lösungsmannigfaltigkeiten von nicht-linearen Gleichungen daran einen großen Anteil hatte. Heute akzeptiert man allgemein diese intuitive Bewertung – zumindest als ersten Schritt bei der Analyse. Insofern hat sich die Strategie in vielen Bereichen, die mit dem Computer zu tun haben, substantiell verändert. Ich glaube auch, daß sie sich in den nächsten Jahren oder Jahrzehnten noch einmal substantiell ändern wird. Man wird systematisch Mensch und Maschine im Verbund arbeiten lassen, d.h. die kreative Intuition des Menschen mit dem dummen Bienenfleiß von Rechenanlagen in Realzeit koppeln.

Mir ist noch nicht deutlich, was Sie mit Intuition meinen. Wenn man mit dem Computer beispielsweise eine molekular-dynamische Struktur visualisiert, also diese simuliert, dann muß man doch bereits wissen, von welchen Gesetzen sie bestimmt wird. Ist also diese Umsetzung von Daten oder Gleichungen in eine visuelle Szene mehr als ein pädagogisches Hilfsmittel? Wo liegt denn dabei der Erkenntnisgewinn?

Die Visualisierung von numerisch korrekten Ergebnissen durch ein Bild kann auf viele Weisen erfolgen. Trotzdem wird sich dort etwas strukturell zeigen, wenn es strukturell außergewöhnlich ist. Die Strukturbildung im Rahmen der nicht-linearen Dynamik ist ein ganz typisches Beispiel dafür. Man suchte hier gar nicht nach irgendeiner Struktur, sondern man hat eine Simulation gemacht, die zu Ergebnissen führt. Diese wurden visualisiert, wodurch ein Muster entstand, das einmal grün, weiß oder blau sein mochte, aber es wurde zunächst einmal überhaupt gesehen. Wenn man einmal eine Struktur erkannt hat, dann ist es relativ einfach, dafür Algorithmen zu schreiben, um diese systematisch zu analysieren.

Könnten Sie ein Beispiel dafür aus Ihren Forschungen geben?

Wir machen Simulationen molekularer Szenarien, wir simulieren also die Bewegung und Wechselwirkung von Molekülen gegeneinander und untereinander. Beispielsweise untersuchen wir die Wechselwirkung von pharmazeutisch wirksamen Molekülen mit den Proteinen, den großen Bausteinen der Bioorganismen. Diese Wechselwirkung ist sehr vielschichtig, so daß man von vorneherein nicht sagen kann, was dabei das Wichtige ist. Wir versetzen uns mit der Technologie, die heute zur Verfügung steht, sozusagen in die Situation eines pharmazeutisch wirksamen Moleküls, das auf ein Protein losgelassen wird. An dieser Stelle sei angemerkt, daß ein und dasselbe Protein aus der Sicht verschiedener Wirkmoleküle durchaus sehr verschieden aussehen kann. Das Manövrieren mit Molekülen ist vergleichbar mit der Situation, die ein Weltraumshuttle hat, wenn es sich einer Weltraumstation nähert. In diesem Fall kann die Wechselwirkung relativ einfach simuliert werden, aber in unserem Fall ist die Situation viel komplizierter, weil wir das Objekt, an das wir andocken, und die ihm eigenen Eigenschaften nur unvollständig kennen.

Wenn man nun beispielsweise Moleküle und Proteine als virtuelle Objekte im Computer baut, dann muß man doch die Stellen, an denen sie andocken können, bereits vorher konstruiert haben. Was bringt dann die Simulation, um es noch einmal zu fragen, eigentlich, wenn man nicht in diesem Szenario aufgrund des bestehenden, aber unvollständigen Wissens Möglichkeiten ausprobieren kann, die man anders nicht untersuchen kann?

Das ist nicht so fürchterlich kompliziert zu verstehen. Wenn man die Modelle, die all diesen Simulationsrechnungen zugrunde liegen, einmal akzeptiert hat, dann bewegt man sich in einem sehr sauberen Szenario. Man hat eine große Menge von Atomen und deren Wechselwirkungen, die alle durch mathematische Ausdrücke wohldefiniert sind, aber man kann dies nicht dem Computer in systematischer Weise überlassen, weil die Komplexität zu groß ist. Sie ist ungefähr die eines Raumes, der einhundertausend Dimensionen besitzt. Um überhaupt effektiv agieren zu können, muß man diese Komplexität beispielsweise auf drei Dimensionen reduzieren. Wir stellen solch ein Molekül deswegen wie eine zerklüftete Kartoffel dar, indem wir diesem einfach eine aufgrund einer mathematischen Operation berechnete Oberfläche zuordnen, die wir als Referenz betrachten, wo das Molekül anfängt. Nun können wir alle Eigenschaften, die wir aus den Modellszenarien berechnen können, auf diese Oberfläche abbilden. Wir können also auf dieser Oberfläche einen Atlas von Eigenschaften erstellen. Farbcodiert können interessante Stellen abgebildet werden, die beispielsweise eine besonders starke Affinität für eine Wasserstoffbrückenbindung oder für eine polare Gruppe haben. Wenn man Eigenschaften so auf der Oberfläche darstellt und dann dieses dreidimensionale Objekt auf dem Bildschirm von allen seinen Seiten untersuchen kann, dann sieht das zunächst relativ kompliziert aus, aber man kann mit der Mustererkennungseigenschaft, die Menschen haben, sofort die Topologie überschauen. Man kann das Objekt drehen und sofort sagen, daß es an dieser oder jener Stelle aus diesen oder jenen Gründen interessant aussieht. Das Ganze hat etwas mit der Wiedererkennung von Gesichtern zu tun. Auch Gesichter stellen sehr komplexe Muster dar, die man mit den Fähigkeiten des Menschen sehr gut identifizieren kann. Mit einem Automatismus ließe sich etwas nur dann identifizieren, wenn man sämtliche Kriterien in einem Algorithmus fassen kann, was häufig nicht möglich ist. Die Problematik des Erkennens und dessen Automatisierung wird Ihnen sofort klar, wenn Sie einem Dritten erklären sollten, warum Sie mich am Bahnhof, wo ich Sie abgeholt habe, erkannt haben.

Sie sagten, Sie bilden ein Molekül in einer 3D-Darstellung ab. Entspricht dies denn der wirklichen Form des Moleküls, oder ist dies nur eine dem menschlichen Wahrnehmungsvermögen angepaßte Darstellungsform?

Es gibt das Molekül im Sinne eines Teilchens eigentlich nicht. Das Objekt „Molekül“ setzt sich, vereinfachend gesprochen, aus fast punktförmigen Massen zusammen, zwischen denen mikroskopische Felder wirksam sind. Von einem Molekül kann man sich kein Bild im Sinne eines dreidimensionalen fotografischen Bildes machen. Davon gibt es nur Visualisierungen im Sinne eines Modellszenarios. Natürlich kann man sich jetzt darüber streiten, ob dieser oder jener Visualisierungsalgorithmus vernünftig ist oder nicht. Es kommt auch gar nicht so sehr darauf an, ob dies Realität ist oder nicht, sondern wichtig daran ist, in einer möglichst effektiven Weise eine Brücke zwischen den Fähigkeiten des Menschen, der damit umgeht, und der Mathematik zu schaffen, die dahintersteht. Ob man die Moleküle grün, blau oder gestreift einfärbt oder ob man ihnen irgendeine Textur verpaßt, ist völlig nebensächlich.

Trotzdem müssen Wissenschaftler, die solche visuellen Simulationen machen, sich damit beschäftigen, wie sie diese gestalten, damit die Menschen sie auch gut erkennen können. Das ist letztlich auch eine ästhetische Aufgabe. Ich denke dabei etwa an die Visualisierungen der Fraktale, die, obgleich für ihre Schönheit geworben wurde, doch in ihren Farbwerten oft recht kitschig geraten. Offensichtlich weisen die Wissenschaftler der ästhetischen Gestaltung keinen Wert zu, weil dies, wie Sie eben auch sagten, nebensächlich ist.

Sie haben sicherlich recht, daß die meisten Visualisierungen und auch das, was unter dem Namen der wissenschaftlichen Visualisierung in Amerika bereits einen großen Raum einnimmt und von vielen Firmen kommerziell angeboten wird, sich damit überhaupt nicht auseinandersetzen. Es wird nicht berücksichtigt, daß die Leute, die vor irgendeiner Visualisierungsmimik sitzen, nicht irgendwelche Farbdetektoren, sondern Menschen sind. Das liegt daran, daß diese Programme meist von Informatikern oder Naturwissenschaftlern geschrieben werden, denen es darum geht, etwas zu differenzieren. Man möchte etwa in der militärischen Anwendung zwei sehr nah beieinanderliegende Grautöne in einem Luftbild scharf voneinander differenzieren, um möglicherweise einen Panzer, der unter einer grünen Tarndecke liegt, von einem danebenstehenden grünen Baum zu unterscheiden. Weil diese Differenzierung wichtig ist, muß man Farben wählen, die möglichst verschieden sind. Ob man das nun gerne sieht, ist egal, es geht nur darum, daß man irgendetwas identifizieren kann, was man sonst nicht erkennen würde. Wenn man aber als Mensch den ganzen Tag mit solchen Szenarien kommuniziert und sich diese Szenarien auf dem Bildschirm schaurig darstellen, dann wird es einem unwohl. Die Leute, die diese Visualisierungsprogramme oft in guter Absicht über Fraktale gemacht haben, haben sich wohl überhaupt nicht mit deren Rezeption beschäftigt. Über Farbharmonie wird überhaupt nicht nachgedacht, wobei man dies vielleicht nicht kann, sondern man dies fühlen muß. Wenn Sie das Fernsehen anschauen, so ist das meist auch nicht besser. Diese schimmernden, grauslichen Dinge, die abends auf einen zuschweben, sind künstlerisch einfach katastrophal. Bei den Wissenschaftlern sagt man sich natürlich, daß das ja nicht so schön aussehen muß, Hauptsache, es ist bunt und man kann es unterscheiden. Das ist nicht meine Meinung. Ich bin der Leiter einer Arbeitsgruppe, die ein großes Visualisierungsprogramm MOLCAD entwickelt hat, das inzwischen weltweit im Einsatz ist und einen gewissen Visualisierungsstandard darstellt. Die Leute können aufgrund der Farbzusammensetzungen und -harmonien erkennen, daß eine Moleküldarstellung MOLCAD-Bild ist, wenn sie es sehen. Ich achte sehr streng darauf, daß nichts aus meiner Arbeitsgruppe herauskommt, was in der Farbharmonie große Macken aufweist. Niemand arbeitet gern mit einem Arbeitsgerät, das ihm überhaupt nicht behagt.

Dem Computer ist die visuelle Darstellung ja vollkommen egal. Er rechnet einzig mit den eingegebenen Zahlenfolgen. Wenn es aber einmal wirklich intelligente Computer geben sollte, wäre es denn dann für die auch wichtig, Bit-Folgen komplexer Art zu visuellen oder mit anderen Mustern zusammenzupacken, um Strukturen besser erkennen zu können?

In der Mensch-Maschine-Kommunikation wird es immer wichtiger werden, daß die Aufbereitung der Daten in einer dem Menschen angemessenen Weise erfolgt. Die Kommunikation zwischen Computern hingegen wird immer computergerecht bleiben, weil jede andere Form eine hinausgeschmissene Investition wäre, denn das würde bedeuten, daß man einen Computer erzeugt, der Gefühl hat. Bei mir sträubt sich dagegen meine menschliche Grundhaltung. Auch wenn manche meinen, daß sich Künstliche Intelligenz mit menschlicher vergleichen lasse, so hat das doch mit Gefühlen nichts zu tun. Verstehen Sie mich aber mit der Hervorhebung des Gefühls nicht falsch. Gefühl ist einfach etwas, was den Umgang mit dem Medium Computer erleichtert. Ein gutes Gefühl bei der Arbeit erhöht die Effizienz und ist motivierend. Menschen, die Computer immer abgelehnt haben, haben sich beispielsweise bei uns die Bilder angeschaut, sie fanden darüber den Zugang zu den Computersimulationen und saßen dann fast süchtig vor diesen Szenarien. Darin mag eine gewisse Gefahr liegen. Man unterschätzt häufig etwas, das zu schön aussieht. Eine häßliche Grafik wird eher als wissenschaftlich akzeptiert als eine schöne.

Zur Zeit wird viel und fasziniert von der Technik der Virtuellen Realität auch im Bereich der physikalischen oder chemischen Simulation gesprochen, wo man mit Datenhelm und Datenhand diese 3D-Szenarien betreten kann, sie nicht mehr nur als Bild auf einem Bildschirm vor sich hat. Man kann durch entsprechende Mechanismen, beispielsweise Anziehungs- oder Abstoßungskräfte, in der Hand erfahren, wenn man ein Molekül einem anderen nahebringt. Würden Sie sagen, daß diese noch im Realismus weitergehende Darstellungsart, die den Beobachter in das Bild hineinholt, einen erkenntnistheoretischen Gewinn mit sich bringt, oder ist das wissenschaftlich gar nicht weiter bedeutsam für das Bauen von Szenarien?

Da bin ich geteilter Meinung. Vor zwei Jahren war ich in Chapel Hill in North Carolina zu einem Plenarvortrag eingeladen und habe dort das Visualisierungslabor von Fred Brooks besucht, der wohl eine der modernsten Anlagen in dieser Richtung besitzt. Unter anderem gibt es dort solche Hände, in die man hineingreifen kann und mit denen man früher radioaktive Substanzen gesteuert hat. Diese Hände haben auch alle Techniken des Rückdrucks. Wenn man mit dem Computerarm eine Tasse anfaßt und gegen sie drückt, dann spürt man an der Steuerung diesen Gegendruck. Man hat also in der Tat ein nur virtuell existierendes Objekt in der Hand. Das ist sehr wichtig. Wenn das technisch ausgereifter ist, hat das eine Zukunft. Im Augenblick sehen diese Dinge aber noch menschenunwürdig aus. Wenn Sie es fünf Minuten aushalten, in so einem Sturzhelm mit Augenbrillen und so einem Handschuh zu bleiben, dann sind Sie ein guter Testkandidat für jede Folterkammer. Das Einsetzen des Tastgefühls für die Erkundung irgendeines dreidimensionalen Objekts, auch wenn es vom Computer erfunden wurde, wird eine große Bedeutung haben. Ich glaube auch, daß man über die Textur einer Oberfläche zusätzliche Informationen einbringen kann. Heute bilden wir ein Molekül als eine kartoffelartige Oberfläche ab, die man verschieden färbt, so daß diese Farben als verschiedene Qualitäten zu sehen sind. Vorstellen läßt sich, daß diese Oberfläche auch noch verschiedene Rauhheiten haben kann, wodurch man neben der Farbe noch weitere Qualitäten auf ihr unterbringen und beispielsweise zwei Qualitäten gleichzeitig erkennen kann. Häufig ist die Koinzidenz zweier Qualitäten am selben Punkt eine sehr aussagefähige Information. Alle diese Dinge sind aber nur dann vernünftig, wenn sie den Menschen nicht zu einem in ein Gestell geschnallten Beiwerk einer großen Folterkammer macht. In diesem Stadium befindet sich gegenwärtig noch die Virtuelle Realität.

Die Wissenschaften unternehmen immer mehr ihre Experimente in Simulationen oder in solchen virtuellen Szenarien. Was man früher als Gedankenexperiment durchgeführt hat, läßt sich nun als visuelle Simulation in der virtuellen Welt inszenieren. Wie aussagekräftig sind denn solche Experimente? Und wie ist der Schritt von der Virtualität zurück zur physikalischen oder chemischen Realität?

Die Denkweise der Naturwissenschaftler, die mit Simulationen arbeiten, unterscheidet sich eigentlich gar nicht von denen, die früher mit Gedankenexperimenten vorgingen. Ein Gedankenexperiment ist nichts anderes als eine Modellwelt. Man stellt sich ein System mit bestimmten Bestandteilen vor, die in bestimmter Weise miteinander wechselwirken. Auf der Basis dieser axiomatisch festgelegten Grundregeln macht man dann ein Gedankenexperiment. Der Computer mach nichts anderes. Man gibt ihm Regeln, Formeln oder Zahlen vor, und dann läßt man ihn das ausführen, was früher mit einem Bleistift und Papier gemacht werden konnte und was heute wegen der Komplexität vieler Dinge nicht mehr so machbar wäre. Wieweit das anwendbar ist, hängt von dem Modellszenario ab. Ich möchte Ihnen das an einem Beispiel beschreiben, das ich für sehr aussagekräftig halte. Wenn Sie heute in der Pharmaforschung arbeiten, dann hat man vor 50 Jahren alles, was die Chemiker synthetisiert haben, zumindest auf Bakterien und dann auf höhere Organismen losgelassen, um etwas über die Wirkungsweise auf den Menschen herauszubekommen. Das Ziel bestand darin, durch Zufall dadurch ein Medikament für irgendetwas zu finden. Bei einem solchen Vorgehen muß man etwa damit rechnen, daß man zwischen 10 000 oder 20 000 Substanzen synthetisieren und erproben muß, bevor man ein einziges Medikament, das den Durchbruch auf dem Markt schafft, gefunden hat. Man mußte also eine große Zahl von Tierversuchen billigend in Kauf nehmen. Wenn man weiß, wie die Wechselwirkungen von Medikamenten mit den Proteinen funktionieren, wenn man die Kräfte zwischen diesen Molekülen kennt und wenn man sich daraus ein Modellszenario basteln kann, dann lassen sich diese Experimente im Computer vorspielen. Man kann beispielsweise herausfinden, daß von 10 000 Substanzen 9500 überhaupt gar nicht für ein bestimmtes Biomolekül in Frage kommen, weil sie Eigenschaften aufweisen, die nicht passen. Wenn man dies mit weiteren Modellen verfeinert, was in der pharmazeutischen Industrie bereits durchgängig so gemacht wird, dann lassen sich die Substanzen noch weiter reduzieren. Man muß also die Experimente, die teuer und aus humanitären Gründen zum Teil fragwürdig sind, gar nicht erst machen, um herauszufinden, daß etwas für diesen oder jenen Zweck nichts taugt. Die Experimente können reduziert werden, indem man die Ergebnisse von Modellszenarien auf die Realität bei der Entscheidungsfindung heranzieht. Natürlich können einem dabei möglicherweise irgendwelche wichtigen Erkenntnisse durch die Lappen gehen, weil das Modellszenario vielleicht nicht genau zutrifft und so etwas, was in der Realität wichtig ist, nicht beschreiben kann. Dieses Risiko aber muß man eingehen, weil die Alternative untragbar ist. Die Modelle werden auch immer zutreffender und realitätsnäher, weil die Erkenntnisse über die Wechselwirkungen anwachsen. Bislang kann man mit großer Sicherheit mit Computersimulationen prädikativ bei vielen Substanzen ausschließen, daß sie in Frage kommen; den umgekehrten Schluß kann man aber in den meisten Fällen nur eingeschränkt machen, daß etwas in Frage kommt, wenn der Computer dies sagt. Hier müssen dann noch intensivere Untersuchungen auch in der Realität durchgeführt werden.

Heute spricht man davon, daß durch den Computer eine neue Kultur am Entstehen sei, in der Wissenschaften, Techniken und Künste wieder eine größere Gemeinsamkeit haben werden. Vorbild dafür ist die Renaissance und vor allem Leonardo. Sie selber sind nicht nur Wissenschaftler, sondern versuchen auch, mit dem Computer künstlerisch zu arbeiten. Findet denn durch die Universalmaschine Computer, die von allen zu den verschiedensten Zwecken benutzt werden kann, tatsächlich eine Konvergenz statt, die für alle drei Bereiche auch produktiv ist?

Ich bin davon überzeugt, daß dies zumindest in Teilbereichen so sein wird. Dabei haben weder die Kunst noch die Naturwisenschaft oder die Philosophie etwas zu verlieren. Seit Leonardo haben sich Disziplinen und Denkweisen auseinanderentwickelt, und wir sind noch weit davon entfernt, daß hier wieder etwas zusammenwächst. Aber es ist doch beispielsweise heute schon eine erfreuliche Tatsache, daß Sie als Philosoph hier sitzen und sich mit Technik sowie mit den Ideen, die dahinterstecken, befassen. Ich kann mich an Kollegen erinnern, mit denen ich an der Philosophischen Fakultät studiert habe, die sich damit brüsteten, daß sie von Computern überhaupt nichts verstehen. Das war nicht ein selbst zur Schau getragenes Armutszeugnis, sondern darin kam eine gewisse Borniertheit zum Ausdruck, weil hier anklang, daß die Leute, die etwas von Computern verstehen, eigentlich eher Untermenschen seien. Ich bin der Überzeugung, daß das Medium Computer, wie dies auch in der Gesellschaft der Fall ist, sowohl in der Kunst als auch in der Literatur oder in der Musik eine Rolle spielen wird. Dem sehe ich eigentlich mit Gelassenheit entgegen.

Jürgen Brickmann, geb. 1939, studierte Physik und ist Professor für Physikalische Chemie an der TH Darmstadt. Forschungsschwerpunkte sind die Simulation chemischer Elementarprozesse und der Einsatz von Molekülmodellierungsverfahren in der Pharmaforschung, der Materialforschung und der Bio-technologie. Künstlerisch arbeitet Brickmann an der Realzeitvisualisierung von dynamischen Prozessen und setzt Musik in bewegte Computergrafik um.