Seit nahezu 400 Jahren beruht die Wissenschaft auf einem klassischen Zweischritt: Experiment und Theorie. Mithilfe von Lupe, Mikroskop, Fernrohr und anderen Instrumenten suchten schon zu Galileis Zeiten Forscher nach den Gesetzmäßigkeiten und Regeln hinter den Vorgängen in der Natur. Heute sind die Instrumente der Wahl zwar eher Rastertunnelmikroskop, Weltraumteleskop oder Teilchenbeschleuniger, aber das Grundprinzip ist geblieben: Aus der Beobachtung der Phänomene schließt die Wissenschaft auf die zugrundeliegenden Prinzipien, auf die dahinterstehende allgemeine Theorie.
Aber auch der umgekehrte Prozess hat Tradition: Einige der großen Gesetze und Formeln, die heute unser Weltbild bestimmen, haben ihren Ursprung nicht unmittelbar im Experiment, sondern in der Theorie. Physiker wie Einstein, Schrödinger oder Euler entwickelten ihre bahnbrechenden Gleichungen nicht im Labor sondern am Schreibtisch. Ihre Gültigkeit wurde oft erst im Nachhinein durch Experimente oder Beobachtungen bewiesen.
Doch je weiter die Wissenschaft in die Geheimnisse der Natur eindringt, desto komplexer werden auch die Prozesse. Schon scheinbar alltägliche Wetterereignisse oder Lebensäußerungen wie die Abläufe im Inneren des menschlichen Gehirns entziehen sich der direkten experimentellen Beobachtung. Viele der aufgestellten Hypothesen und Theorien lassen sich daher nur schwer oder gar nicht am Objekt belegen oder gar beweisen.
Abhilfe für dieses Problem schafft heute eine dritte Säule der Forschung – der numerische Ansatz. Computermodelle und Simulationen schaffen virtuelle Abbilder der Natur, indem sie die Auswirkungen der bekannten Naturgesetze auf fast jede beliebige Art und Zahl von Beobachtungsdaten und Parametern anwenden können.