vorheriger
Artikel
nächster
Artikel
Titel: Existenz am Limit · von Hans-Jochen Luhmann · S. 78 - 91
Titel: Existenz am Limit , 2009

Hans-Jochen Luhmann
Eine kleine Geschichte der schubweisen Aufhebung der Verdrängung des menschgemachten Klimawandels

I. Freigabe aufgrund einer sachlich irrigen moraltheologischen Einstufung der Nutzung des „unterirdischen Waldes“

Als Johann Philipp Bünting im Jahre 1693 die Nutzung von Kohle empfahl, legitimierte er dies damit, dass Kohle einen „unterirdischen Wald“ darstelle. Dies war durchaus wörtlich gemeint, denn er formuliert, „dass die Steinkohlen […] von Gott mit ihrem besonderen Saamen begabet, dass sie sich biss an das Ende der Welt […] vermehren […] sollten“. Diese alchimistisch geprägte Auffassung, Kohle sei „nachhaltig“ nutzbar, weil sie ein „Wald“ sei und folglich nachwachse, hielt der alsbald einsetzenden bergmännischen Erfahrung allerdings nicht lange stand. Damit stand das Unbehagen im Raum: „Die Früchte der Schöpfung waren dem Menschen zum Genuss freigestellt. Was aber, wenn er daran geht, nicht mehr bloß die Früchte, sondern die Schöpfung selbst zu verzehren?“ (Sieferle 1982) Diese Frage, zum Ausgang des 17. Jahrhunderts und also 100 Jahre vor dem Start der fossil-basierten Industriegesellschaft gestellt, ist unverändert aktuell.

II. Verdrängung des Staunens

Zum Ende des 19. Jahrhunderts, hat die Naturwissenschaft ihren Siegeszug angetreten und in der Folge die Stelle des christlichen Glaubens samt Theologie weitgehend eingenommen. Man glaubt nun der Wissenschaft. Ihr Erfolg ist janusköpfig. Einerseits bringt sie eine enorme Neugier der Natur gegenüber mit sich. Die fossilen Brennstoffe werden als aus dem erdsystemischen Verkehr gezogene Biomasse, als gespeicherte Sonnenenergie erkannt – sie wachsen eben nicht nach. Andererseits ermöglicht die Naturwissenschaft europäisch-neuzeitlichen Typs die Entwicklung derjenigen Technik, die das Industriezeitalter kennzeichnet und die zu einem raschen Anstieg des Verbrauchs fossiler Energie führt. Spätere Zeiten werden den Menschen dieser Epoche vielleicht als homo industrialis bezeichnen. Die Energienutzung in diesem Gesellschaftskonzept war nicht nachhaltig. Das sorgte in Großbritannien, dem Mutterland der industriellen Revolution, schon bald für tiefe Beunruhigung. Die heute noch nachvollziehbaren Indizien für diese Beunruhigung beziehen sich erstaunlicherweise vor allem auf die Aufkommensseite, nicht auf die Abfallseite: William Stanley Jevons schrieb das berühmte Buch „The Coal Question“, und das Parlament debattierte, ob man die britischen (heimischen) Kohlereserven nicht durch ein Exportverbot gegen zu frühe Ausbeutung schützen sollte.

Die bemerkenswerte Kehrseite dieser Entwicklung war, dass die Fähigkeit verloren ging, naheliegende Fragen zu stellen, etwa darüber, wohin das Abgas der Kohleverbrennung eigentlich, angeblich folgenlos, verschwinden solle. Vielsagend ist die lange verbreitete Mär vom „unendlichen Luftmeer“, eine Vorstellung, die an Clemens Winkler festzumachen ist. Winkler, ein bekannter Chemiker und Ingenieur, tätig in den Freiberger Hütten im königlichen Sachsen, war ein einflussreicher Sprecher für das herrschende Naturverständnis im ausgehenden 19. Jahrhundert. Sein herausfordernder Satz lautet: „Die Massen verbrauchter Steinkohle verschwinden spurlos in dem gewaltigen Luftmeer“ (nach Wisclenius 1901). Winkler hatte sich die Frage, ob die Verbrennung von Kohle die Atmosphäre verändern könnte, immerhin so gestellt, dass er eine explizite Antwort gab. Er hat mögliche Folgen mit großer Bestimmtheit verneint: Die Pflanzen seien imstande, das ausgestoßene CO2 gänzlich und umgehend aufzunehmen. Doch diese substanzlose Behauptung deutet eher darauf hin, dass er die Frage nicht wirklich erwogen hat.

Wie denn sollen Vorräte aus 400 Millionen Jahren, in 300 Jahren verbrannt, auf der Erdoberfläche in Form von Bäumen umgehend Platz finden? Dass wir (inzwischen) pro Jahr verbrennen, was erdgeschichtlich in 1 Mio. Jahre gebildet wurde, dieses „Unmaß“ kann nicht anders, als einen Ausdruck finden – der erste und nächstliegende ist der „unmäßige“ Anstieg im geringsten aller Depots im globalen Kohlenstoffkreislauf, der Erdatmosphäre. Der Verdacht liegt nahe, im Winklerschen Satz drücke sich Wunschdenken aus – wer das Ausgesagte glaubt, hat mögliche Folgen, darunter eine Klimaänderung, nicht zu fürchten. Winklers Aussage offenbart somit, gegen seinen Wortlaut, die Sorge, die eben doch latent herrscht und die der Befürchtung wegen der Knappheit der fossilen Brennstoffe als ihr Komplement entspricht: die Sorge, dass die Produkte der Kohleverbrennung doch nicht einfach folgenlos „verschwinden“.

III. Historische Tiefenschärfe

Sorgen aber sind für die moderne (Natur-)Wissenschaft nur „Werte“ und haben in ihr keinen rechten Platz. Wer das verbreitete emotionsfreie Sprechen in der Wissenschaft über „Werte“ als Mangel empfindet, der ist methodisch gut beraten, den historischen Ort aufzusuchen, an dem ein Wert einstmals entstanden ist. Ich gehe davon aus, dass Werte ihre Wurzeln in Affekten haben, deren zeit- und anlassbedingte Emotion verloren gegangen ist – ein Wert ist also eine Projektion eines ursprünglichen Affekts. Will man in der heutigen Diskussion um die „Sicherheit des Wissens“ nachvollziehen, um was für Werte es eigentlich geht, dann muss man sich mit der zeitgenössischen Wahrnehmung des Problems wie zugleich mit dem zeitgenössischen Wegsehen vor dem Problem befassen. Man hat aufzuzeigen, wie es – mit zunehmendem Erschrecken – schließlich zu der Einsicht kam, dass die massenhafte bzw. unmäßige Verbrennung von fossilen Brennstoffen eben doch fatale Folgen zu haben verspricht. Dafür muss man an die historischen „Stätten des Erschreckens“ zurückkehren. Für einen solchen Zugang bieten sich Bücher von Wissenschaftshistorikern an (zusammenfassend: Luhmann 2001; Weart 2004). Gängig ist dort die Behauptung, Jean Baptiste Fourier sei 1827 der erste gewesen, der die Erdatmosphäre mit einem Treibhaus-Glasdach verglichen habe. Allerdings hat Fourier diesen Gedanken bereits in seinem Opus magnum von 1822 entwickelt und dort beschreibt er auch nicht viel mehr als bereits Ferdinand de Saussure bei seinen Experimenten in den 70er Jahren des 18. Jahrhunderts herausgefunden hatte.

IV. Sorge vor neuer Eiszeit

Geht man die Literatur des 19. und der ersten Hälfte des 20. Jahrhunderts durch, so zeigt sich, dass die meistzitierten Autoren zur Klärung der anstehenden Fragen überraschend wenig beigetragen haben. Vielmehr sind es die Empiriker, die für den Fortschritt sorgen, hinter den großen Theoretikern wie Fourier und Svante Arrhenius aber zurücktreten. Den entscheidenden Schritt zum Verständnis des Treibhauseffekts hat der Ire John Tyndall getan, der die Absorptionseigenschaften von verschiedenen Gasen maß und darüber im Mai 1859 der Royal Society in London berichtete – sein lebensnahes Motiv war, das so beglückend günstige Mikroklima in den berühmten englischen Gärten zu erklären. Nach seiner Analyse erwiesen sich die Hauptbestandteile der Luft, Sauerstoff und Stickstoff, als „beinahe transparent für Strahlungswärme“, während Wasserdampf, Kohlendioxid und Ozon, die nur einen geringen Anteil der Luft ausmachen, bezüglich der Strahlungsbilanz, der bemerkenswerten Opakheit im langwelligen Bereich, im Fall der Rückstrahlung vom Erdboden aus, am stärksten ins Gewicht fallen. Die (scheinbare) Nicht-Linearität des Erwärmungs-Mechanismus war mit Tyndalls Messungen etabliert. Man konnte erwarten, dass kleine Ursachen, d. h. geringe Änderungen in der stofflichen Komposition der Erdatmosphäre, große Wirkungen in Form einer wesentlichen Änderung der „ganzen“ Lufttemperatur zeitigen werden. Doch in Wahrheit ist „das Ganze“ nur ein Teil in der Atmosphäre, der die Temperatur steuert – und das sind eben allein die Treibhausgase. Relativ zu ihrem vorgefundenen erdatmosphärischen Bestand ist die menschliche Zuführung seit etwa 1870 nicht klitzeklein, sondern groß.

Arrhenius war es dann, der im Jahre 1896 die Beobachtungen anderer kompilierte und so etwas wie einen gesetzlichen Zusammenhang postulierte, den wir heute im Parameter „Klimasensitivität“ fassen. 1912 formulierte er den häufig kolportierten Satz, eine Verdoppelung des CO2-Gehalts der Atmosphäre werde zu einem Anstieg der Temperatur an der Erdoberfläche um 5 °C führen. Ein Anstieg der Temperatur allerdings war nicht die Sorge, die Arrhenius leitete. Er wollte vielmehr die Eiszeiten erklären, seine Sorge galt ihrer drohenden Wiederkehr – im Original ist der Zusammenhang deshalb andersherum formuliert: Eine Halbierung des CO2-Gehaltes führe zu einer Verminderung der Temperatur um 5 °C (Crawford 1996). Anders gesagt: Der Zusammenhang der Änderungen von THG-Konzentration und Lufttemperatur folgt einer logarithmischen Funktion. (Abb.1)

Versteht man Climate Change so wie in der „Framework Convention on Climate Change“ definiert, so kann es nicht um die Erklärung eines „vorliegenden“ Phänomens wie dem der wiederkehrenden Eiszeiten gehen. Die historisch einmalige Zunahme des atmosphärischen CO2-Gehaltes im Zuge der Industrialisierung ist an der Jahrhundertwende allerdings noch keine Tatsache und deshalb nicht leicht erkennbar. Diese Entwicklung zum Gegenstand der Betrachtung zu machen, war wissenschaftlich wenig reputabel, da es nicht um Erklärung eines Faktums, sondern um Klärung einer Sorge und Warnung vor Zukünftigem ging, das, wenn den Warnungen gefolgt wird, nicht einmal eintritt, nie ein Faktum wird.

V. Trügerische „Sicherheitsbarrieren“

Es gab verschiedene Anhaltspunkte für die Befürchtung, die Kohleverbrennung werde nicht ohne Folgen bleiben. Doch diese Sorge wurde im Status der Latenz gehalten. Das führte dazu, dass sie nicht so ernst genommen wurde, wie man sie – im Rückblick gesehen – offenbar hätte nehmen müssen. Dass diese Anhaltspunkte für die Bereitschaft, die fossil basierte Industrialisierung als Risiko wahrzunehmen, nicht zu einem Durchbruch geführt haben, könnte an ihrem Charakter als «gestaffelte Barrieren» liegen. Man glaubte 1. die Emission von CO2 würde nicht so schnell wachsen, wie es real der Fall war, 2. das CO2 würde sich nicht in der Atmosphäre ansammeln, es würde umgehend abgeleitet, 3. das zusätzliche CO2, falls es sich denn doch in der Atmosphäre ansammelte, hätte keinen zusätzlichen Treibhauseffekt und 4. übersah man die übrigen Treibhausgase und selbst den CO2-Austoß, der sich aus der Änderung der Landnutzung ergab. Diese Vierheit an Vorbehalten ist so kunstvoll gestaffelt, dass der Betrachter aus historischer Distanz an Zufall kaum glauben mag.

Der erste Anhaltspunkt betrifft die Natur der industriellen Entwicklung selbst. Angemessen wäre gewesen, mit Analogien aus biologischen Wachstumsprozessen, also mit Exponential-Funktionen, zu arbeiten. Üblich aber war, vorliegende Beobachtungen linear zu extrapolieren und damit die Entwicklung drastisch zu unterschätzen. Noch bis weit in die zweite Hälfte des 20. Jahrhunderts hinein ging man davon aus, zur Klärung der Fragen stünde noch sehr viel Zeit zur Verfügung. Diese Annahme scheint seitens der Wissenschaft erst Anfang der 1980er Jahre als Irrtum erkannt worden zu sein. In der Folge kam es zu der hastigen Gangart, mit der in dieser Frage gegenwärtig agiert wird.

Der zweite Anhaltspunkt war die Erwartung, die Erdatmosphäre werde sich nicht als der prekäre Zwischenspeicher erweisen, als der sie inzwischen erkannt ist – die Bedingungen für die Ableitung von CO2 in den Ozean hätten weit günstiger sein können. Dass Arrhenius’ Überlegungen keinen Schrecken auslösten, lag wohl daran, wie der US-amerikanische Wissenschaftsjournalist Jonathan Weiner (1990) eruiert hat, dass man bezweifelte, CO2 sammle sich in der Atmosphäre an. Wenn die Menschen der Luft Kohlendioxid zufügten, so die einfache chemische Vorstellung, würde das zusätzliche Gas mit dem Kalzium im Meerwasser reagieren und auf den Meeresgrund sinken. Diese Hoffnung wurde Mitte der 1950er Jahre zerstört. Da klärten Hans Suess und Roger Revelle, warum die Chemie des Meerwassers verhindert, dass der Ozean alles anthropogen ausgestoßene Kohlendioxid umgehend aufnimmt. Ein bereits durchgeführter Großversuch mit dem System Erde, die Atombombentests, bot mit dem 14C-Atom einen geeigneten Marker, um dies zu belegen. Inzwischen ist das Selbstverständliche deutlich, dass nämlich diese Vorstellung erst recht für die Biologie der Meere unangemessen ist. Auch die Meere sind bekanntlich ein Habitat. Drastische Versauerung beeinträchtigt Leben – sofern die Ableitung des oberflächennah gelösten CO2 in den Tiefenozean von Lebewesen erbracht wird, ist mit einer Einschränkung dieser Leistung zu rechnen.

Der dritte Anhaltspunkt betraf die Absorptionseigenschaften von CO2 selbst. Es bestanden Zweifel, ob zusätzliches CO2 überhaupt eine bedeutende Verstärkung des Treibhauseffektes mit sich bringen könnte. Tatsächlich sind die Absorptionsbanden von CO2 um 15 µm gesättigt und für diesen Bereich ist die Behauptung zutreffend, zusätzliches CO2 führe nicht zu einer Erhöhung des Treibhauseffekts. Allerdings absorbiert CO2 auch in den Randbereichen der Bande bei 15 µm und bei 10 und 5 µm, wo noch keine Sättigung erreicht ist. Es sind diese Bereiche, in denen der anthropogene Treibhauseffekt des CO2 zustande kommt.

Der vierte Anhaltspunkt schließlich liegt in einer vielsagenden mangelnden Präzision der Fragen, die die Wissenschaft gestellt hat. Dies führte dazu, dass die übrigen menschgemachten Beiträge zum Treibhauseffekt, je nach Berechnungsweise gegenwärtig in Höhe von immerhin je 25 oder 50 %, lange „übersehen“ wurden. Das Phänomen ist nicht neu sondern aus der Geschichte der (verzögerten) Entdeckung anderer Umweltprobleme wohlbekannt. Eine rätselhaft fruchtlose Phase von 15 Jahren während der 1960er und 70er Jahre, in der die US-amerikanische Klimaforschung kaum Fortschritte erzielte, haben die Wissenschaftshistoriker David Hart und David Victor (1993) aufgeklärt. Den Grund für die Verzögerung formulieren die beiden Historiker sarkastisch: „Carbon cycle researchers did not, by definition, ask the question: How fast are greenhouse gas levels rising?“ Die Aufgabe, die „richtige“, die Frage in vollem Umfang zu stellen, also ob es weitere Treibhausgase neben dem als pars pro toto genommenen CO2 gibt und welche Bedeutung sie haben, hätte man offenbar nicht der Fachwissenschaft alleine überlassen dürfen – sie funktioniert, auf sich selbst gestellt, auch nicht sachbezogener als andere Disziplinen, mit denen man deshalb angemessen umzugehen vermag, weil man ihre Interessenfokussierung in Rechnung stellt.

Der Treibhauseffekt der sogenannten technischen Gase, überwiegend der ozonschichtzerstörenden Substanzen wie FCKW, wurde der Klima-Community zwar spät, aber schließlich doch noch zu Bewusstsein gebracht. Bert Bolin (2007) schreibt in seinen Erinnerungen, dass dieser Beitrag noch nicht in den beiden NAS Assessments (publiziert in 1979 und 1983) berücksichtigt, in dem von ihm initiierten Assessment von 1986, dem „Villach Report“, aber enthalten gewesen sei. Aufgenommen worden ist der Beitrag, weil Veerabhadran Ramanathan, der Entdecker dieses Effekts, ein 1985 publiziertes Manuskript dem Review Team vorab zugänglich gemacht habe. Der Vorgang weist eine doppelte Pointe auf: 1. Ramanathan hatte die Tatsache, dass FCKW potente und langlebige Treibhausgase sind, eigentlich schon 1975, und zwar sehr prominent (in Science), publiziert und 2. die schiere Größenordnung des Übersehenen: „A closer analysis of the radiative properties of methane, nitrious oxide and chlorofluorocarbons (CFCs) showed that their collective role as greenhouse gases in the atmosphere might be almost as large as that due to the enhanced concentrations of carbon dioxide.”(Abb. 2)

Auf den Zuwachs bezogen, ist das Zahlenverhältnis auch im ersten Assessment Report des IPCC (FAR, 1990) in Form einer Grafik präzisiert worden (vgl. Abbildung 2). Sie zeigt, dass in den drei Jahrzehnten seit 1960 die FCKW je für etwa ein Viertel (!) des Zuwachses an menschgemachtem Klimawandel verantwortlich waren. Bei diesem Viertel handelt es sich im Jahrzehnt 1980–90 um 0,13 von 0,54 W/m2. Ein Viertel aufgrund mangelhaft gestellter Fragen zu übersehen, ist ein erschreckendes Verfehlen seitens der Wissenschaft.

VI. Wärmer galt als besser

Der Sorge um mögliche Folgen der Nutzung fossiler Brennstoffe wurde somit in erstaunlich zielsicherer Weise ausgewichen. Damit liegt die Frage nahe, woran sich „die“ (gesellschaftliche) Debatte denn gehalten habe. Der Wissenschaftshistoriker James Rodger Fleming deutet wenig überraschend an, die Diskussion sei im wesentlichen von „vorliegenden“ Tatsachen gesteuert gewesen, d. h. vom auffallend irregulären Temperaturverlauf in der Mitte des 20. Jahrhunderts. Wie Abbildung 3 zeigt, ist die Erdmitteltemperatur von 1910 bis 1940 um 0,5 °C gestiegen, bis Mitte der 1970er Jahre um etwa 0,2 °C gesunken, und seitdem wieder um 0,6 °C gestiegen. Für diejenigen, die vom Klimawandel erwarten bzw. „fordern“, dass er sich der Menschheit in einem langfristigen Trend zu offenbaren habe, war damit kein menschgemachter Klimawandel „feststellbar“. Die Diskussion, so Fleming, habe einen konjunkturartigen Verlauf genommen, der diesen Temperaturschwankungen entsprochen habe. Seine Stilisierung zeigt beispielhaft, wie das jeweilige Verständnis von Wissenschaft unausweichlich jegliche Wahrnehmung der Klimaproblematik prägt. Die Konsequenz: Das Wissenschaftsverständnis kann als Filter dienen bzw. genutzt werden, um das Bewusstsein vor der Wirklichkeit abzuschirmen. (Abb. 3)

Bei Flemings „Erklärung“ bleibt Etliches unbegreiflich: erstens, weshalb nicht das Faktum „steigende CO2-Konzentration“ bereits Anlass zu Sorge gab – man hätte ja auch die Ursache des menschgemachten Klimawandels fürchten können, nicht erst seine massiv verzögert auftretenden Manifestationen und zweitens, wie es dazu kam, dass heute, anders noch als bei Arrhenius, steigende Temperaturen gefürchtet werden. Zur These des konjunkturähnlichen Verlaufs der wissenschaftlichen Bemühungen passt, dass der kühlende bzw. maskierende Effekt der Aerosole auf die Strahlungsbilanz erst seit Mitte der 1970er Jahre untersucht wird.

Ein zweites Charakteristikum scheint die Debatte viel stärker geprägt zu haben: Das im 19. Jahrhundert aufkeimende Bewusstsein, dass wir uns, wenn auch in ganz anderen Fristen als sie für den menschgemachten Klimawandel bestimmend sind, erneut auf eine Eiszeit zubewegen. Die erste Reaktion darauf, seitens der zumeist britischen und skandinavischen Forscher, die sich vor dem 2. Weltkrieg dieses Themas angenommen hatten, war regelmäßig: „wärmer ist besser“. Das Bewusstsein von der drohenden Eiszeit aber war ein irregeleitetes. Über ein Wissen vom natürlichen Klimawandel in des Wortes prägnanter Bedeutung verfügen wir nämlich erst, seit Ende der 1950er Jahre, nachdem die Physik des natürlichen Klimawandels etabliert wurde – bemerkenswerterweise 100 Jahre später, als die des menschgemachten Klimawandels. Erst seitdem konnten wir „wissen“, dass die gegenwärtige Warmzeit Holozän nicht vom alsbaldigen Abstieg bedroht ist, sondern noch etwa weitere 30.000 Jahre gewährt hätte, bevor der (allmähliche) Abstieg in die nächste Eiszeit anstehen würde. Die angelegte paradiesische Stabilität des Holozäns, die mit dem menschgemachten Klimawandel der letzten hundert Jahre nun verspielt ist, war aus Trendextrapolationen definitiv nicht zu erschließen.

In den Medien wird regelmäßig verbreitet, unter den Klimawissenschaftlern habe in den 1970er Jahren ein Konsens darüber geherrscht, dass eine globale Abkühlung für die nähere Zukunft zu erwarten sei, wenn nicht bereits der Abstieg in die nächste Eiszeit. Dies ist inzwischen systematisch untersucht und aufgeklärt (Peterson et al. 2008). Das Ergebnis: Diese Meldungen beruhen auf einer selektiven Lektüre der damaligen Dokumente seitens einzelner Autoren der Gegenwart bzw. auf der Wiedergabe von damaligen Medienberichten. Sucht man ein Dokument, welches einen zeitgenössischen wissenschaftlichen Konsens zu dokumentieren vermag, bietet sich der Bericht des Wissenschaftlichen Beirats (PSAC) an den US-Präsidenten aus dem Jahre 1965 an. Er enthält, obwohl dessen Anfrage lediglich auf die klassischen Luftverschmutzung zielte, einen Anhang im Umfang von 23 Seiten, in dem in wünschenswerter Klarheit das Problem des Klimawandels durch anthropogene Emissionen von CO2 aus fossilen Energieträgern entfaltet ist (Revelle et al. 1965). Dass der Rest an anthropogenen Treibhausgasen nicht gesehen und somit nicht thematisiert wurde, ist auffällig. Es wurde nur die Hälfte des vom Menschen verursachten Klimawandels von der Wissenschaft wahrgenommen.

VII. Die 1930er Jahre: Wie die erstmalige „balance of evidence“ von den „Fachleuten“ unerhört blieb

Anstrengungen, die Kern-Elemente des Klimasystems in ihrem Zusammenspiel zu klären, hat der Brite George S. Callendar in einer Art Hobby-Forschungsanstrengung am Vorabend des Zweiten Weltkriegs unternommen. Callendar war im Hauptberuf Mitarbeiter einer auf Technologien fokussierten Großforschungseinrichtung. Er war Spezialist im Bereich der Strahlenphysik, also einem von vielen Fachgebieten, die in der Klimaforschung zu integrieren sind. Calendar bilanzierte die bisherigen CO2-Emissionen aus der Verbrennung fossiler Energieträger, klärte die Frage der Infrarot-Absorptionsbanden von CO2 und veröffentlichte Zeitreihen des Temperaturverlaufs in Nord- und Mitteleuropa sowie des Anstiegs des CO2-Gehaltes. Er stieß auf einen positiv korrelierten Zusammenhang zwischen der Verbrennung fossiler Brennstoffe, der Zunahme der atmosphärischen CO2-Konzentration und dem Anstieg der Erdtemperatur. Man könnte seine Überlegungen als eine erstmalige „balance of evidence“ bezeichnen, wie sie in späteren Assessments der Form nach wiederholt wurden. Doch auch mit diesen Untersuchungen kam es nicht zu einem Durchbruch, weder in Fachkreisen noch in der Öffentlichkeit. Hartmut Grassl (2007) ist den Gründen für das fehlende Interesse nachgegangen. Dazu zählt insbesondere die völlig veränderte Prioritätensetzung in Folge des anbrechenden 2. Weltkrieg. Wesentlich verantwortlich dafür, dass Callendars Ergebnisse von der Fach-Community kaum zur Kenntnis genommen wurden, ist aber vor allem das Zusammenspiel 1. seines fachlichen Außenseitertums mit 2. seiner gegenüber der Fach-Community überlegenen Expertise in der Strahlenphysik. Grassl scheut sich nicht, dieses Zusammenspiel in den beiden ersten seiner fünf Erklärungsgründe wie folgt auf den Punkt zu bringen: „Firstly, because 70 years ago prominent meteorologists had no sufficient understanding of thermal infrared radiation (still in parts true today). Although Callendar had formulated the first full theory in his most famous scientific paper on ‘The artificial production of carbon dioxide and its influence on temperature’ published in the ‘Quarterly Journal’ of the Royal Meteorological Society in 1938, most of his established colleagues in meteorology criticised the paper. They mainly questioned his estimates of the CO2 concentration increase from “274 to 292” parts per million by volume (ppmv) in 1900 to “289 to 310” ppmv until 1938. We know now that his first estimates bracket the true values. […] Secondly, Callendar failed because he was a newcomer in the field of meteorology and climatology.” Zudem spielt später, nach dem 2. Weltkriegs, wie zu erwarten wieder die Schlichtheit des Korrelationsdenkens ihre unterstützende Rolle: Der sogenannte „Callendar-Effekt“ verlor nach dem Bruch des Temperatur-Anstiegs in den 1950er Jahren an Überzeugungskraft.

Es bedurfte eines Umdenkens und der Erweiterung der Klimaforschung von einer beschreibenden (aristotelischen) zu einer (neuzeitlichen) physikalischen, eine die Phänomene rekonstruierende Wissenschaft. Der Übergang wurde von H. U. Sverdrup in den 1930er Jahren vorbereitet. Er konzipierte die Klimatologie als Zusammenspiel der größen Strahlung, Wärme und Wasser. Damit entwickelte Sverdrup ein erfolgreiches Konzept, das mit den Daten der militärisch geförderten Meteorologie im 2. Weltkrieg ausgefüllt werden konnte. Militärische Technologien wie Großcomputer und Satellitenmessungen einerseits sowie das, ebenfalls militärisch bedingte, Interesse an der Erforschung der Räume, bilden auch die Basis für die moderne Meteorologie, die in den 1960er Jahren beginnt – deutlich dominiert von den Amerikanern und den Russen. Ohne militärisch dominantes Interesse hätte es die Menschheit vermutlich nicht zustandegebracht, die Selbstbedrohung durch Klimawandel frühzeitig wahrzunehmen, deren Verdrängung im Interesse eigenen Überlebens rechtzeitig aufzuheben.

VIII. Gerichtete Zukunft der Klimasensitivität

Und doch gilt: Die (physikalische) Beschreibung des Klimasystems ist, das Wort sagt es, eine Beschreibung des Klima-Systems – mehr nicht. Dafür steht als zentraler Parameter die „Klimasensitivität” (vgl. Abbildung 1). Das IPCC hat mit seinem Amtsantritt die niedrigsten Werte in der Geschichte der Klimaforschung angegeben – und sich darin kürzlich korrigiert. Maßgeblich für die Entscheidung des IPCC war die Wahl eines Evaluations-Kriteriums für Klimamodelle: Es sollte in der Lage sein, den „besten fit während der letzten 50 bis 80 Jahre” (Bolin 2007; Luhmann 2009) zu geben. Eine Analyse des Grundes der Korrektur mit dem Bericht aus dem Jahre 2007 zeigt, dass mit dieser einen Korrektur kein Ende des Korrekturbedarfs eingetreten sein wird (Luhmann 2008). In Abbildung 1 steht am Anfang, wie eine Mahnung, der Wert, den Arrhenius auf Basis paläoklimatologischer Analogie angegeben hat. Wenn das, was der Mensch in den letzten 200 Jahren unternommen hat, wirklich ein Eingriff von erdhistorischer Dimension ist, dann ist schwerlich zu erwarten, dass eine Klimasensitivität, die quantitativ gemäß dem eben genannten Evaluations-Kriterium für Klimamodelle bestimmt ist, noch allzu lange den besten fit geben und Bestand haben kann.

Die (physikalische) Beschreibung des Klimasystems ist lediglich die Darstellung eines Teils, der aus einem Größeren und Umfassenderen – hier dem Erdsystem – herausgefiltert worden ist. In dem Maße, in dem diese Isolierung dank der real selbstverständlich stattfindenden Wechselwirkung zwischen Teil und Ganzem „irreal“ ist, wenn also insbesondere wesentliche Rückkopplungen durch die begriffliche Stilisierung des Objekts sich als abgeschnitten erweisen, versucht die Klimawissenschaft nachzubessern: durch Erweiterung des Umfangs an berücksichtigten Teilen (Kompartimenten). Abbildung 4 zeigt diesen Vorgang als Teil der Geschichte der Klima-Wissenschaft. In diesem Sinne ist das Klimasystem nicht wirklich ein Begriff, da er nicht auf ein identisches Objekt in der Zeit zielt. Dieser Sachverhalt trifft auch auf den Begriff der Klimasensitivität zu: Er verändert im selben Prozess der Grenz-Verschiebung zwischen objektiviertem Klimasystem und umhüllendem, nicht-objektivierten Erdsystem seine Bedeutung.

Ist diese methodisch gegebene und deshalb auch durch noch soviel Forschungsanstrengungen unaufhebbare Differenz für den Zweck der stilisierenden Beschreibung wesentlich (störend), so ist das Klimasystem damit dem Begriff, einer allein darauf sich stützenden Wissenschaft, nur unzulänglich zugänglich. Auf der anderen Seite gilt: Wir müssen, um unseres Lebens willen, um das Klimasystem „wissen“, wir sind also gezwungen, unser überkommenes Verständnis von Wissensgenerierung der Eigenart des zu Erkennenden, seinen Besonderheiten, anzupassen. Die Konsequenz kann nicht sein, immer nur weiter in die sachbezogene Forschung zu investieren, mit dem Ziel, die Sicherheit des Wissens vom Klimasystem zu erhöhen; die Wissenschaft muss sich vielmehr in ihrem Selbstverständnis bewegen, d. h. in Richtung einer nicht sachbezogenen sondern reflexiven Ebene des Fortschritts der Wissenschaft. Der Wissenschaft ist mit der geschichtlichen Situation aufgegeben, mehr zu erkennen, als sie begrifflich fassen kann.

IX. Schlussbemerkung

In diesem Aufsatz wurde eine Aufklärung über den menschgemachten Klimawandel über einen speziellen Zugang gesucht: die Geschichte der allmählichen Wahrnehmung. Der Grund für diese Wahl ist der Eindruck, dass viele Zeitgenossen nicht fähig sind, zu befürchten, was zu fürchten ist – der elementare Affekt ist vom rationalistischen Zweifel überlagert. Die Unsicherheit dieser Personen kommt in ihrer Forderung nach einer „Sicherheit des Wissens“ zum Ausdruck, die undifferenziert ist – als wenn ihre Sorge nicht zu aller erst der Sicherheit ihrer selbst und der ihrer Kinder zu gelten habe. Besonders häufig wird diese Forderung von Naturwissenschaftlern gestellt – sie kennen schließlich die Möglichkeiten der Manipulation von Modellen bzw. um die Schwierigkeiten und den erbärmlichen Stand der Qualitätssicherung von Modellen in der Wissenschaft; sie wissen, wie man mit ihnen Ergebnisse zu erzeugen vermag, die lediglich Vorurteile spiegeln und nicht Schritte wahrhaftigen Lernens im Umgang mit Systemen darstellen, die als Ganze nicht objektivierbar sind. Das macht gerade diesen Personenkreis für die von interessierten Kreisen absichtsvoll lancierten „Diskussionsbeiträge“ der sogenannten Klimaskeptiker verführbar. Den verlorenen Zugang zur Wahrnehmung des eigenen Affekts kann man sich aber erneut durch Erinnerung bahnen – an das Erschrecken vor dem, was nur erschreckend wahrgenommen werden kann. Das ist die methodische Maxime, der hier gefolgt wurde.

Literatur
Bert Bolin, A History of the Science and Politics of Climate Change, Cambridge 2007
Herbert Breger, Die Natur als arbeitende Maschine. Zur Entstehung des Energiebegriffs in der Physik 1840 – 1850, Frankfurt am Main 1982
Elisabeth Crawford, Arrhenius. From Ionic Theory to the Greenhouse Effect, Canton, MA, 1996
James Rodger Fleming, Historical Perspectives on Climate Change, New York/Oxford 1998
Hartmut Grassl, „Guy Stewart Callendar: A Pioneer of Anthropogenic Climate Change Theory”, in: Gaia, 16 (2007), Nr. 3, S. 161–240
David M. Hart/David G. Victor, „Scientific Elites and the Making of US Policy for Climate Change Research, 1957–74”, in: Social Studies of Science (SAGE), vol. 23, 1993, S. 643–80
Hans-Jochen Luhmann, „Wie viel hält die Erde aus? Sein oder Nicht-Sein des menschgemachten Klimawandels“, in: Evangelische Aspekte, 19. Jg., Heft 2/2009, S. 37–39
Hans-Jochen Luhmann, „Klimasensitivität, Leben und die Grenzen der Science-Kultur. Zum Vierten IPCC-Sachstandsbericht“, in: Gaia, 17 (2008), Nr. 1, S. 25–30
Hans-Jochen Luhmann, „Ich bin klein, mein Herz ist rein. Das Experiment mit der Lebensgrundlage, dem Klimasystem oder … auf der Suche nach der verlorenen Erinnerung an das Erschrecken über sich selbst“ in: ders., Die Blindheit der Gesellschaft. Filter der Risikowahrnehmung, München 2001, S. 155–182
Thomas C. Peterson/William M. Connolley/John Fleck, „The Myth of the 1970s Global Cooling Scientific Consensus”, in: Bulletin of the American Meteorological Society (BAMS), Sept. 2008, S. 1325–1337
Roger Revelle/W. Broecker/H. Craig/C. D. Keeling/J. Smagorinsky, „Appendix Y4: Atmospheric Carbon Dioxide“, in: Donald F. Hornig et al., Restoring the Quality of Our Environment, Washington 1965, S. 111–133
Engelbert Schramm, Im Namen des Kreislaufs. Ideengeschichte der Modelle vom ökologischen Kreislauf, Frankfurt am Main 1997
Rolf Peter Sieferle, Der unterirdische Wald. Energiekrise und Industrielle Revolution, München 1982
Spencer R. Weart, The Discovery of Global Warming = New Histories of Science, Technology and Medicine, Cambridge (Mass.)/London 2003
Jonathan Weiner, Die nächsten hundert Jahre, München 1990
Hans Wisclenius, „Zur Beurteilung und Abwehr von Rauchschäden“, in: Zeitschrift für angewandte Chemie, 14. Jg., 1901, S. 701

von Hans-Jochen Luhmann

Weitere Artikel dieses/r Autors*in