dimagb.de

.: Home  .: Startseite: Umwelt/Klima  .: Suchen



.: richtigbauen.de   .: richtigsanieren.de   .: schimmelpilz-sanieren.de

Das ist eine Archivseite. Achten Sie auf das jeweilige Datum der einzelnen Artikel.

Infotipp:
:: Artikel im Download
bei
richtigbauen.de
:: Energie

 

 


Auf dieser Seite

 

Nachtrag zum "Treibhauseffekt"

... vielleicht hatten Sie gesehen, daß ich in diesem Frühjahr zwei sehr ähnliche Veröffentlichungen in der ew Elektrizitätswirtschaft und Fusion hatte, die ich seit einigen Wochen auch im Internet plaziert habe: „Die Erdatmosphäre – ein Wärmespeicher“ http://people.freenet.de/klima/wspeicher.htm .

Nach dieser Veröffentlichung entspann sich noch eine Diskussion, deren Ergebnis ich als Nachtrag an diese Internet-Seite angehängt habe. Hier ist dieser Nachtrag:

****

Nachtrag – Überlegungen zum sogenannten „Treibhauseffekt“

Nach Veröffentlichung des vorstehenden Artikels wurde in einer internationalen Diskussionsrunde nochmals die Erklärung des sogenannten „Treibhauseffektes“ detailliert besprochen. Als Lehrmeinung gilt heute eine Auffassung, wie sie auch auf der Seite des MPI Met http://www.mpimet.mpg.de/index.html [20] zu finden ist: „(1) Bei einer Erde ohne Atmosphäre wäre die Oberflächentemperatur ausschließlich durch die Bilanz zwischen eingestrahlter Sonnenenergie und der vom Boden abgestrahlten Wärmestrahlung festgelegt. (2) Bei gleicher Albedo des Planeten wie heute würde diese Oberflächentemperatur im globalen Mittel etwa -18°C betragen. (3) Selbst eine Atmosphäre aus reinem Sauerstoff und Stickstoff, die ja die Hauptkomponenten unserer Atmosphäre (zu ca. 99%) bilden, würde daran nichts wesentliches ändern, da diese Gase die beiden genannten Strahlungsarten nur unwesentlich beeinflussen."

Sehr ähnliche Darlegungen findet man im Grunde in zahlreichen einschlägigen Fachbüchern, soweit sich die Autoren der herrschenden Meinung angeschlossen haben, beispielsweise auch in J. Houghton, Globale Erwärmung [21]. Aus diesen Darlegungen ist zumindest das Grundgerüst der Denkweise der Anhänger der „Treibhauseffekt“-Hypothese zu erkennen.

Ein Teilnehmer der Diskussion, der US-Amerikaner John Shotsky, hat zur kritischen Würdigung der herrschenden Meinung ein Modell betrachtet, in dem drei Planeten verglichen werden, alle in gleicher Position zur Sonne und mit gleicher Albedo wie die Erde einschl. Atmosphäre:

Planet 1 soll keine Atmosphäre besitzen. Auf diesen Fall träfen Satz 1 und 2 der Erklärung des MPI Met zu, sofern man den Fehler, der sich aus der grundsätzlich falschen Mittelwertbildung der von der 4. Potenz der absoluten Oberflächentemperatur abhängigen emittierten Strahlungsleistung toleriert. (Da die Abstrahlungsleistung aus Regionen, wo die Planetenoberflächentemperatur bei hoher Sonneneinstrahlung die Bereiche von 80°C (353 K) erreicht, z.B. um 265% höher ist als dort, wo die Oberflächentemperatur die vielfach angesetzten „mittleren“ -18°C (255 K, siehe Satz 2) beträgt, geschieht die Abstrahlung vorwiegend aus den Gebieten mit hohen Oberflächentemperaturen. Als Konsequenz bleibt für die kälteren Gebiete nur noch sehr wenig abzustrahlende Wärme übrig. Eine globale, auf die Planetenoberfläche bezogene Mittelwertbildung der abgehenden Strahlung ist von daher systematisch falsch und führt zu wesentlich zu hohen mittleren Oberflächentemperaturen und damit unsinnigen Ergebnissen.)

Planet 2 soll die irdische Atmosphäre haben. Die Verhältnisse sind bekannt, wir erleben sie täglich. Die „globale“ Mitteltemperatur in 2 m über der Planetenoberfläche wird üblicherweise mit +15°C bzw. 288 K genannt.

Planet 3 soll nun eine modifizierte, nichtstrahlende Atmosphäre haben, und zwar wie nach Satz 3 der Erklärung des MPI Met (analog auch bei J. Houghton). Hier wird von der herrschenden Meinung behauptet, dass die Temperaturverhältnisse in der bodennahen Atmosphärenschicht (2 m über Planetenoberfläche) praktisch gleich wären der Oberflächentemperaturen des Planeten 1.

Shotsky weist darauf hin, daß der Wärmeeintrag in die nichtstrahlende Atmosphäre durch Konvektion auch beim Planeten 3 ungehindert stattfinden würde. Ein Wärmeaustrag aus einer solchen Atmosphäre wäre jedoch nicht durch Strahlung möglich, sondern nur durch Kontakt mit der Planetenoberfläche. Da aber infolge der Dichteunterschiede die kälteren Atmosphärenschichten stets unten, also an der Planetenoberfläche sind, wärmere Atmosphärenmassen werden unverzüglich in die Höhe abgeführt, kann lediglich die Wärmezufuhr von der Planetenoberfläche in die Atmosphäre stattfinden, es können aber keine nennenswerten Wärmemengen aus der Atmosphäre an die Planetenoberfläche abgeführt werden. Eine solche Atmosphäre heizt sich auf, bis sie etwa die höchste auftretende Oberflächentemperatur des Planeten angenommen hat. Eine weitere Wärmeaufnahme in die Atmosphäre wäre dann wegen des nicht mehr vorhandenen Temperaturgefälles zwischen Planetenoberfläche und Atmosphäre nicht mehr möglich. Damit würden nach Beobachtungen des Verfassers ca. 80 bis 100°C Atmosphärentemperatur erreicht, nämlich jene Temperaturen, die bei starker Sonneneinstrahlung in der Sahara als Bodenoberflächentemperaturen anzutreffen sind. Die thermischen Bedingungen oberhalb der festen Planetenoberfläche werden also durch das Fehlen oder Vorhandensein einer Atmosphäre bestimmt. Ist keine Atmosphäre vorhanden, ist die Planetenoberfläche der äußerste Ort, für den Wärme nachweisbar ist. Oberhalb der Planetenoberfläche gibt es mangels Materie auch keine Wärme mehr. Bei Planeten mit Atmosphäre wird in diesen Atmosphären Wärme gespeichert. Und für die thermischen Verhältnisse in den Atmosphären ist auch maßgeblich, ob überhaupt und auf welche Weise Wärme wieder ausgetragen werden kann. Bei der Erdatmosphäre geschieht dieser Austrag durch die strahlungsaktiven Substanzen. Ohne diese strahlungsaktiven Substanzen würden global gleichmäßig in der Atmosphäre jene Temperaturen herrschen, die am heißestem Punkt der Erdoberfläche zum Wärmeeintrag in die Atmosphäre wirksam sind.

So ist zu schließen, dass in der Reihenfolge der Oberflächen- bzw. oberflächennahen Temperaturen die verglichenen Planeten folgende Ränge einnehmen:

Kältester Planet: Planet 1, Planet ohne Atmosphäre,

Heißester Planet: Planet 3, Planet mit nichtstrahlender Atmosphäre,

Dazwischen: Planet 2, Planet mit strahlender Atmosphäre, wie unsere Erde.

Diese Analyse der Wirkungen der Atmosphäre überhaupt und noch mit unterschiedlichen Atmosphäreneigenschaften führt zu dem Schluß, daß die strahlungsaktiven Substanzen in der Erdatmosphäre, das sind vor allem die sogenannten „ Treibhausgase “, die Atmosphäre kühlen, indem diese Wärme aus der Atmosphäre ins All abstrahlen. Damit ist aber auch die Behauptung widerlegt, dass die „Treibhausgase“ zur Erwärmung der Atmosphäre beitragen. Grundsätzlich ist das Gegenteil der Fall: Ohne die sogenannten „Treibhausgase“ in unserer Atmosphäre wäre die Erde für die Menschheit ein unbewohnbarer Ort! Nicht weil es zu kalt wäre, nein, es wäre unerträglich heiß! Es ist also unzutreffend, daß der sogenannte „ Treibhauseffekt " der strahlungsaktiven Substanzen in der Erdatmosphäre, der nach [20] 33°C betragen soll (Temperatur im bodennahen Bereich +15°C an Stelle von -18°C), diese Wirkung hat. Vielmehr bewirken die strahlungsaktiven Bestandteile der Atmosphäre, daß die Temperaturen im Lebensbereich der Menschen nicht in der Größenordnung von +80°C (353 K) oder mehr liegen, sondern in einem Bereich, der uns das Leben ermöglicht; insgesamt kühlen also die sogenannten "Treibhausgase" die Erdatmosphäre.

Womit die Hypothese des sogenannten „Treibhauseffektes“, der temperaturerhöhenden Wirkung der „Treibhausgase", endgültig als Quatsch einzustufen ist. Da diese Hypothese jedoch den Befürchtungen um eine Klimagefährdung wie auch den Bemühungen um einen „ Klimaschutz “ als „Wissenschaftliche Grundlage“ dient, gibt es nur eine Konsequenz: Das gesamte Thema endlich durch unvoreingenommene und ausreichend qualifizierte Leute neu durchdenken zu lassen.

****

Vielleicht halten Sie diesen Nachtrag für Ihre und in Ihren diesbezüglichen Informationen erwähnenswert. Meines Erachtens ist die Darlegung von Shotsky sehr bemerkenswert und einfach nachvollziehbar, damit wird die in so vielen Lehrbüchern enthaltene Darstellung des Treibhauseffektes falsifiziert.

Mit freundlichem Gruß
Heinz Thieme
08.08.2005

DIMaGB: Ja, ich halte diesen Nachtrag für erwähnenswert. 20.08.2005


UBA zur Kohlendioxidproduktion in Deutschland

Zunächst das Schreiben vom UBA vom 10.08.2005:

"... Zunächst eine Anmerkung zum Kontext Ihrer Fragen. Der weitaus größte Teil der Fachwissenschaftler geht derzeit davon aus, dass die schon heute beobachteten Klimaänderungen und sehr viel weitreichendere Klimaänderungen in der Zukunft in erheblichem Maße durch den Ausstoss von Treibhausgasen durch das menschliche Handeln verursacht werden. Dies wurde zuletzt durch die gemeinsame Erklärung von Akademien der Wissenschaften aller G8‑Staaten (Royal Society Grossbritannien, National Academy of Sciences USA, Frankreich, Russland, Deutschland, Japan, Italien, Kanada) und der Akademien der Wissenschaften Brasiliens, Chinas und Indiens anerkannt:

"There is now strong evidence that significant global warming is occurring. It is likely that most of the warming in recent decades can be attributed to human activities... "

zu deutsch: "Es gibt heute klare wissenschaftliche Belege für eine globale Erwärmung. Es ist wahrscheinlich, dass der überwiegende Teil dieser Erwärmung während der letzten Jahrzehnte durch menschliches Handeln verursacht ist..."

Das Umweltbundesamt teilt nicht Ihre Auffassung, dass es überwiegend die Sonnenaktivität sei, die den Klimawandel verursacht.

Nun zu Ihren Fragen: Die "technische" Emission von Kohlendioxid lag im Jahre 2003 in Deutschland bei etwa 865 Mt CO2. Die Emission "biologischen Kohlendioxids" wird nicht exakt inventarisiert. Wissenschaftler schätzen jedoch, dass etwa 1,2% der Emission von Kohlendioxid durch menschliches Handeln bedingt ist, der Rest ist natürlichen Ursprungs.

Diese Aussage darf jedoch nicht zu der Fehleinschätzung verleiten, dass der beobachtete Klimawandel also nur zum kleinsten Teil (insgesamt 2% mit anderen Treibhausgasen) vom Menschen verursacht sei. Denn sie bedeutet, dass der natürliche Treibhauseffekt, der seit Urzeiten die Erde warm hält und etwa 33°C ausmacht, durch den menschlichen Treibhauseffekt (der die derzeitige Erderwärmung überwiegend verursacht) zusätzlich verstärkt wird. Schon eine grobe (weil lineare) Überschlagsrechnung ergibt, dass 2% von 33°C etwa 0,7°C ergibt ? was ziemlich genau der im 20. Jahrhundert tatsächlich gemessenen Erderwärmung entspricht und daher die Warnungen der Klimaforscher stützt, nicht etwa relativiert.

Dass eine kleine relative Änderung erhebliche Wirkungen mit sich bringen kann, mag ein Blick auf die menschliche Gesundheit verdeutlichen: eine Erhöhung der (absoluten) Körpertemperatur um 1% bedeutet 40 ° Fieber ! ( 313 anstelle von 310 ° K ).

Und hier das Antwortschreiben vom 13.08.2005

"Sehr geehrte Frau Dr. G.,

für Ihr Schreiben vom 10.08.05, in welchem Sie meine Frage nach der Kohlendioxidproduktion in Deutschland beantworten, danke Ich Ihnen sehr. Ich halte Ihre Aussage für außerordentlich bedeutungsvoll:

"Die Emission "biologischen Kohlendioxids" wird nicht exakt inventarisiert. Wissenschaftler schätzen jedoch, dass etwa 1,2% der Emission von Kohlendioxid durch menschliches Handeln bedingt ist, der Rest ist natürlichen Ursprungs."

Das bedeutet folgendes:

Wenn die Bundesregierung ihr Ziel erreicht, den Ausstoß technischen Kohlendioxids um 20 % zu senken, dann wird die tatsächliche Kohlendioxidproduktion in Deutschland nur um 0,24 % gesenkt. Diese geringfügige Senkung ist wahrscheinlich meteorologisch irrelevant.

Das bedeutet ferner:

Die von der Regierung Schröder angeordneten Maßnahmen zur Wetterverbesserung, die schätzungsweise 250 Milliarden Euro kosten, sind sinnlos.

Außerdem bedeutet dies:

Die von der Regierung Schröder verursachte Deindustrialisierung Deutschlands beruht auf einer Fiktion.

Die weiteren Aussagen Ihres Schreibens sind problematisch, ich möchte darauf an dieser Stelle jedoch nicht weiter eingehen. Kopien dieses Schreibens schicke ich an einen Kreis von interessierten Fachleuten. Ihre Auskunft habe ich in die IAVG-Internet-Dokumentation ?Kohlendioxid-Emission? ( www.iavg.org/iavg137.htm ) aufgenommen

Mit freundlichen Grüßen
Hans Penner"

Kommentar DIMaGB:

Es handelt sich hierbei um Wissenschaft vom Feinsten, wie man bereits an den messerscharfen Formulierungen erkennt:
- "Der weitaus größte Teil der Fachwissenschaftler geht derzeit davon aus ..."
- "Es ist wahrscheinlich ..."
- "Die Emission "biologischen Kohlendioxids" wird nicht exakt inventarisiert."
- "Wissenschaftler schätzen jedoch ..."

Es wird also angenommen und geschätzt, statt bewiesen und belegt sowie gemessen. Das kann man auch hier nachlesen: Wie werden CO2-Emissionen gemessen? Für den Eiligen: gar nicht, d.h. gemessen wird nicht, sondern "berechnet". Insofern braucht sich wahrhaftig niemand wundern, was die Klimamodelle so zusammenrechnen. Traurig nur, dass solcher Zinnober als Grundlage für milliardenschwere politische Entscheidungen herangezogen wird. Es reicht schon, wenn de Mehrheit "der weitaus größte Teil der Fachwissenschaftler" von etwas ausgeht.

Was bedeutet eigentlich "wissenschaftlich"? Für Wissenschaftszweige, die analytisch arbeiten, ist der Prozess der wissenschaftlichen Erkenntnis nach Wikipedia wie folgt definiert:

1. Beobachtung von Phänomenen
2. Sammeln und Ordnen von Material
3. Aufstellen von Hypothesen und Modell-Erstellung, Irrtumswahrscheinkeit
4. Prüfung der Hypothesen des Modells durch Experimente, Tests, Versuche
5. Bestätigung oder Widerlegung der Hypothesen
6. Veröffentlichung der Ergebnisse, um sie von anderen überprüfen zu lassen
7. Veränderung, Erweiterung oder Verwerfen des Modells, je nach Ergebnis der Tests und der Kritik
8. Im Falle der Bestätigung Entwicklung einer fundierten Theorie, die gewisse Kriterien erfüllen muss
9. Solange die Theorie nicht falsifiziert wird, kann sie als wissenschaftliche Erkenntnis gelten

Interessant sind auch die dort beschriebenen Kriterien:

"Wissenschaftliche Arbeit muss besondere Kriterien erfüllen: Wissenschaftliche Ergebnisse werden ausführlich dokumentiert. Dafür gibt es Standards, die die Nachvollziehbarkeit aller Teilschritte der Schlussfolgerungen sicherstellen sollen. Wichtig ist dabei auch eine ausführliche Dokumentation verwendeter Quellen und die Berücksichtigung des aktuellen Standes der Forschung auf einem Gebiet. Dadurch werden Forschungsergebnisse vergleichbar und ein inhaltlicher Fortschritt in einem Fachgebiet erst möglich. Forschungsarbeiten beziehen sich aufeinander. Sie stützen, widerlegen oder verfeinern vorhandene Theorien.

Ein wichtiges Prinzip jeder ernsthaften Wissenschaft ist die Skepsis im Sinne einer kritischen Haltung gegenüber eigenen wie fremden Ergebnissen und Thesen. Wissenschaftliches Wissen unterscheidet sich von doktrinärem Wissen dadurch, dass beim doktrinärem Wissen offene oder subtile Machtmittel zur Durchsetzung von Behauptungen benutzt werden und Hinterfragung durch einzelne unerwünscht ist, während wissenschaftliches Wissen zumindest prinzipiell von jedem durch den Gebrauch des eigenen Verstandes und eigener Erfahrung eigenständig überprüft werden kann. Auf die gleiche Weise kann wissenschaftliches Wissen auch von Offenbarungswissen abgegrenzt werden. Offenbarungswissen, welches etwa durch innere Erkenntnis einzelner zustande kommt, kann durch andere nicht eigenständig überprüft werden und ist somit nicht wissenschaftlich.

Wissenschaft ist nicht dogmatisch. Wissenschaft unterscheidet sich von Religion, indem sie keinen Anspruch auf die absolute Wahrheit erhebt. Wissenschaftliche Erkenntnisse sind falsifizierbar, d.h. sie können überprüft werden und sich als falsch herausstellen. Die Zuverlässigkeit religiöser Aussagen lässt sich hingegen nicht überprüfen. Wissenschaft ist der Besitz von relativen, begrenzten Wahrheiten und die unendliche (und niemals endende) Suche nach der absoluten Wahrheit. Wissenschaft kann niemals im Besitz der ganzen Wahrheit sein. Wir können niemals alles wissen - weder durch Wissenschaft noch auf andere Weise."

Dem aufmerksamen Leser wird aufgefallen sein, dass hier nirgendwo die rede davon ist, dass es relevant wäre, wenn die Mehrheit von Wissenschaftlern glaubt oder annimmt. Ich gehe davon aus, dass in vielen Bereichen in Deutschland ein rein doktrinäres Wissen dominiert, staatlich gewollt und gefördert.

Im Ergebnis bekommen wir dann solche verblüffenden wissenschaftlichen Belege präsentiert wie: "Erhöhung der (absoluten) Körpertemperatur um 1% bedeutet 40 ° Fieber ! ( 313 anstelle von 310 ° K )". Zwar ist 310 x 1,01 = rd. 313, aber 36,85 °C (= 310 K) x 1,01 = 37,22 °C und somit noch lange kein Fieber. Wie war das doch gleich mit Churchill und seinen Statistiken? Egal, es lebe der wissenschaftliche Beweis.

14.08.2005


Über den Klimaterror und die CO2-Lüge

„Wollen Sie mich verarschen!“ rückmailte mir am 25. Februar 2005 ein Physiker vom Institut für Meteorologie der Universität Basel, als ich ihn darauf hinwies, dass die auf der UNI-BS-Homepage unter http://pages.unibas.ch/geo/mcr/dolueg/ abrufbaren Infrarot-Breitband-Messungen an der Klingelbergstrasse und in den Langen Erlen nicht stimmen können. Ich merkte auch an, dass die daraus interpretierten Strahlungsbilanzen physikalisch unzulässig sind.

Von Mitte Februar bis zum 7. März 2005 war es mit bis zu -7 Grad Celsius in Basel sehr kalt. In dieser Zeit wurde an der Klingelbergstrasse auf 38 Meter Höhe über Boden eine Infrarot-Einstrahlung von rund 300 Watt pro Quadratmeter gemessen. Die angeblich auf Kochstufe 1 der Kochherdplatte ankommende IR-Strahlung schaffte es aber nicht, die Strassen von Basel eisfrei zu halten. In der Vergangenheit habe ich mit Thermo-Scannern derartige IR-Einstrahlungen überprüfen lassen, doch die Einstrahlungen waren nicht messbar. In klaren, warmen Sommer- und kalten Winternächten ist keine atmosphärische Gegenstrahlung in der Grössenordnung von 300 W/m2 messbar. Die Gemessenen Werte ergaben jeweils 0,0 W/m2! Dennoch bilden die Meteorologen mit dieser inexistenten IR-Einstrahlung, welche sie mittels wiederstandsmessenden Pyrgeo-Metern ermitteln, zusammen mit der kurzwelligen ein- und ausgehenden Sonnenstrahlung eine Strahlungsbilanz. Darf man das?

Nein! Eine diesbezügliche Strahlungsbilanz ist deshalb physkalischer Unsinn, weil man je nach Wellenlängenspektrum Wellen mit unterschiedlichen Wellenlängen, Frequenzen und Amplituden vergleicht, die man nicht linear subtrahieren kann! Sehr wohl kann man eine Energiebilanz bilden.

Die IR-Abstrahlung nach oben ist doch von der Temperatur des Bodens abhängig und eine allfällige Gegenstrahlung infolge einer kälteren Wolken-Unterseite von oben nach unten auch. Da die von der kälteren Wolke herstammende Strahlung den wärmeren Erdboden nicht aufheizen kann, ist eine Bilanz unsinnig. Von Äpfel-Strahlen, kann man keine Birnen-Strahlen abziehen! Dafür sorgt der 2. Hauptsatz der Thermodynamik, welcher gemäß Clausius auch für die Strahlungsvorgänge gilt. Wer derartige Strahlungsbilanzen macht, möge bitte zuerst den 2. Hauptsatz widerlegen. Werden diese Bilanzen weiterhin behauptet, wird de facto postuliert, dass ein Perpetum Mobile zweiter Ordnung existiert, was doch sehr überraschend wäre. Wäre nämlich nur schon ein IR-Strahlungseintrag von 50 W/m2 real, könnten wir uns das Beheizen der Häuser unter Verwendung von entsprechenden IR-Absorbern sparen! Selbstverständlich liegen auch die Größenordnungen der IR-Abstrahlung im Argen. Sie sind bis heute real nicht messbar. Sollten Sie sich fragen, wieso sich ein Baufachmann mit der Meteorologie befasst, so ist das einfach zu beantworten. Wer richtig Bauen will, muss sich mit dem Wetter beschäftigen. Bauen bedeutet im Wesentlichen: Schutz der Menschen vor Regen, Wind, Sommerhitze und Winterkälte.

Der Auslöser dieses Berichtes bildeten die Vorkommnisse der vergangenen Wochen. Am 23. März 2005 beschloss der Schweizerische Bundesrat eine CO2-Abgabe auf Heizöl, um die Welt vor dem Klimakollaps zu retten. Der Beschluss ist offensichtlich eine Reaktion auf den permanent ablaufenden Klimaterror. Beinahe Täglich reiten Politiker, die Medien und ein paar Geschäftemacher auf der Volksseele herum und verbreiten Klima-Angst. Man macht die Menschen für die Klimaerwärmung verantwortlich, um sie letztendlich zur Kasse zu bitten. Obwohl mündigen Bürger/innen eigentlich klar sein sollte, dass man sich bestenfalls gegen das Wetter schützen kann, lassen sich die meisten vom göttlichen Wahn verführen, das globale Klima der Welt schützen zu können.

Für diesen Größenwahn sind vor allem die Meteorologen mitverantwortlich. So, aktuell im „Spiegel“ vom 14. 4. 2005, wo der „Klimaforscher Hense behauptet: „Mensch ist mitschuldig am Klimawandel“ Sogar die Schweizerische Meteorologische Anstalt (SMA) in Zürich, ist seit 1996 auf die esoterischen Trittbretter der schreckensverbreitenden „Klimasimulierer“ aufgesprungen. Anstatt sich auf logische Denkansätze für die real beobachtbare Klimaerwärmung zu konzentrieren, entstehen täglich neue Verschwörungstheorien aus rot-grünen Kreisen und der WWF und Greenpeace mischen eifrig mit. Dabei geben doch die meteorologischen Messreihen der SMA ein klares, einfaches Bild über die Ursachen des Wettergeschehens. Doch die Einfachheit ist offenbar zu wenig spannend. Weil man sich den Temperaturanstieg bei gleichbleibender Sonneneinstrahlung nicht erklären kann, bemüht man das Ausschlussprinzip und behauptet, ohne über die wissenschaftlichen Beweise zu verfügen, dass nur der menschengemachte, der anthropogene Zuwachs an CO2, für die vorübergehenden und lokale Erwär-mungsphasen auf der Erde verantwortlich sei.

Konsultiert man die Homepage von MeteoSchweiz unter: http://www.meteoschweiz.ch/de/Daten/Messwerte/IndexMesswerte.shtml so können anhand der dort abrufbaren Messdaten die Behauptungen der Klimasimulierer mit dem nachfolgenden Diagramm eindeutig widerlegt werden: Richtig ist, dass innerhalb der vergangenen 140 Jahre in der Schweiz bei allen Mess-Stationen die Luft-Temperatur um rund 1,7 Grad Celsius angestiegen ist. Wie man z.B. bei der Regressionsgeraden von Basel-Stadt sehen kann, handelt es sich beinahe um einen gleichmäßigen Temperatur-Anstieg. Um die Problematik von so genannten „städtischen Wärmeinseln“ zu hinterfragen, wurden auch die Messwerte vom Säntis verwendet, wobei erkennbar ist, dass sich daselbst etwa das gleiche Temperaturprofil, jedoch auf niederem Niveau einstellt. Die Abwärme der Schweizer Städte ist also noch zu gering, dass sich temperaturverzerrende „Wärmeinseln“ bilden können. Fakt ist auch, dass es Aufgrund der Mess-Daten unmöglich ist, eine mittlere Temperatur für das Gebiet der Schweiz zu erstellen. Es grenzt deshalb an Wissenschafts-Betrug, wenn Klimasimulierer behaupten, dass sie mit ihren Simulationen ein mittleres Globalklima und daraus eine Klimaerwärmung von X Grad Celsius in Y Jahren für die ganze Welt ausrechnen können. Momentan schaffen die Meteorologen nur eine 50% Prognose auf 7 Tage!
 

Hier die Grafik als PDF (nur 43 kB groß)

Um einen Faktor 10 gekürzt sind dann die Kurven der relativen Luftfeuchtigkeit sowie der Bewölkungsgrad eingezeichnet. Beide Kurven weisen im Gegensatz zum Temperaturanstieg einen sinkenden Trend auf. Seit 1961 wird auf dem Weissfluhjoch Davos (WFJ) die Sonnenstrahlung gemessen. In Basel hingegen, wird die Strahlung erst seit 1981 erfasst, weshalb zu Vergleichszwecken den smogfreien Werten von WFJ-Davos den Vorrang gegeben wurde. Es wird bestätigt, dass sich die Sonneneinstrahlung in den vergangenen 40 Jahren kaum verän-dert hat. Im Weiteren ist - um den Faktor 100 gekürzt - die nicht über alle Zweifel erhabene CO2-Kurve von Mauna Loa sowie die um den Faktor 1000 gekürzte, kosmische Strahlung des Neutronen Monitors von Moskau – ebenfalls mit Daten ab 1961 – eingetragen.

Zu beobachten ist, dass zwischen dem Anstieg der Lufttemperatur bis 1960 und der CO2-Kurve – welche aus so genannten Proxydaten besteht und aus Eisbohrkernen oder Baumringbestimmungen etc. stammt – keine Korrelation besteht. Der auf Mauna Loa stattfindende, exponentielle Anstieg des CO2 ab 1961, korreliert auch nicht mit der polynomischen Temperatur-Linie vom Säntis, obwohl zwischen dem CO2 und der Temperatur ein direkter Zusammenhang bestehen soll. Da der Trend der polynomischen Linie wesentlich steiler ansteigt als das CO2, kann sogar gefolgert werden, dass der „globale“ CO2-Anstieg bestenfalls eine Folge der Er-wärmung darstellt.

Das scheint logisch, denn wenn es wärmer wird, wachsen mehr Pflanzen auf der Welt und die CO2-Ausgasung bei der Verrottung der Flora findet bei höheren Temperaturen auch schneller und vermehrt statt. Mit den Wetter-Kurven im Diagramm ist somit eindeutig widerlegt, dass infolge CO2 eine Erderwärmung stattfindet oder stattfinden kann! Nun verbleibt noch die Erklärung über die Ursache, weshalb wir in der Schweiz seit 140 Jahren einen beinahe linearen Temperaturanstieg messen können: Noch selten war die Sonne so aktiv und noch nie schien sie heller wie von 1940 bis heute. Ist die Sonnenaktivität hoch, bildet das Magnetfeld der Sonne einen Schutzschild gegen die kosmische Strahlung. Das bedeutet, dass die Erde weniger Sonnenwind erhält und folglich auch das Polarlicht geringer ausfällt. Belegt wird das durch den absinkenden Trend der kosmischen Strahlung des Neutronen Monitors von Moskau auf der Nordhalbkugel der Erde.

Im Weiteren braucht man nur noch die Arbeitshypothese zu verwenden, dass bei weniger Sonnenwind die Bewölkung abnimmt. Die Sonnenwindpartikel sind nämlich nebst dem Feinstaub die Kondensationskerne an denen die Luftfeuchtigkeit kondensiert und die Bildung von Wolken ermöglicht. Allerdings weigert sich das IPCC diese Möglichkeit in Betracht zu ziehen. Ob es noch weitere Ursachen gibt, welche die Wolkenbildung vermindern, mögen die Klimasimulierer endlich selbst herausfinden, anstatt die Bevölkerung mit ihren esoterischen Behauptungen permanent zu terrorisieren. Da gleichzeitig ein weltweiter Feinstaub-Terror ausgebrochen ist, den man nun auch bekämpfen muss, wird vermutlich noch weniger Feuchtigkeit kondensieren, damit es noch weniger Wolken gibt, damit die Erde noch wärmer wird. Die „Fachidioten“ werden es schon noch schaffen, die Erde zuerst theoretisch und dann praktisch kaputt zu machen!

Das Rätsel ist gelöst: Ob die aktivere Sonne oder eine andere Ursache für die geringere Wolkenbildung verantwortlich ist, ist unerheblich. Gemessener Fakt ist, dass es wegen weniger Wolken weniger Schatten gibt auf der Erde. Gibt es weniger Schatten, so wird die Erde wärmer, auch wenn die Strahlung der Sonne gleich bleibt. Jetzt braucht man nur noch auf denjenigen Klimasimulierer zu warten, der behauptet, dass CO2 für die geringe Wolkenbildung verantwortlich ist, dann fängt die Geschichte von vorne an! Fazit: Mit Sicherheit ist Kohlendioxid nicht an der Erderwärmung beteiligt.

CH-8955 Oetwil a.d.Limmat, 15. April 2005 Paul Bossert, Architekt & Bauingenieur, 8955 Oetwil a. d. Limmat


Mit Irrtümern in der Klimatologie befasst sich Hr. Dipl.-Ing. Heinz Thieme.
Kontakt: heinz.thieme@gmx.net.

Themen:

  • Treibhauseffekt, Beitrag des CO2 zum Temperaturgeschehen in der Atmosphäre
  • Treibhauseffekt im Widerspruch zu Emissionseigenschaften von Gasen
  • Treibhauseffekt im Widerspruch zur Thermodynamik
  • Treibhauseffekt ohne wissenschaftliche Grundlage
  • Treibhauseffekt – ein forscher Irrtum
  • Erklärung des thermodynamischen Atmosphäreneffektes
  • Anmerkungen zum Emissionsspektrum der Erde
  • Begriff der "Atmosphärischen Fenster"
  • Phänomen der "Gegenstrahlung"

Deutsche Internet-Seiten von Hr. Thieme:

  • ''Zum Phänomen der atmosphärischen Gegenstrahlung''

    "Die „Gegenstrahlung“ ist eine recht willkürliches Phantasieprodukt. Sie wurde benötigt, um unter Vernachlässigung der allein zulässigen Betrachtung des thermodynamischen Gleichgewichtes an der Erdoberfläche und bei gleichzeitigem Durcheinanderbringen von Lufttemperatur (in 2 m Höhe, in „Englischer Hütte“ gemessen) und Temperatur der Erdoberfläche (prinzipiell überhaupt nicht zuverlässig messbar, es kann hier lediglich die momentane Strahlungstemperatur festgestellt werden, welche, weil sehr stark schwankend, stets nur die Verhältnisse zum Messzeitpunkt erkennen lässt) eine Temperatur der Erdoberfläche errechnen zu können, die einem gewünschten Wert entspricht."

    "Die Betrachtung der für den so genannten „Treibhauseffekt“ notwendigen „Gegenstrahlung“ führt unter Anerkennung des/der
    -   Zweiten Hauptsatzes der Thermodynamik
    - Gesetzmäßigkeiten der Vektoralgebra
    zu dem Ergebnis, dass es sich bei der „Gegenstrahlung“ um ein Phantasieprodukt und physikalischen Nonsens handelt.
    Das einzig Phänomenale an der „Gegenstrahlung“ ist, dass diese bis heute in zahlreichen Lehrbüchern, sowohl der schulischen als auch der universitären Ausbildung, als zur wissenschaftlichen Lehre gehörend verkündet wird."

    in http://mitglied.lycos.de/climate/gegenstrahlung.htm

Update 07.10.2003
Wenn Veizer und Shaviv zumindest für erdgeschichtliche Zeiträume darlegen, dass der Zusammenhang: mehr CO2 in der Luft - höhere Temperaturen nicht belegbar ist, sollte man die Grundlagen des Funktionierens von Atmosphären nicht aus den Augen verlieren.

In diesem habe ich, um den Sachverhalt, dass selbst minimalste Energiezuführungen die troposphärische Luft in Bewegung setzen, nämlich durch Aufsteigen infolge Dichteänderung, noch etwas bekannter zu machen, meine Seite "Treibhauseffekt im Widerspruch zur Thermodynamik und zu Emissionseigenschaften von Gasen" http://people.freenet.de/klima/index.htm   um eine diesbezügliche, hoffentlich leicht nachvollziehbare Berechnung ergänzt.

Über Ihr Interesse und Weiterempfehlungen würde ich mich freuen.
Besten Gruß
Heinz Thieme


Thieme zu Kirchhoff

Liebe Leser,

ich wollte, da Mißbrauch mit dem Namen Kirchhoff getrieben wird, doch kurz einmal darauf hinweisen, dass Herrn Kirchhoff zwei Gesetze zugeordnet werden:

1. Knotenpunktsregel,
betrifft den Stromdurchgang durch Netzknoten, in denen keinerlei Energispeicher vorhanden sind: Summe I = 0 ,
was bedeutet: was hereinkommt, fließt auch wieder hinaus. Dieses Gesetz gilt nur für Netzpunkte, die keinerlei Energiespeicher einschließen.

2. Strahlungsgesetz:
Jeder Stoff absorbiert diejenigen Wellenlängen, die er selber auch emittieren kann.

Aus der Kombination dieser Gesetze sind dann Rechenverfahren wie Modtran oder SÜG (Strahlungsübetragungsgleichung) abgeleitet worden.

Nur wenden nun einige ganz Schlaue diese Kombinationen auch für Berechnungen innerhalb thermodynamischer Medien, wie z.B. der Troposphäre an. Dies ist unverzeilich falsch und unzulässig, denn

-die Knotenpunktsregel gilt nur an Punkten von Systemen, die keine Energiespeicherung zulassen. Die Troposphäre insgesamt und an jedem Punkt ist jedoch ein Energiespeicher. Jedwede zugeführte Energie kann sowohl gespeichert als auch wieder ausgegeben werden; ebenso kann, ohne dass Energie aktuell zugeführt wird, gespeicherte Energie abgegeben werden. Die Knotenpunktsregel gilt hier in dieser Einfachheit nicht. Vielmehr gilt das thermodynamische Gleichgewicht, ein unvergleichlich komplexeres Gebilde.

-das Strahlungsgesetz gilt. Es besagt aber auch nur, dass Strahlung bestimmter Wellenlänge absorbiert oder auch ausgesendet werden kann. Was mit der Energie aus der absorbierten Strahlung geschieht, aber auch, woher die Energie der ausgesandten Strahlung kommt, sagt das Gesetz nicht.

-daneben gibt es aber auch noch den zweiten Hauptsatz der Thermodynamik, der wiederum bedeutet, dass jedweder selbsttätige Energieübergang nur vom höheren zum niedrigeren Energieniveau stattfinden kann.  (Einfache Vergleichssicht: Wasser fließt von allein nicht bergauf). Dieses Gesetz, obwohl eines der wichtigsten zum Verstehen dessen, was in der Natur abläuft, ist in der Meteorologie weitgehend unbekannt, es wird so gut wie nicht in deren Lehrbüchern erwähnt.

Ja, und in der Kombination von Kichhoff 1 und 2 und dem zweiten Hauptsatz der Thermodynamik ergibt sich dann, dass es unzulässig ist, Rechenverfahren wie Modtran oder SÜG zur Ermittlung/Erklärung der Vorgänge in der Troposphäre zu verwenden.

Weitere Informationen: "On the Phenomenon of Atmospheric Backradiation" http://www.geocities.com/atmosco2/backrad.htm ,
"Zum Phänomen der atmosphärischen Gegenstrahlung"
http://mitglied.lycos.de/climate/gegenstrahlung.htm ,
"Beeinflußt der Mensch wirklich Wetter und Klima? Sind die Zusammenhänge wirklich verstanden?" http://people.freenet.de/klima/Einfluss.htm ,
"Does Man really affect Weather and Climate? Are the Interactions really understood?" http://www.geocities.com/atmosco2/Influence.htm  .

Aber nehmen wir es so: In der Wissenschaft hat es stets Irrtümer gegeben. Verheerend wurde es nur dann, wenn sich die etablierten Kreise dagegen gesträubt haben, das Bessere als solches anzuerkennen und das Schlechtere aufzugeben. Was in wissenschaftlichen Werken/Lehrbüchern als Erkenntnis niedergeschrieben ist, hat nur solange zu interessieren, wie es nicht durch bessere Erkenntnisse entwertet ist. Wissenschaft lebt, sonst wäre die Welt ja heute noch eine Scheibe.

Besten Gruß
Heinz Thieme
per E-Mail vom 03.08.2003


In der NZZ vom 21.06. wurde der Leserbrief von Hr. Thieme
nur sehr verkürzt wiedergegeben.
Hier ist der vollständige, der eingesandte Text:  

Kyoto-Protokoll kein Grund zur Zuversicht

Bei der Berichterstattung über die vermeintliche Klimagefährdung durch sogenannte Treibhausgase und den deshalb konsequenterweise zu fordernden Klimaschutz sollte keinesfalls übersehen werden, dass die behaupteten Zusammenhänge der Klimabeeinflussung bislang keineswegs schlüssig erklärt worden sind. Der vielfach geglaubten Hypothese, dass durch geringfügig erhöhte Anteile hauptsächlich von Kohlendioxyd in der Atmosphäre die Temperatur im Lebensbereich der Menschheit steigen könnte, fehlt hingegen jedweder physikalisch schlüssige theoretische wie experimentelle Beweis der Richtigkeit. Ebenso gibt es nicht die Spur eines Nachweises, dass in erdgeschichtlichen Zeiträumen ein ansteigender Kohlendioxydgehalt der Atmosphäre ursächlich für ansteigende Temperaturen war. Träfen die seitens der Klimatologie gepflegten Annahmen über die Temperaturwirkungen zu, so könnte zumindest deren experimentelle Bestätigung, die vergleichsweise einfach beizubringen sein müsste, Zweifel an der Richtigkeit dieser Hypothese ausräumen.  

Aber jeder experimentelle Nachweisversuch muss scheitern, denn in der unteren Atmosphäre, der Tropsphäre (vom Erdboden bis in ca. 10 bis 17 km Höhe), die ein thermodynamisches System darstellt, gelten nun einmal die (in der Klimatologie weitgehend verdrängten, vielleicht aber auch unbekannten) thermodynamischen Gesetzmässigkeiten. Und letztere lassen die Richtigkeit der von der Klimatologie vertretenen Hypothesen ausschliessen.   

Die Denkmodelle der Klimatologie, die innerhalb der Troposphäre Wärmeübergang und -übertragung durch Konvektion, Verdunstung, Auftrieb erwärmter wie auch befeuchteter Luft, Kondensation usw. als eher unerheblich gegenüber der Wärmeübertragung durch Strahlung einstufen, und deshalb lediglich aus (tatsächlich in den Wirkungen eher unbedeutenden und deshalb zu vernachlässigenden) Veränderungen des Strahlungsdurchgangs durch die Troposphäre künftig katastrophale klimatische Entwicklungen voraussagen, können bei dieser völligen Fehlbeurteilung der ablaufenden physikalischen Vorgänge nur zu abwegigen Erkenntnissen führen.  

Jeder Verfahrenstechniker weiß, dass einer Verfahrenskonzeption zwingend die unzweifelhaft richtige Analyse des zu gestaltenden Prozesses vorauszugehen hat. Erst wenn die Analyse zutreffend erfolgt ist, wird die Synthese, die Gestaltung eines Prozesses, mit Erfolg möglich. Anderenfalls wird der Gestaltungsversuch durch Misserfolg bis hin zum Desaster beendet. (Computersimulationen zeigen hingegen völlig andere Verläufe; selbst der gröbste Unsinn, ist er nur computergerecht formuliert, lässt sich per Computer simulieren.)   

Die Voraussetzung einer unzweifelhaft richtigen Analyse der klimabestimmenden Zusammenhänge ist von der Klimatologie bislang nicht im geringsten erfüllt worden. Beispielsweise ist eine Wetter- und damit eventuell auch Klimabeeinflussung durch eine vermehrte Befeuchtung der Atmosphäre, und der damit verbundenen geringfügigen Vermehrung der Atmosphärenmasse, nicht auszuschliessen. Jeder von uns weiss zumindest, was vermehrte Bewölkung bewirkt. Der Wassereintrag in die Atmosphäre, der in den besiedelten und bewirtschafteten Gebieten in nicht unbedeutendem Maße durch die Gesamtheit der menschlichen Aktivitäten beeinflußt wird, findet jedoch sowohl in der Klimatologie wie auch im Kyoto-Protokoll keinerlei Beachtung. Zudem ist der grundlegende Zusammenhang zwischen Atmosphärenmasse und der Temperatur am Boden einer Atmosphäre seitens der Klimatologie bislang überhaupt nicht erkannt.  

Die Klimatologie und die von daher gesteuerte Politik des Klimaschutzes fängt jedoch nun mit dem zweiten Schritt, der Synthese bzw. dem Versuch der Prozessgestaltung, dem Klimaschutz, zuerst an. Und zwar mit der (wirtschaftlich aufwendigen) Beeinflussung unbedeutender Parameter, nämlich der Begrenzung von Emissionen sogenannter Treibhausgase (z.B. Kohlendioxyd), jedoch mit Ausnahme von Wasserdampf. (Wenn man schon den insgesamt irreführenden Begriff der Treibhausgase verwendet, dann wäre Wasserdampf allerdings das herausragend wirksamste Gas dieser Gruppierung).  

Besonders gefährlich an diesem Vorgehen ist, dass, sollte sich tatsächlich gegenwärtig eine Klimaänderung - aus welchen Gründen auch immer - einstellen, die wirklichen Ursachen einer solchen nicht mehr erkannt werden können, weil man die Ursachen bereits erkannt zu haben glaubt. Falls die Menschheit dann tatsächlich in der Lage wäre, gestaltend auf sich abzeichnende, einstellende Klimaänderungen einzuwirken, das - wissenschaftlich lächerliche - Vorgehen der gegenwärtigen sogenannten Klimaschutzpolitik würde ein solches Handeln wegen der bereits eingeleiteten Fehlsteuerung zumindest für etliche Jahre vereiteln.  Die Ratifizierung des Kyoto-Protokolls ist in diesem Sinn überhaupt kein Grund zu hoffnungsvoller Freude. 


E-Mail vom 05.11.2002

Sehr geehrte, liebe Mit- und Widerstreiter,

beim Bemühen um das Verständnis des Funktionierens der Atmosphäre bin ich auf ein paar wesentlich erscheinende Fragen gestoßen, die ich nunmehr - auf der Suche nach Antworten - versuche, in die Öffentlichkeit zu tragen. Es sind dies die Fragen:

  • Hat sich die Masse der Atmosphäre in erdgeschichtlichen Zeiträumen geändert? Wenn ja, durch welche Ereignisse?
  • Hat die irdische Atmosphäre lediglich zufällig dieses aktuelle Ausmaß?
  • Verändern wir durch unsere Aktivitäten gegenwärtig die Atmosphärenmasse?
  • Gibt es Reaktionen, welche die Atmosphärenmasse im gegenwärtig vorhandenen Umfang stabilisieren? Wenn ja, welche sind dies?
  • Welche Einflüsse hat die Befeuchtung der Atmosphäre bezüglich der Atmosphärenmasse?

Bisher habe ich keine befriedigende Antwort registrieren können. Lediglich die Bestätigung, dass man nichts wisse, war bisher vielfach zu vernehmen.

Die hier angesprochenen Fragen stehen im Zusammenhang mit der Gegebenheit, dass die Mächtigkeit der Atmosphäre einen erheblichen Einfluß auf die thermischen Verhältnisse im Bodenbereich derselben hat (vgl: http://people.freenet.de/klima/indexAtmos.htm ).

Ein Verlust von beispielsweise 10% der Atmosphärenmasse würde durchaus ausreichen, um eiszeitliche Verhältnisse zu erzeugen. Andererseits könnte die Vermehrung der Atmosphärenmasse zu insgesamt wärmeren Bedingungen in unserem Lebensbereich führen. Ein Plus von 2% würde für "Warmzeiten" schon ausreichend sein.

Es ist meines Erachtens notwendig, dass Klarheit darüber gewonnen wird, ob wir durch unsere Aktivitäten möglicherweise die Atmosphärenmasse vermehren, auszuschließen ist dies jedenfalls nicht. Falls dies so wäre, bestünde tatsächlich Handlungsbedarf bezüglich Erhalt der Lebensumstände auf unserem Planeten.

Durch den Feuchtigkeitseintrag, der mit dem menschlichen Leben unvermeidbar verbunden ist, wird mit Sicherheit (in erster Linie durch land- und forstwirtschaftliche Produktion) eine - allerdings begrenzte, keinesfalls ausufernde - Vermehrung der Atmospärenmasse bewirkt (vgl. hierzu: Fusion 3/2002, beim weiteren Eindringen in diese Frage komme ich mittlerweile zum Ergebnis, dass wir weltweit mittlerweile etwa die Häfte der mittleren Wasserführung des Amazonas kontinuierlich in die Atmosphäre leiten; der vergleichsweise geringe offenbar feststellbare Anstieg des Luftdrucks in den vergangenen 20 Jahren könnte hierin seine Ursache haben.

dass außerdem durch den vom Menschen verursachten zusätzlichen Feuchtigkeitseintrag die Albedo des Systems Erde/Atmosphäre beeinflußt sein dürfte, erscheint plausibel. Wenig verständlich ist hingegen, dass hieraus keine Effekte bezüglich Wetter und Klima resultieren sollten, wenn andererseits vergleichsweise unbedeutende Veränderungen des CO2-Gehalts der Atmosphäre angeblich bereits spürbare Wirkungen zeigen.

Wie ist das außerdem mit unseren unmittelbaren wie mittelbaren Einwirkungen auf den Stickstoff-Kreislauf (Veränderung der Biomasse-Mengen, Beschleunigung des Biomasse-Kreislaufs, Freisetzung von Stickstoff aus Erdgas-/Öl-/Kohlegewinnung und -umsatz und evtl. auch aus sonstigen Lagerstätten)? Wirken wir vielleicht auch auf den Sauerstoff-Kreislauf mit entsprechenden Masse-Verlagerungen ein?

Es ist sicherlich unbefriedigend, wenn man auf Fragen keine Antworten weiß. Aber noch unbefriedigender ist es, wenn man sieht, dass wesentliche offene Fragen nicht einmal als solche erkannt sind.

Sofern Sie mein Interesse an Antworten auf diese Fragen teilen, so bitte ich Sie, diese Fragen weiterzuverbreiten. Fundierte Antworten interessieren mich natürlich sehr. Und falls ich Sie nur gelangweilt haben sollte, dann bitte ich um Verzeihung.

In der Hoffnung, hiermit beigetragen zu haben, dass in einiger Zeit Antworten auf diese Fragen gegeben werden können, verbleibe ich
mit freundlichen Grüßen

Heinz Thieme
heinz.thieme@gmx.net


Die nahezu totale Vereisung der Erde

Mit der Überschrift 'Die umstrittene These von der "Snowball Earth" ' war in der NZZ vom 17.04.03 ein Artikel erschienen, der ebenfalls die nahezu totale Vereisung der Erde zum Inhalt hatte.

Eine totale Vereisung der Erde erscheint mir zumindest für den Fall eines Verlustes von vielleicht einem Drittel der gegenwärtigen Atmosphärenmasse nicht ausgeschlossen, zumindest wären dadurch verursachten Wirkungen kompatibel mit den thermodynamischen Konsequenzen einer verminderten Atmosphärenmasse (siehe: http://people.freenet.de/klima/indexAtmos.htm   ). Ich hatte der NZZ darauf den folgenden Leserbrief geschrieben, der am 03.06. zwar gekürzt, aber ohne Sinnveränderung, abgedruckt worden war:

Die These vom "Snowball Earth" (NZZ vom 17.4.2003) bedarf vielleicht bezüglich der Ursachen, die eine solche extreme Vereisung der Erde hervorgerufen haben könnten, einer Ergänzung. Bisher werden Temperaturschwankungen im Erdklima im Wesentlichen auf veränderte Gehalte von Kohlendioxid in der Atmosphäre zurückgeführt, wobei höhere Temperaturen stets als Folge höherer Kohlendioxid (CO2)-Gehalte der Atmosphäre angenommen werden. Eingehendere Forschungen zur erdgeschichtlichen Klimaentwicklung, z.B. von Veizer und auch Caillon, weisen hingegen nach, dass höhere CO2-Gehalte der Luft erst in zeitlicher Verzögerung nach Erwärmungen nachgewiesen werden können. Die CO2-Anstiege sind den im erdgeschichtlichen Verlauf eingetretenen Temperaturanstiegen also nicht vorausgegangen, sondern gefolgt.

Ausserdem ist mittlerweile die Erkenntnis gesichert, dass der Wassergehalt der Atmosphäre (dampfförmig, flüssig und fest) die weitaus bedeutsamste der gegenwärtig bekannten Einflussgrössen für die klimatischen Gegebenheiten auf unserer Erde ist.

Verdrängt wird hingegen in der gegenwärtigen theoretischen Klimaforschung die Tatsache, dass die Mächtigkeit der Atmosphäre den womöglich entscheidendsten Einfluss auf die klimatischen Bedingungen auf unserer Erde hat. Es wird in Umgehung dieses Sachverhaltes schlichtweg unterstellt, dass unsere Atmosphäre stets von gleicher Mächtigkeit war und in diesem Umfang auch erhalten bleibt.

Ursächlich für den Einfluss der Atmosphärenmasse auf die Temperatur in Bodennähe ist der Sachverhalt, dass wesentliche Anteile der vom System Erde/Atmosphäre in das All gesandten Strahlung aus der Höhe (und nicht von der Erd-/Wasseroberfläche) abgehen, wodurch die Temperatur der abstrahlenden Zonen in der Höhe mitbestimmt ist. Die Temperaturabnahme mit der Höhe um rd. 7 Grad je 1000 m bei feuchter Luft, rd. 10 Grad je 1000 m bei trockener Luft, ist wiederum durch die Druckabnahme und durch die thermodynamischen Eigenschaften der Luft entsprechend dem jeweiligen Feuchtegehalt bestimmt. Je mächtiger, je dicker der Bereich der Atmosphäre ist,
in dem die Luft so dicht ist, dass diese sich wie ein Gas mit den entsprechenden thermodynamischen Eigenschaften verhält, also als thermodynamisches System funktioniert, desto wärmer ist es in deren bodennahem Bereich - und umgekehrt. Der Bereich der Atmosphäre, der als thermodynamisches System funktioniert, ist die Troposphäre (von der Erdoberfläche bis hinauf auf 8000 bis 17000 m, je nach geographischer Breite). Je grösser also der Abstand zwischen der Abstrahlungszone in der Höhe und dem Boden ist, desto wärmer ist es in Bodennähe. Dass die Lufttemperaturen am 16.4.2003 um 14 Uhr MESZ am Jungfraujoch (3470m) -3 Grad C und in Luzern (435m) +19 Grad C betrugen, geht im Wesentlichen auf die unterschiedlichen thermodynamischen Zustände der Luft in den jeweiligen Höhenlagen zurück. Dabei sollte nicht vergessen werden, dass der Luftdruck in Luzern um 55% höher ist als auf dem Jungfraujoch.

Wenn die Atmosphäre in der erdgeschichtlichen Entwicklung unterschiedlich mächtig gewesen wäre, dann wären hierdurch Temperaturunterschiede bereits erklärbar. Bei einem Verlust von vielleicht einem Drittel der Atmosphärenmasse, also bei dann weltweiten Gegebenheiten, wie sie auf dem Jungfraujoch derzeit anzutreffen sind, wäre ein "Snowball Earth" durchaus wahrscheinlich.

Es ist gegenwärtig offenbar nicht bekannt, ob der mittlere atmosphärische Druck, dessen Mittelwert mit 1013,5 mbar auf Meeresniveau genannt wird, über längere Zeiträume auf diesem Niveau lag. Wir haben keinerlei Vorstellungen davon, ob und in welchem Umfang die Atmosphärenmasse Schwankungen zeigt/zeigen könnte. Es dürfte zudem kaum Hinweise auf Veränderungen der Atmosphärenmasse geben, da die Hauptbestandteile der Luft, Stickstoff und Sauerstoff, in der festen Erdkruste als auch im Wasser und den darin gelösten Verbindungen in ausreichend grosser Masse vorkommen. Verlagerungen von Anteilen der Atmosphäre in die feste Erdkruste bzw. in die Ozeane würden vermutlich kaum auffallen, sind zumindest bislang nicht aufgefallen.

Hieraus ergeben sich die vielleicht wichtigsten Fragen zur Klimaentwicklung und auch zum eventuellen Einfluss des Menschen hierauf:
Hat sich die Masse der Atmosphäre in erdgeschichtlichen Zeiträumen geändert?
Wenn ja, durch welche Ereignisse?
Hat die irdische Atmosphäre lediglich zufällig dieses aktuelle Ausmass?
Gibt es Reaktionen, welche die Atmosphärenmasse im gegenwärtig vorhandenen Umfang stabilisieren?
Wenn ja, welche sind dies?
Greifen wir eventuell in diese Prozesse ein?

Vielleicht sind diese Ausführungen für Sie von Interesse.
Heinz Thieme
30.06.2003


E-Mail vom 11.11.2002

Sehr geehrter Herr Bumann,

ich meine, in der Frage nach möglichen Veränderungen der Atmosphärenmasse ausreichend recherchiert zu haben, so dass mich eine belastbare Antwort jetzt überraschen würde. Bitte verstehen Sie diese Fragestellung deshalb eher unter dem Motto: Wer weiß, dass er nichts weiß, weiß mehr als der, der nicht einmal dies weiß. Und die Tatsache, dass wir hier wesentliche Zusammenhänge bisher überhaupt nicht verstanden haben, ja nicht einmal erkannt haben, die wollte ich nur bekannt und bewußt machen.

Worüber ich bei meinen Überlegungen und Recherchen sehr überrascht war, das ist der doch für mich unerwartet gewaltige Einfluß des vom Menschen durch landwirtschaftliche Nahrungs- sowie land- wie forstwirtschaftliche Rohstoffproduktion verursachten zusätzlichen Feuchtigkeitseintrags in die Atmosphäre. Der austrocknende Aral-See ist nur ein Zeugnis dafür, die Entwicklung dort ist ein Ergebnis der Baumwollproduktion in den benachbarten Regionen.

Ich möchte mit den von mir gestellten Fragen auch Biologen und Chemiker anregen, eine Klärung der bestehenden Unklarheiten anzustoßen. Es wird sicherlich beträchtlichen Forschungsaufwandes bedürfen, um die bislang nicht bekannten Zusammenhänge zu ergründen. Und im Rahmen solcher Arbeiten dürfte dann auch die bisher verkündete Treibhaus-Hypothese vollends als Unsinn erkannt werden. In diesem Sinne wäre ich Ihnen für eine Weiterverbreitung der Fragen dankbar.

Mit freundlichem Gruß
Heinz Thieme


BauherrenNewsletter 11.02

2. Das Klima und das Wissen, nichts zu wissen

An Meteorologen, Biologen, Chemiker ... richtet sich die Frage: "Wer weiss, dass er nichts weiss?". Dipl.-Ing. Heinz Thieme möchte mit seinen Fragen anregen, eine Klärung der bestehenden Unklarheiten anzustoßen. Es wird sicherlich beträchtlichen Forschungsaufwandes bedürfen, um die bislang nicht bekannten Zusammenhänge zu ergründen. Und im Rahmen solcher Arbeiten dürfte dann auch die bisher verkündete Treibhaus-Hypothese vollends als Unsinn erkannt werden. "In diesem Sinne wäre ich Ihnen für eine Weiterverbreitung der Fragen dankbar." Das tu ich hiermit gern. Machen Sie mit.

Hier nun die ersten Reaktionen:

Erste Reaktionen
E-Mail vom 21.11.2002

Was wissen wir vom "Klima"  ???
Die Frage ist mehr als nur berechtigt!!!
Im Grunde wissen wir nichts !!!

Klima ist eine abgeleitete Größe, das Mittel irgendeines Wetterelements wie Temperatur, Feuchte, Druck ... Doch Mittelwerte gibt es in der Natur nicht, sie werden vom Menschen gebildet. Was kann ich mit einer Tagesmitteltemperatur anfangen ?

Ein Wert von 15 Grad sagt mir nichts darüber, wie er zustande gekommen ist!!!
Das braucht man schon Zusatzinformationen, zumindest die Temperaturen von 7, 14 und 21 Uhr!
Doch die Temperatur allein ist noch kein Wetter und schon gar kein Klima!!!

Und wie soll man einen Klimawert schützen, wenn er ohnehin nicht mehr veränderbar ist ????
In dem Moment, in dem ich einen Mittelwert (Klima) berechne, ist das Wetter schon auf und davon!
Tempus fugit! Und in manchen Sprachen bedeutet Wetter Zeit!

Die klassische Klimatologie (Köppen) hat ihre Grenzen gekannt, sie hat mittlere Zustände beschrieben und damit die Erde in verschciedene Klimabereiche eingeteilt!

Aber mit Bescheidenheit kann man kein Geld verdienen und kommt auch sonst nicht weiter!

Mit freundlichen Grüßen
Wolfgang Thüne


zeigen.gif (962 bytes) Linktipp: http://people.freenet.de/klima

Sehr geehrte, liebe Mit- und Widerstreiter,

meinen in Fusion 3/2000 erschienenen Artikel mit dem Titel "Wodurch könnte der Mensch das Wetter und damit das Klima beeinflussen?" habe ich noch etwas ergänzt und den inzwischen noch weiter gediehenen Erkenntnissen unter Beibehalt der nach wie vor offenen Fragen angepaßt.

Meines Erachtens können gewisse Einflüsse nicht grundsätzlich ausgeschlossen werden, nur beruhen diese auf völlig anderen Ursachen bzw. Vorgängen als jenen, die uns gegenwärtig als maßgeblich für Klimaveränderungen vorgetragen werden.

Sie finden diesen Artikel jetzt unter http://people.freenet.de/klima/Einfluss.htm . Über Ihr Interesse würde ich mich freuen, über Weiterempfehlungen noch mehr.

Mit freundlichen Grüßen und den besten Wünschen für ein erfolgreiches neues Jahr verbleibe ich

Heinz Thieme
E-Mail vom 05.01.2003


Die Klimakatastrophe - ein spektroskopisches Artefakt?
von Dr. rer. nat. Heinz Hug

Quantitative Untersuchungen der IR-Absorption von Kohlendioxid mittels eines FT-IR-Spektrometers im Labor legen nahe, den zusätzlichen Treibhauseffekt bei CO2-Verdoppelung weit geringer einzuschätzen, als er von den Klimatologen bisher angenommen wurde. Es kann von einer Reduktion um den Faktor 80 ausgegangen werden.

Einleitung

Ursprünglich ging es beim anthropogenen Treibhauseffekt durch CO2 offensichtlich um die "ganz normale" Infrarot-Absorption (1). Angenommen, die Extinktion würde bei der heutigen CO2-Konzentration in der Größenordnung von E = 4 im Maximum der Absorptionspeaks liegen, d.h. die Transmission T = I/I0 = 10-E wäre auf 0,0001 reduziert. Dann wäre es für jeden, der mit den Grundlagen der quantitativen IR-Spektroskopie aus der analytischen Chemie her vertraut ist, offensichtlich, dass eine Verdopplung zu einer merklichen Temperaturerhöhung führt. Tatsächlich liegt aber die Extinktion um Zehnerpotenzen höher. Deshalb ist nach Jack Barrett (2) der maximal mögliche Treibhauseffekt schon nach 100 m über dem Erdboden gegeben.

In der Literatur werden vielfach Emissionsspektren (3) oder gelegentlich auch Absorptionsspektren (4) des CO2 gezeigt. Was für den interessierten Chemiker aber vollkommen fehlt, ist die Angabe molarer Extinktionsgrößen. CO2 ist zwar das mit am intensivsten untersuchte Molekül, weshalb man auch genügend quantitative Angaben aus der Literatur beziehen kann (5) und natürlich gibt es die HITRAN-Spektren. Dennoch existieren offensichtlich unterschiedliche Vorstellungen. Auch wurden die Vorhersagen zur Klimaerwärmung ständig zurückgenommen. Dies war Anlaß zu eigenen überschlags-mäßigen Messungen (6).

Meßmethode

Eine 10 cm-Küvette mit IR-durchlässigem Fenster wurde mit synthetischer CO2-freier und wasserfreier Luft gefüllt. Danach wurde soviel CO2 mit einer Mikroliterspritze zugegeben, dass 357 ppm CO2 zugegen waren (Konzentration von 1993). Weiter wurden 2,6 % Wasserdampf zugegeben. Als IR-Strahlungsquelle diente ein Globar, ein elektrisch auf 1000-1200 ºC geheizter Siliziumkarbid-Stab mit nachgeschaltetem variablen Interferenzfilter. Nach der Aufnahme dieses Spektrums wurde mit CO2 aufgestockt, so dass 714 ppm enthalten waren. Die Messung erfolgte mit einem FTIR-Spektrometer "Bruker IFS 48". Als Auswertungssoftware diente das Programm OPUS. Ein Nullwert wurde ebenfalls aufgenommen und entsprechend subtrahiert.

Messung und Auswertung

Bild 1 zeigt das unbearbeitete Spektrum der 15 µm-Bande für 357 ppm CO2 und 2.6% H2O.



Bild 1: Unbearbeitetes Spektrum der 15 µm-Bande

Deutlich sind der R- (DJ = + 1) und der P- (DJ = - 1) sowie der Q-Zweig (DJ = + 0) der n3-Bande zu erkennen. Die n2-Bande (4,2 µm), die nur einen R- und P-Zweig besitzt, wurde ebenfalls vermessen. Die Extinktionskoeffizienten in den Maxima der Banden ergaben sich zu:

e = 29,9 m2 mol-1 (n2 = 2349 cm-1) und e = 20,2 m2 mol-1 (n3 = 667 cm-1)

Um die Absorption zu berechnen, wurde der durchschnittliche CO2-Gehalt der Atmosphäre mit c = 1,03.10-3 mol/m3 angenommen (aus der Gesamtstoffmenge und dem Volumen der Homosphäre). Setzt man die oben gemessenen molaren Extinktionen nebst der Konzentration und der Schichtdicke der Homosphäre (h = 105 m) in das Lambert-Beer'sche-Gesetz ein, so erhält man

E(n2) = 29,9 m2 mol-1 × 1,03.10-3 mol/m3 × 105 m = 3080

Für die n3-Bande resultiert analog E(n3) = 2080. Dies bedeutet, dass die Transmissionen bei den heute gegebenen 357 ppm CO2 in den Peakmaxima bei T(n3) = 10-2080 bzw. T(n2) =10-3080 liegen. Dies ist ein extrem geringer Transmissionswert, der eine Steigerung des Treibhauseffektes bei Verdopplung des klimawirksamen Spurengases vollkommen ausschließt. Ähnliche Ergebnisse hat Jack Barrett anhand spektroskopischer und kinetischer Überlegungen (2) gefunden und damit prompt in ein Wespennest gestochen, weshalb von ihm eine äußerst heftige noch andauernde stattfindende Diskussion angefacht wurde (7 - 10).

Setzt man e für die n3-Bande, den molaren Wert für 357 ppm CO2 sowie z.B. eine Schichtdicke von 10 m in das Lambert-Beersche Gesetz ein, so ergibt sich die Extinktion zu

E = 20,2 m2 mol-1 × 0,0159 mol/m3× 10 m = 3,21

Damit wird die Transmission T = 10-3.21 = 0,6 Promille. Dies entspricht einer relativen Absorption von 1 - T = 99,94%. Natürlich wurde hier nur die Absorption eines IR-Strahls betrachtet und es erhebt sich die Frage, ob nicht innerhalb des 15 µm-Bands eine Re-Emission bei den CO2-Molekülen stattfindet. Nach Jack Barrett (2) wird die absorbierte Energie i.w. bei Zusammenstößen mit anderen Molekeln (N2, O2, H2O) abgegeben (thermalisiert) - lange bevor eine Re-Emission stattfindet. Damit fällt der größte Teil der Energie aus dem CO2-Band heraus. Etwa die Hälfte der absorbierten Energie dürfte somit die Luft und über die verstärkte Gegenstrahlung auch den Boden entsprechend erwärmen. Aber da sich diese bei einer CO2-Verdoppelung kaum mehr erhöht, erklärt das den extrem geringen Effekt.

Das Argument der Totalsättigung kann man sophistisch umgehen, wenn man die Thermalisierung ignoriert und annimmt, dass ein zusätzlicher Treibhauseffekt durch ein Schicht- oder Kaskadenmodell bedingt ist, bei dem eine ständige Absorption (I) und Emission (B) stattfindet. Dann gilt - nur für den Bereich um 15 µm - die Strahlungstrans-portgleichung (11) mit infinitesimalem Weg dz, dem Absorptionskoeffizienten sa und der Teilchenzahl n:

d I = I × n × sa × dz - B× n × sdz

Man kommt zu einem komplexen Gleichungssystem (12). Ein Problem ist, dass der Strahlungstransport vom Temperaturgradienten der Atmosphäre abhängt, dieser aber erst iterativ berechnet werden muss.

Bei der Absorption an den Peakflanken ist die Extinktion naturgemäß kleiner. IPCC schreibt 1990 "The effect of added carbon dioxide molecules is, however, significant at the edges of the 15 µm band, and in particular around 13,7 and 16 µm (13)".

Um dies zu überprüfen wurde als Arbeitshypothese angenommen, die Extinktion soll sich bei Verdopplung des CO2-Gehalts um die Größenordnung E = 3 (T = 10-3) erhöhen. Hierzu wurde das Gesamtintegral der Banden bis zu den auslaufenden Enden des R- und P-Zweiges bei E = 0 ermittelt (s. Bild. 2).

Bild 2: Spektrales Auswertungsschema

Dann wurden die digital abgespeicherten Spektren ab einer Extinktion, die dem Wert
E = 3 (auf den Gesamtweg innerhalb der Troposphäre bezogen) entsprachen bis zu den auslaufenden Enden (E = 0) des R- und P-Zweiges integriert. Damit waren die edges erfasst. Diese edges begannen beim P-Zweig bei 14,00 µm und beim R-Zweig bei 15,80 µm und liefen jeweils bis zur Grundlinie E = 0. IPCC lässt die Banden bei 13,7 und 16 µm beginnen (13). Für die n3-Bande ergab sich folgendes:

15 µm-Bande 357 ppm 714 ppm
Gesamtintegral 624,04 cm -1 - 703,84 cm -1 0,5171/cm 1,4678/cm
Summe der Flanken-Integrale 1,11.10-4/cm 9,79.10-4/cm

Tabelle: 15 µm-Bande (Gesamtintegral und Flankenintegrale E = 0 bis E = 3)

Der relative Zuwachs des Treibhauseffekts ist entscheidend. Er entspricht der Differenz der Flankenintegrale bei 714 ppm und 357 ppm im Verhältnis zum Gesamtintegral bei 357 ppm.

(9,79.10-4/cm - 1.11.10-4/cm) / 0,5171/cm = 0,17 %

Diskussion und Schlussbemerkung

Eine feststellbare globale Erwärmung durch eine Erhöhung der Infrarot-Absorption für die 15 µm-Bande um 0,17% bei CO2-Verdoppelung ist nicht zu erwarten.

Man kann auch das radiative forcing mit den obigen Angaben berechnen wenn man dem Gesamtintegral (Fläche) der n3-Bande von 0,5171 cm-1 bei 357 ppm CO2 ein radiatives forcing von 32 W/m2 (14) über 180º Raumwinkel aus Satellitenmessungen (Hanel et al., 1971) für eine Standardatmosphäre zumisst.

Nach der hier dargestellten Messung und Auswertung für CO2-Verdoppelung erhöht sich das radiative forcing nur um 0,054 W/m2 und nicht um 4,3 W/m2.

Dies ist etwa um den Faktor 80 weniger als das IPCC-forcing.

Gehen wir von dem behaupteten natürlichen Treibhauseffekt von 7,2 ºC aus, so würde eine CO2-Verdoppelung 0,17% davon ergeben, das sind nur 0,012 ºC. Rechnet man 1/80 von den 1,2 ºC, die gemäß Stefan-Boltzmann aus dem Strahlungsantrieb von 4,3 W/m2 resultieren, so ergibt sich ein ähnlicher Wert von 0,015 ºC.

Abschließend möchte ich die Leser darauf aufmerksam machen, dass dem gegenwärtigen CO2-Gehalt je nach Literaturstelle ein unterschiedlicher Temperatureffekt zugeordnet wird. In dem von von J.T. Houghton herausgegebenen Buch "The Global Climate" geben Kondratjew und Moskalenko 7,2 K an (14).

Die Autoren zitieren sich dabei selbst (15). Besorgt man sich das in Kyrillisch geschriebene Buch und schaut auf der angegebenen Seite nach, so findet man nichts. Die angegebene Seite ist eine Seite des Sachwortverzeichnisses. Auch die weitere Suche in dem Buch bringt kein Ergebnis. Andererseits scheint man sich doch recht sicher zu sein, denn die Angaben der Autoren werden gerne zitiert (16). Allerdings gibt es Widersprüche, denn K.P. Shine gibt einen anderen Wert an, nämlich 12 K (17) und R. Lindzen (18) geht davon aus, dass dem CO2 nur etwa 5% des natürlichen Treibhauseffekts zuzuordnen sind. Das wären 1,65 K und weniger als ein Viertel des bei IPCC benutzten Werts von 7,2 K.

Was stimmt denn jetzt? Gibt es irgend jemanden, der hierzu eine Grundlagenarbeit kennt oder einmal logisch nachvollziehbar vorrechnen kann, welchen Beitrag das gegenwärtig vorhandene CO2 an dem greenhouse effect von 33 K hat und weshalb entweder Shine, Lindzen oder Kondratjew und Moskalenko recht haben?

Literatur

[1] Roger Revelle, Scientific American, 247, No.2, Aug. 1982, 33-41
[2] Jack Barrett, Spectrochim. Acta Part A, 51, 415 (1995)
[3] R.A. Hanel et al. Journal of Geophysical Research, 77, 2629-2641 (1972)
[4] Hermann Flohn, Nachr. Chem.Tech.Lab, 32, 305-309 (1984)
[5] L.S.Rothman et al., Appl.Opt. 26, 4058 (1987)
[6] Heinz Hug, Chemische Rundschau, 20. Febr., p. 9 (1998)
[7] Paul S. Braterman, Spectrochim. Acta Part A, 52, 1565 (1996)
[8] Keith Shine, Spectrochim. Acta Part A, 51, 1393 (1995)
[9] John Houghton, Spectrochim. Acta Part A, 51, 1391 (1995)
[10] Richard S. Courtney, Spectrochim. Acta Part A, 53, 1601 (1997)
[11] Richard P. Wayne, Chemistry of Atmospheres, Oxford University Press,
2nd. Edition, 44-49 (1991),
[12] Murry L. Salby, Fundamentals of Atmospheric Physics, Academic Press, 198-257 (1996)
[13] Climate Change 1990. The IPCC Scientific Assessment, p. 49
[14] K.Ya. Kondratyev, N.I. Moskalenko in J.T.Houghton, The Global Climate, Cambridge
Universitiy Press, 225-233 (1984)
[15] K.Ya. Kondratyev,N.I. Moskalenko, Thermal Emission of Planets, Gidrometeoizdat,
263 pp (1977) (Russisch)
[16] C.D. Schönwiese, Klimaänderungen, Springer-Verlag Berlin Heidelberg, p. 135 (1995)
[17] Keith P. Shine, A. Sinha, Nature 354, 382 (1991)
[18] Richard S. Lindzen, Proc. Nat. Acad. of Sciences, 94, 8335 (1997)

Wiesbaden, 31. Juli 1998
Heinz Hug
Fax +49/xxx-xxxxxx
Url: http://www.wuerzburg.de/mm-physik/klima/cmodel.htm
Url: http://www.geocities.com/CapeCanaveral/4310/klima/artefact.htm

Sehr geehrter Herr Bumann,
die Seite ist noch fehlerhaft und war ein erster Versuch. Inzwischen habe ich mehrere Veröffentlichungen in Fachzeitschriften (Chemische Rundschau, CHEMKON) publiziert, die es besser und weniger wissenschaftlich angreifbar auf den Punkt bringen.
Dennoch die Grundaussage stimmt:
Der Treibhauseffekt ist im wesentlichen gesättigt (ca. zu 99 %)
und kann kaum mehr gesteigert werden.

Mit freundlichen Grüßen
H. Hug
28.09.2002

Eine Ergänzung aus 05.2004 zum Thema Treibhauseffekt.


Wieviel CO2 atmet der Mensch aus?

...
Claus Bliefert, Umweltchemie, Wiley VCH, Weinheim...(1997) gibt auf S. 145 an, dass der Mensch im Mittel mehr als 700 g CO2 ausatmet (350 L). Das wären im Jahr mehr als: 365 x 0,7 kg x 80 Mio. Leute = 20,44 Mio. Tonnen.

In einer älteren "Bliefert-Ausgabe" steht, dass die 350 L reines CO2 für den Mensch im Ruhezustand (!) gelten. Deshalb hatte ich in meinem Buch ("Der tägliche Ökohorror"), die menschliche CO2-Emission über den Lebensmittelumsatz berechnet. Die Rechnung ist detailliert auf S. 282 von mir aufgedröselt. Kurz: Über ein 70 jähriges Leben nimmt der Mensch 19 t Kohlehydrate, Fette, Eiweißstoffe als Trockensubstanz (!) gerechnet auf (die Ziffer stammt aus Rapoport: Medizinische Biochemie). Bei einem durchschnittlichen Kohlenstoffgehalt der Lebensmittel von 47 % und unter Berücksichtigung des Kohlenstoffs, der mit den Faeces ausgeschieden wird, beträgt die täglich umgesetzte und wieder ausgeatmete Kohlenstoffmenge 335 g, die 1,23 kg reines Kohlenstoffdioxid entsprechen.

Jährlich atmet demnach ein Mensch 0,45 t CO2 aus. Bei 80 Mio. Menschen sind das in der Bundesrepublik: 36.000.000 t/Jahr

Aus einer anderen Stelle bei Bliefert (S.113) kann man entnehmen, dass der Mensch bei ruhiger Atmung täglich 11,5 m3 Luft umsetzt. Der Gehalt der Atemluft wird mit 4 % angegeben. Das wären 460 L reines CO2 oder 460 / 22,4 = 20,5 mol CO2. Also: 0,9 kg/Tag. Bei 365 Tagen und 80 Mio. Einwohner sind das 26.000.000 t/Jahr.

Amtliche, von einem Hochschulinstitut abgesegnete Ziffern über das vom Menschen ausgeatmete Kohlendioxid, gibt es nicht, weil solche Angaben ökopolitisch vollkommen inkorrekt sind. Ich schätze, dass sie täglich zwischen 0,9 und 1,23 kg CO2 liegt. Besondere Empörung erreicht ich beim Westdeutschen Rundfunk, der meinen "Ökohorror" besprach, als ich die CO2-Atmung mit dem PKW-CO2-Ausstoß vergleich. Der Redakteur konnte sich vor kämpferisch-engagierter Wut kaum einfinden, und meinte das menschliche Atmungs-CO2 sei rein biologisch (keine Erntemaschinen, keine Kühlhaltemaßnahmen, kein Kochen mit Erdgas, Strom etc).

Zur Erinnerung: Es gibt zehnmal so viele Menschen auf dem Globus als Autos. Bei 12 L/100 km und 15.000 km im Jahr entspricht die menschliche Atmung ziemlich genau dem, was alle PKW dieser Welt ausstoßen. ...

Quelle: Heinz Hug, aus einer E-Mail 27.06.2003

... Laut Fachbücher der Physiologie wie z.B. Physiologie des Menschen; Springer Verlag atmet ein erwachsener Mensch ( 70 Kg, männlich) in Ruhe 15 l CO2 /Stunde aus. (Kinder atmen weniger aus, alte Leute ebenso; ebenfalls im Schlaf wird weniger ausgeatmet, bei körperlicher Leistung wird wesentlich mehr ausgeatmet). Das Ganze hängt weiterhin stark von der Ernährung ab. Eine Berechnung findet man ebenfalls unter www.biokurs.de/treibhaus/ menü Science Facts / Alles zu CO2 / Biologie ganz unten.

Quelle: Ernst-Georg Beck, aus einer E-Mail 27.06.2003

Da die meisten von uns nun nicht reine Vegetarier sind und wir (Weltbevölkerung) zur Ernährung, zum Teil aber auch nur zum Spaß, auch noch einen sehr erheblichen Vieh-/Tierbestand halten, darf man die Zahlen von Hug getrost mindestens mit dem Faktor 4, eventuell sogar 6, multiplizieren, um den CO2-Eintrag in die Atmosphäre, verursacht allein durch menschliches Dasein (Atmung), zu erfassen.

Quelle: Heinz Thieme, aus einer E-Mail 29.06.2003
http://people.freenet.de/klima/Einfluss.htm


Die Atmosphäre und ihre Masse

Was enthält die Atmosphäre?
Woher kommen die Masseanteile?

Gas Formel Mischungsverhältnis

Vol%

Massenanteil

%

Stickstoff N2 78,08 75,51
Sauerstoff O2 20,95 23,14
Argon Ar 0,93 1,28
Kohlendioxid CO2 0,034 0,05
Neon Ne 0,0018  
Helium He 0,00052  
Methan CH4 0,00018  
Krypton Kr 0,00011  
Xenon Xe 0,00009  
Wasserstoff H2 0,00005  
Lachgas N2O 0,000031  

Tabelle: Die (normierte) Zusammensetzung trockener Luft

Hierzu kommen 0.001 - 4 Vol.- % Wasserdampf. Zu berücksichtigen sei, dass es sich um eine Normtabelle handelt. Nicht aufgeführt sind Schwebstoffe, welche ebenfalls Auswirkungen haben, sei es Streuung, Absorption oder lediglich die Wirkung als Kondenskeim. Auch Stoffe in ionisierter Form aus den Ozeanen, wie z.B. Chloride, fehlen in der Auflistung.

Die folgende Auflistung soll den Versuch darstellen, die wesentlichen Massebestandteile hinsichtlich ihrer Quellen zu erfassen. Dies geschieht ohne jegliche Quantifizierung. Eine Beurteilung des anthropogenen Anteils soll vorerst nicht Bestandteil der Betrachtung sein, vorab genügen die Relationen der Massen zu einer versuchsweisen abschätzenden Betrachtung des Wirkungsanteils.

Massebestandteile der Atmosphäre
eine Auflistung

natürliche Ursache (n)
anthropogene Ursache (a)

Wasser

  • Verdunstung Ozeane (n)
  • Verdunstung Festlandwasser (n
  • Verdunstung Festland (n)
  • Verdunstung Flora (n)
  • vom Ausatmen Luft atmender Fauna (n/a)
  • in Dampfform aus der Industrie (Kühlturm) (a)
  • in Dampfform aus Haushalten (Duschen, Kochen) (a)
  • ausgestoßen aus Geysiren (n)
  • Kondensstreifen vom Flugverkehr (a)
  • Verstärkung des Kreislaufes oberirdisch durch Grundwasserentnahme (a)

Sauerstoff

  • aus Reproduktion der Flora (n)
  • bislang werden ihm keine schädlichen Eigenschaften nachgesagt (-)
  • wobei 100% auf Dauer sogar giftig wäre (-)
  • Problem: Umwandlung in Ozon kann nachteilig wirken (a/n)

Kohlendioxid

  • Verbrennung fossiler Brennstoffe (Industrie und Haushalte) (a)
  • Waldbrände (a/n)
  • Brandrodungen (a)
  • Schwelbrände (z.B. Torf, Zechen) (a/n)
  • Pkw-Verkehr (a)
  • Lkw-Verkehr (a)
  • Flug-Verkehr (a)
  • aus industriellen Abläufen
    • Eisenverhüttung: 1. beim Erwärmen, 2. zur Reduktion des Erzes (a)
    • Zementerzeugung: 1. bei der Prozesswärmeerzeugung, 2. aus dem Kalk im Zement
      CaCo3 ->CaO + CO2 (a)
  • Freisetzung aus den Ozeanen bei Zerfall von Kohlensäure (n)
  • aus tektonischen Vorgängen (entweichende Gasblasen) (n)
    • auf dem Festland (n)
    • unterseeisch (Vulkane am Grunde der Ozeane) (n)
    • vulkanische und nichtvulkanische Ausgasungen (n)
    • aus den Massen der Ozeane freigesetzt (H2CO3 » CO2 + H2O) (n)
    • aus Kalkstein (CaCO3 + SiO2 -> CaSiO3+ CO2)
      innerhalb des Lithosphären-Plattenzyklus der Erdkruste (n)
    • Reduktion von Erz durch Kohlenstoff (fossiler Kohlenstoff auch in Tiefen von 20-100Km,
      dabei werden Metall-Oxide reduziert zu Metallen und CO2 freigesetzt) (n)
  • wird aber von den Pflanzen als Nahrung benötigt (-)

Argon

  • wird hinsichtlich der Erwärmungstheorien nicht bzw. kaum thematisiert (-)
  • kommt aber 25x häufiger vor als CO2 (-)

Methan

  • aus der Landwirtschaft, Viehzucht: z.B. wenn Kühe verdauen (a)
  • aus der weltweiten Fauna: z.B. wenn Kängurus verdauen
  • aus der Landwirtschaft, Ackerbau: z.B. wenn Silage hergestellt wir (a)
  • aus Sumpfgebieten (gewaltige Mengen aus dem Amazonas-Gebiet) (n)
  • aus tektonischen Vorgängen (entweichende Gasblasen) (n)

Feststoffe

  • riesige Mengen von Vulkanausbrüchen (n)
  • Sandmassen der Sahara infolge der Wirbelstürme (n)
  • aus Straßenverkehr (z.B. Russpartikel) (a)
  • aus der Industrie (was am Filter der Schornsteine vorbei geht) (a)
  • Staub aus dem Weltall (Erdeintrag jährlich mehrerer kt) (n)

Schwefel

  • Vulkanausbrüche (n)
  • aus tektonischen Vorgängen (permanentes Abgasen) (n)
  • bei Verbrennungsvorgängen (Industrie, Verkehr, Haushalte) (a)

Sonstige

  • Chemikalien in Aerosolform bei Betriebsunfällen (Bayer) (a)
  • Chemikalien in Aerosolform bei militärischen Aktivitäten (Krieg, Tests) (a)
  • sonstige Stoffe bei Bränden (Häuser, Eisenbahn) (a)
  • Betriebsunfälle und Leckagen bei Erdgaspipelines (a)
  • allen bislang aufgelisteten Quellen lassen sich Nebenprodukte zuordnen (a/n)
  • das sind u.a.: CO, N2O, NOX, SO2, KW, CFC, O3 (a/n)

Einflussfaktoren

  • Sonnenaktivitäten (Sonnenwinde, Strahlungseintrag) (n)
  • Diskontinuierliche Wärmefreisetzung durch Vulkanausbrüche (n)
  • Bewegungen der Ozeanmassen (n)
  • Wanderung des Magnetpoles (n)
  • Veränderungen des Strömungsverhaltens der Ozeane (n)

Zur Verteilung der Stoffe

Zunächst sei beschrieben, wie die Atmosphäre unterteilt wird. Nach der thermischen Schichtung der einzelnen Bereiche unterscheidet man (von unten nach oben): Troposphäre "Wettersphäre", Stratosphäre "geschichtete Sphäre", Mesosphäre "Zwischensphäre" und Thermosphäre "heiße Sphäre".

Folgte man der These, dass "schwere Moleküle", also Moleküle mit hohem Molekulargewicht, sich in Bodennähe anreichern würden, würde sich in einer hypothetischen, rein diffusiv gemischten Atmosphäre für jedes Spurengas eine eigene Höhenverteilung entsprechend der Barometrischen Höhenformel einstellen.

Die Atmosphäre ist aber in Wirklichkeit bis zur sogen. Turbopause in etwa 100 Km Höhe turbulent durchmischt. Die diffusive Entmischung tritt also erst oberhalb von ca. 100 Km in der Heterosphäre auf. Man unterscheidet nach dem vorwiegenden Mischungsmechanismus zwischen der Homosphäre, welche homogen (turbulent) gemischt ist, und der Heterosphäre, welche heterogen (diffusiv) entmischt ist.

Daraus ist zu schlussfolgern, dass die so genannten Treibhausgase nicht wie eine Hüllschicht am oberen Ende der Turbopause konzentriert sitzen und daher mit dem Glasdach des Treibhauses zu vergleichen wären.

Die so genannten Treibhausgase sind also von kurz über dem Erdboden bis in eine Höhe von ca. 100 km in der Atmosphäre verteilt. Daraus ist zu den Mechanismen der Absorption und der Streuung zu schlussfolgern, dass diese hinsichtlich der Strahlungsrichtung (von unten von der Erdoberfläche aus, von oben von der Sonne kommend) und der Intensität (jeweils von/nach oben/unten abnehmend) zu unterscheiden sind. Hierbei spielt die unterschiedliche Wellenlänge der Strahlung eine wichtige Rolle.

Trotz der oben beschriebenen (nahezu) gleichmäßigen Verteilung aller Gase muss man von örtlichen Unterscheiden in der Konzentration ausgehen. Das Gegenteil würde bedeuten, von einem stationären Zustand auszugehen, was ja bei einem so bewegten Medium wie der Atmosphäre unvorstellbar ist.

In diese Betrachtung der unterschiedlichen Verteilung sind erst recht die anderen Stoffe einzubeziehen: Wasser in Dampfform (Wolken) und Schwebstoffe. Außerdem gibt es Bestandteile, die fast ausschließlich bodennah festzustellen sind.

Diese Verteilungsunterscheide bezogen sich bislang auf die Höhe. Sie müssen aber auch bezogen auf die Erdoberfläche darstellen, was sich schon allein aus der örtlichen Zuordnung ihrer Quellen erklärt. Industrieemissionen werden sich natürlich auch über Meergebieten ausbreiten, aber klar dürfte sein, dass ihre Konzentration am Entstehungsort viel höher ist.

Um sich die Relationen zu verdeutlichen muss man sich vor Augen führen, dass die Ozeane 70% der Erdoberfläche bedecken und dass sie das größte Reservoir an CO2 darstellen: in Form von HCO3- ist das ca. 60x mehr als in der Atmosphäre.

Dass eine gleichmäßige Verteilung vorhanden ist, dürfte auch dem Laien schwer vorstellbar sein. Es gehört schon eine gehörige Portion Modellverliebtheit und Relitätsferne dazu, all die komplexen Vorgänge mit ihren Wechselbedingungen, Ursachen und Auswirkungen in ein computer-rechenbares Modell stopfen und die Witterung global voraussagen zu wollen.

Gibt es ein Gleichgewicht?

Global gesehen, ja. Wenn wir einmal von den läppischen Kilotonnen Weltallstaub absehen, die Jahr für Jahr auf die Erde fallen. Bezogen auf die Erdmasse sind die fast zu vernachlässigen.

In der Summe der Massen der Erde kann man von einem Gleichgewicht ausgehen, sofern dies weder eine wesentliche Zu- noch Abnahme bedeutet. Auch die Strahlungsvorgänge - Stichwort Welle-Teilchen-Dualismus der elektromagnetischen Strahlung - ändern daran nichts, weil die Erde soviel abstrahlt, wie sie aufnimmt.

Nun wissen wir aber, dass es in der Atmosphäre recht turbulent zugeht. Das zieht mitunter beträchtliche Konzentrations-, Dichte-, Gefälle-, Bewegungs-, und Temperaturunterschiede nach sich. Man spricht ja auch von Luft- und Wasser-Massen, vor den Einheiten steht Mega, Tera, Giga.

Dass Veränderungen von solch unvorstellbaren Massen Auswirkungen auf die Atmosphäre haben, ist leicht vorstellbar. Die Auswirkungen von plötzlich einfallenden Warm- oder Kaltluftfronten kennt jeder, ohne sich Gedanken über die Massen gemacht zu haben.

Stellen wir uns einen kleinen Abschnitt von 100 km Tiefe und 100 km Breite vor, dann macht das auf die 100 km Höhe bis zur Turbopause insgesamt 100 x 100 x 100 = 1.000.000 km3 = 1 x 106 km3 (1 Million Kubikkilometer). Das sind 1015 m3 Luft (1.000.000.000.000.000 m3). Haben wir gerade 1 Vol- % Wasser, entspricht dies 1 x 1013 m3 bzw. 1 x 1016 l, wenn man eine Gleichverteilung annimmt.

Dieses dynamische Gleichgewicht findet man auch im Meer vor. Jeder kennt den Golfstrom, aber nicht jeder weiß, dass wir in unseren Breitengraden die nächste Eiszeit hätten, würde der Golfstrom aussetzen.

Die einzige Konstante am Golfstrom ist, dass er sich seit tausenden von Jahren im Atlantik von Süd nach Nord bewegt. Ansonsten ist er schon sehr veränderlich. Geringe Veränderungen im horizontalen oder im vertikalen Verlauf wirken sich drastisch auf Temperatur- und Wettergeschehen aus.

Dazu kommt eine veränderte Abgabe oder Aufnahme von CO2, um nur ein Beispiel zu nennen. Auch wenn es sich nur um Spurenelemente handelt, letztendlich geht es um Mega-Tonnen. Soviel CO2 kann Deutschland in den nächsten 1.000 Jahren nicht durch die Esse jagen, was die Ozeane freisetzen (oder binden).

Wenn es nun kein Gleichgewicht (im stationären Sinne) geben kann, ist zu schlussfolgern, dass sich auch die Masse der Atmosphäre verändert. Sie ist genauso eine veränderliche Größe wie die Dichte und das Volumen, denn die 100 km über der Erdoberfläche sind keine starre Grenze.

Es ist weiterhin davon auszugehen, dass die Menschheit auch mit modernsten Geräten kaum in der Lage sein dürfte, eine quantifizierbare Grenze der Atmosphäre zu messen. Zum Abschluss noch ein paar Zahlen:

Die Erdoberfläche beträgt ca. 510 Mio. km2, davon sind 363,5 Mio. km2 Wasserfläche. 25% der Meeresfläche hat eine Tiefe von rd. 5 km. Das allein sind schon rd. 450 Mio. km3 Wasser, für deren Abkühlung / Erwärmung gigantische Energiemengen erforderlich sind. Der Erdumfang beträgt rd. 40.000 km, der Durchmesser rd. 12.740 km, der Durchmesser rd. 25.480 km.

Die Atmosphäre hat auf 100 km eine Temperatur von ca. 240 K, die bei 120 km auf ca. 400 K ansteigt. In diesem Bereich liegt die Dichte nur noch bei 10-6 bis 10-7 kg/m3. Der Umfang der Tropopause beträgt rd. 12.850 km, der Durchmesser rd. 25.700 km.

Dipl.-Ing. Matthias G. Bumann
Bauingenieur und "Hobbyklimatologe"
Berlin, 08. November 2002


Mit Hinweisen zur Herkunft des CO2 haben sich einige befasst.
Einige Artikel (z.T. mit Linktipps) möchte ich hier wiedergeben:

Hallo,
In der NZZ vom 27.2.03 fand ich von Simone Ulmer einen sehr interessanten Bericht:
"Zähmung afrikanischer Todes-Seen - wachsendes Bewusstsein für die CO2-Gefahr".

Wie bekannt, führte 1984 ein CO2-Ausbruch aus dem Monoun-See (ca. 96 m Tiefe) zum Erstickungstod von 37 Personen. 1986 erstickten 1800 Menschen im Umkreis bis zu 24 km vom Nyos-See (ca. 200 m Tiefe). Diese Seen in Kamerun sind zusammen mit dem Kivu-See in Rwanda die drei Seen mit dem höchsten, durch vulkanische Ausgasungen bedingten CO2-Gehalt.

Hochinteressant ist die Tatsache, dass unter dem Druck der Tiefe extreme CO2-Mengen in dem Wasser gelöst werden. Steigt das Wasser aus irgend einem Grund hoch, so bilden sich CO2-Blasen die zu einem starken Auftrieb sowie zu einer fast explosionsartigen Entgasung führen können. In Zusammenarbeit mit der UNO hat die Regierung zur Beseitigung dieser tödlichen Gefahr ein einfaches Ausgasungsprojekt realisiert. Lange Plastikröhren wurden an Flösse gehängt und das Wasser einmal hochgepumpt. Das ausperlende CO2 bildete dann einen so starken Auftrieb dass permanent eine etwa 50 m hohe Fontäne aus den Röhren aufsteigt.

Siehe ==> http://perso.wanadoo.fr/nyos/

Was die IPCC-Ozeanmodellierer mit ihrer Vorstellung von Sättigungserscheinungen der Ozeane durch den Revelle-Faktor und damit vermeintlich ansteigender "airborne fraction" daraus lernen können, ist dass das CO2-Speichervermögen der Ozeane (die in hohen Breiten viel CO2 lösen und bei der Tiefenwasserbildung nach unten transportieren) durch den hohen Wasserdruck offenbar gigantisch sein muß. Abgesehen davon erfolgt auch eine Kalksteinbildung durch basisches Material aus unterseeischen Vulkanen. Die Ozeanchemie kann offenbar nicht so wie in einem Swimming-Pool gehandhabt werden.

Mit freundlichen Grüssen
P. Dietze
E-Mail vom 14.03.2003

und - wieder mal - eine Ergänzung:

Sehr geehrter Herr Dietze,
siehe vulkanische und nichtvulkanische Bodenausgasungen

www.biokurs.de/treibhaus/

mfg Ernst-Georg Beck
E-Mail vom 15.03.2003


In der Klimaszene kursieren all möglichen Schätzungen. Die 50 GT C/Jahr sind auch eine solche Schätzung (habe ich auch auf meiner Treibhausseite gemacht).

siehe: www.biokurs.de/treibhaus/

Tatsache ist, man hat derzeit an 24 Vulkanen samt Umgebung und verschiedenen nichtvulkanischen Subduktionsgebieten insgesamt 0,6 GT C/Jahr gemessen. Klar ist, dass wenn alle relevanten Gebiete der Erde vermessen sind mindestens ein 2 stelliger GT C-Wert herauskommt. Das ist ja das Problem, dass man wichtige natürliche C-Emissionen überhaupt nicht kennt, dazu kommen noch riesige Gashydrat-Lager in den Ozeanen von ca. 10 000 GT (Schätzung) und trotzdem wird der C-Kreislauf simuliert, und definitive Schlußfolgerungen geschlossen. Das ist halt Spekulation oder Wissenschaftsmißbrauch wie sie es nennen wollen, wenn Latif, Graßl und Konsorten dann stocksteif behaupten Spekulation = Wahrheit.

Verdunstung ist ein endothermer Prozess (Wärme ist dazu nötig). Kondensation ein exothermer Vorgang bei dem in der Atmosphäre gewaltige Wärmemengen feriwerden. dass Regen die Wärmebewegung der Gase verlangsamt ist sicher richtig, durch Konvektion und Wärmeleitung (Wind) wird das auch wieder kompensiert.

Inzwischen geben schon führende IPCC-Leute zu, dass sie im Wesentlichen falsch gelegen sind: Bitte unbedingt lesen, ein Knaller!:

http://www.co2science.org/edit/v6_edit/v6n22edit.htm

Dr. Christy, ein führender IPCC-Wissenschaftler gibt vor dem US-Repräsentantenhaus zu, dass die IPCC- Prognosen nicht zutreffen und dass man noch wichtige Dinge im C-Kreislauf, wie den Wärmetransport nicht verstanden hat.

mfg Ernst-Georg Beck
02.06.2003


Hallo,
diese Meldung aus Afrika ist nicht neu. Es gibt ähnliche oder verbindbare Meldungen überall. Wer nicht vergißt, dass unser Planet Erde innen bis auf eine ober "schwimmende" und relativ dünne fest Oberflächen-Kruste vollständig glutflüssig ist (Erdkern und Erdmantel), der wundert sich höchstens, dass weder Wissenschaftler noch Politiker sich fragen, wo denn das ganze Gas dieser "Glutofenfabrik Erde" aus Bodenspalten, Mineralquellen, Vulkanen und Meeresverwerfungen aufsteigen wird. Woher kommt denn bitteschön die Kohlensäure in allen Mineralquellen nicht nur Deutschlands?

dass allein im Yellowstone-Nationalpark mehr CO2 in die Atmosphäre gepustet wird, als alle australischen Kängurus und afrikanischen Elefanten zusammen in ihren Mägen und Därmen produzieren können, ist schon eine frustrierende Erkenntnis.

Unsere Wissenschaftler sind zum großen Teil heute nicht besser als damals die mittelalterlichen Scharlatane, nur geschickter dies per Computersimulationen zu kaschieren. Junk fiction ist das moderne Wort für solche Pseudowissenschaften zugunsten des weiter fließenden Forschulgsgeldererhaltes und zu Lasten einer wahrheitlichen Forschung.Mich persönlich widert das ganze schon völlig an.

Mit freundlichen Grüßen
Werner Eisenkopf
E-Mail vom 14.03.2003


In der NZZ war kürzlich ein ebenso interessanter Artikel über die im Meeresboden als Feststoff gelagerten Gashydrat-Vorräte. Es ging um eine Studie, nach der möglicherweise die starken Klimaschwankungen der Vorzeit durch Bewegungen im Meeresboden verursacht wurden, die schlagartig extreme Mengen von Methan freisetzten.

So läuft die "Schöpfung", die unsere kleinkarierten Politiker und Bürokraten - sogar mit Hilfe der Kirche - mittels der uns abgepreßten letzten Groschen nach ihrer Facon retten wollen.

Anstatt in Demut die unergründliche Sinnhaftigkeit zu bestaunen, nach der u.a atomare Teilchen als Sonnenwinde mit 500 km pro Sekunde das gesamte Planetensystem umspülen, beschäftigt sich unsere steuergeldfinanzierte Wissenschaft und Forschung mit den Darmwinden der unschuldigen Geschöpfe Kühe, beschimpft sie als Klimakiller und will ihnen die politisch-unkorrekten Darmwinde austreiben. Da das mit dem Katalysator nicht so recht paßt im Kuh-A...-Loch, will man ihnen die "fatalen Flatulenzen" nun mittels Kängeruh- Darmbakterien- Einpflanzung abgewöhnen (nachzulesen in GEO 09/2002).

Kängeruhs furzen politisch korrekt. Vielleicht hängt diese Wahlverwandtschaft mit den "großen Beuteln" zusammen, in die soviel reinpaßt und mit denen man so große Sprünge machen kann.

Wenn es einen Gott gibt, wird er den Menschen für diese Vermessenheit gerade erst recht eine Sintflut schicken, so wie er es zu Noahs Zeiten getan hat.

Gruß
Hanna Thiele
E-Mail vom 14.03.2003

comment.gif (1022 bytes) Hierzu möchte ich auf meinen Artikel vom Mai 2002 verweisen:
Ursache für Klimakatastrophe gefunden: Neuseelands Kühe scheissen zu viel


Die „Gegenstrahlung“ ist eine recht willkürliches Phantasieprodukt
von Heinz Thieme

Strahlungsfl1.gif (22812 bytes)

Bild 1: Strahlungs- und sonstige Energieflüsse in der Atmosphäre
Quelle: Max-Planck-Institut für Meteorologie
http://www.mpimet.mpg.de/Depts/Modell/EXPO/hintergrund.html  (dead link, 29.01.2005)

Strahlungsfl2.gif (24970 bytes)
Bild 2: Strahlungs- und sonstige Energieflüsse in der Atmosphäre
= Bild 1 mit Ergänzungen von Hr. Thieme: Zirkulation der „Gegenstrahlung" und der hierdurch verursachten zusätzlichen langwelligen Abstrahlung von der Erdoberfläche vom Verfasser eingezeichnet
Quelle: http://mitglied.lycos.de/climate/gegenstrahlung.htm

Lesen Sie hier nach, warum es sich bei der „Gegenstrahlung“ um ein Phantasieprodukt und physikalischen Nonsens handelt:

Zum Phänomen der atmosphärischen Gegenstrahlung


Beeinflusst der Mensch wirklich Wetter und Klima?
Sind die Zusammenhänge wirklich verstanden?
von Heinz Thieme

Inhalt:
1. Situation
2. Temperatur oder Enthalpie?
3. Ist die Atmosphärenmasse konstant?
4. Beeinflußt der Wassergehalt die Atmosphäre?
5. Klärungsbedarf besteht – Vorsicht bei Entscheidungen auf wackligen Grundlagen
Quellenhinweise

Fazit: "Das bisherige Nichterkennen bzw. Ignorieren der vorstehend gezeigten Zusammenhänge trotz erheblicher Forschungsaufwendungen weist darauf hin, dass für eine erfolgversprechendere Klimaforschung sowohl unvoreingenommene Meteorologen und Klimatologen als auch eine Verbreiterung der Basis durch Einbeziehen der einschlägig sachverständigen naturwissenschaftlichen Bereiche erforderlich sind; dies wären in erster Linie: Biologie, Chemie und Thermodynamik."

Lesen Sie hier nach, ob der Mensch wirklich Wetter und Klima beeinflusst:

Beeinflußt der Mensch wirklich Wetter und Klima?
Sind die Zusammenhänge wirklich verstanden?

english version: http://www.geocities.com/atmosco2/Influence.htm 


UBA windet sich

Liebe Mit- und Widerstreiter,

sofern Sie den Bericht von J. Christy noch nicht aufmerksam gelesen haben sollten, unter
http://www.co2science.org/edit/v6_edit/v6n22edit.htm   können Sie ihn finden.

Das könnte wohl der Auslöser sein, dass das UBA sich bezüglich Klimagefährdung nunmehr etwas windet.

Besten Gruß
Heinz Thieme
E-Mail vom 30.05.2003

Current Editorial
The 13 May 2003 Testimony of Dr. John Christy Before the U.S. House of Representatives' Committee on Resources Summary: In the wake of the recent publication in Science of a paper that purports to provide evidence for the reality of human-induced global warming, one of the scientists who oversees the processing of the satellite data that play a crucial role in this discussion presented his ideas on the subject to the American public via written congressional testimony, which we reprint here for all to see.


Hausaufgaben für das UBA

Dr. Hans Penner – 76351 Linkenheim-Hochstetten
an: Herrn Professor Dr. Andreas Troge, Umweltbundesamt

Sehr geehrter Herr Professor Troge,

die Bundesregierung möchte Umwetterschäden durch die Reduzierung von Kohlendioxid-Emissionen abmildern. Nach meinen Informationen soll dieses Projekt 250 Mrd Euro kosten.

Um den Sinn dieses Projektes beurteilen zu können, muß ich zuerst wissen, wieviel Kohlendioxid in Deutschland produziert wird.

Ich wäre Ihnen deshalb für eine Ergänzung der nachstehenden Tabelle dankbar (aus der Dokumentation www.iavg.org/iavg137.htm ).

Mit freundlichen Grüßen
Hans Penner

Herkunft Betrag
1. Menschliche Atmung  
2. Tierische Atmung  
3. Pflanzliche Atmung  
4. Bakterielle Atmung  
5. Geologische Emissionen  
6. Personenkraftwagen  
7. Lastkraftwagen  
8. Diesellokomotiven  
9. Schiffsverkehr  
10. Überfliegende Flugzeuge  
11. Steinkohlekraftwerke  
12. Braunkohlekraftwerke  
13. Erödlkraftwerke  
14. Erdgaskraftwerke  
15. Haushalte  
16. Industrielle Heizung  
17. Industrieprozesse  

  

comment.gif (1022 bytes) Diese Aufgabe ist vom 26.06.2003. Schauen wir mal, wie lange es bis zur Lösung dauert. Ich vermute, ein Kinderspiel für Leute, die die Temperaturkurve auf zig Jahre voraus berechnen können.


Energiespeicher-Eigenschaft der Atmosphäre

angeregt durch unser kürzlich geführtes Telefonat (mit Paul Bossert, M.B.) habe ich in meine Seite http://people.freenet.de/klima/Einfluss.htm   den Aspekt der Energiespeicher-Eigenschaft der Atmosphäre ein bißchen eingefügt. Um diesen Punkt detaillierter bearbeiten zu können, bräuchte man Rechensysteme oder Tabellen oder mehrdimensionale Diagramme, die die Eigenschaften der feuchten Luft im Bereich unterhalb von 0°C und bei Drücken unterhalb von 1 bar abbilden. Meines Wissens gibt es diese noch nicht. Und ohne diese Kenntnis gibt es kein annähernd korrektes Veständnis dessen, was in der Troposphäre abläuft.

Außerdem wollte ich Sie noch auf den Bericht/die Anhörung von J. Christy zu Behauptungen bezüglich Klimaveränderungen aufmerksam machen. Sie können diesen Bericht/die Anhörung unter http://www.co2science.org/edit/v6_edit/v6n22edit.htm   finden.

Besten Gruß
Ihr Heinz Thieme
E-Mail vom 01.06.2003


Evolution trotz Eishaus

... anbei ein Artikel von der WELT vom 23.06.2003, Rubrik Wissenschaft. (siehe:
http://www.welt.de/data/2003/06/23/122968.html )

Offensichtlich hat man sich hier zusammengefunden, um der Klimakatastrophentheorie nochmals Leben einzuhauchen bevor Sie von der Realität und neuen Erkenntnissen weggefegt wird.

Die hier dargelegten Fakten sind wie üblich unvollständig oder mißdeutig. Wie man in der Grafik von C.R.Scotese, die alle Proxydaten zur Temperaturrekonstruktioen zusammenfaßt sehen kann ( http://www.scotese.com/ ) gab es schon mehrfach dieses "Ice house", in dem sich trotzdem Tiere und Pflanzen stark ausbreiteten und Evolution stattfand.

Zitat: Danach war unser Planet vor 700 Millionen Jahren von einem globalen bis in die Tiefen der Ozeane hinabreichenden Eispanzer bedeckt. Er ließ nur am Äquator einige Gebiete frei und bot primitiven Formen des Lebens nur in der Nähe untermeerischer Vulkane oder heißer Quellen Überlebenschancen.

Äußerungen wie oben geben diese Daten nicht her insofern wird hier wie üblich drastisch übertrieben. Die ältesten Lebenspuren sind 3,8 Milliarden Jahre alt. In der besagten Zeit von ca. 700 Millionen Jahren gab es schon Vielzeller, die überall auf der Erde als Fossilien an der Oberfläche gefunden werden. Ein bis in die Tiefen des Ozeans reichender Eispanzer scheint mir ebenfalls eines dieser Katastrophenszenarios zu sein, die man braucht um Propaganda zu machen.

scotese.gif (25925 bytes)

Man sieht aber ebenfalls, dass es meist viel wärmer war auf der Erde als heute und die Situation heute wurde ja durch den Meteoriteneinschlag von vor 65 Millionen Jahren eingeläutet. Das Bild unten zeigt die Massensterben an Organismen, die man in ca. 600 Millionen Jahren feststellen konnten. Auch hier keine totale Deckungsgleichheit Katastrophe, Eiszeit.

aussterb.gif (17738 bytes)

Autor: Ernst-Georg Beck
06.2003

   über diesen Artikel gibt es einen Bericht a.a.O.
        Kosmische Strahlung verantwortlich für Treibhauseffekt
        Wasserkreislauf ist Klimatreiber Nummer Eins



Wüstenwald schluckt CO2
Treibhausgase führen zu schnellwachsenden Pflanzen in trockenen Regionen

Rehovot  - Wissenschaftler des israelischen Weizmanns Forschungsinstituts http://www.weizmann.ac.il/haben entdeckt, dass die Bäume in trockenen Regionen größere Mengen von CO2 aufnehmen können als bisher angenommen. Nach Ergebnissen der internationalen Klimaforscher geht es um Mengen von rund sieben Mrd. Tonnen CO2. Die Wissenschaftler haben das anhand von einem Versuchswald, dem Yatir-Forest, der vor 35 Jahren in der Negev-Wüste gepflanzt wurde, festgestellt. Die Erkenntnisse wurden in der jüngsten Ausgabe des Fachmagazins "Global Change Biology" veröffentlicht.

Die Forscher um Dan Yakir vom Institute for Environmental Sciences and Energy haben entdeckt, dass Bäume in trockeneren Gebieten besser und schneller wachsen als bisher angenommen. Pflanzen brauchen CO2 für die Photosynthese, die wiederum zur Produktion von Zucker als Nahrung dient. Um jedoch diese chemische Reaktion zu ermöglichen, müssen Pflanzen ihre Poren weit öffnen und verbrauchen dabei große Mengen von Wasser durch Verdunstung. Nach Angaben der Forscher müssen Pflanzen so zu sagen selbst entscheiden, ob sie mehr Wasser oder mehr CO2 verbrauchen. Yakir glaubt sogar, dass die 30-prozentige Zunahme des CO2 seit der industriellen Revolution diesen Umstand selbst geregelt hat. "Daher öffnen Pflanzen ihre Poren nicht mehr vollständig, verbrauchen auch weniger Wasser. Das führt dazu, dass mehr Feuchtigkeit im Boden bleibt und daher auch in trockeneren Regionen mehr Pflanzen gedeihen können", so Yakir.

Die israelischen Forscher wollen ihre Studien weiter fortsetzen und für bessere Vegetation in trockenen Landstrichen sorgen. Diese würde auch die weitere Ausdehnung der Wüsten verhindern.
(Ende)

Aussender: pressetext.austria, pte030509012 Umwelt/Energie
(pte, 9. Mai 2003 10:22)


Gedanken zur Energiepolitik

Es ist sicherlich ganz nett, wenn sich da eine Versammlung nicht ganz unkundiger Leute Gedanken zur Energie-politik macht (Leopoldina, dimagb). Aber ich bitte doch zu bedenken, dass auch hier wieder zum erheblichen Teil "Olle Kamellen" aufgetischt werden.

Es ist doch wohl unbestritten so, dass, egal welchen Weg der Energieversorgung wir bevorzugen, für die nächsten sagen wir mal einhundert Jahre (ich neige eher zu 200 und mehr Jahren) kein Mangel an Primärenergieträgern gleich welcher Art eintreten wird. Was natürlich auch bedeutet und voraussetzt, dass wir mit unseren näheren und ferneren Nachbarn in friedlicher Übereinkunft miteinander auskommen müssen. Aber gerade dieses Aufeinander-Angewiesen-Sein macht die Notwendigkeit des friedlichen Zusammenlebens deutlich. Und eine andere Form des Miteinanders halte ich für nicht wünschenswert, übrigens auch nicht für "machbar".

Ich finde es aber entsetzlich, wenn immer wieder alternde Leute den nächsten Generationen vorschreiben wollen, wie sie ihre Energieversorgung gestalten müssen, weil ja schon alles erforscht sei und die Jungen ohnehin nichts mehr entdecken und entwickeln könnten. Dass dann nicht noch die Forderung kommt, die Hochschulen unverzüglich zu schließen, weil man schon alles wisse, ist eigentlich erstaunlich - aber unterschwellig ist diese Forderung schon da, von Leuten des Kalibers Schönwiese und Heinloth, ebenso wie von anderen, die auch schon alles wissen.

Meine Anregung: Lassen wir die nächsten Generationen doch selber entscheiden, wie sie Ihre Situation gestalten wollen. Das Klavier, auf dem diese Generationen spielen können, wenn sie denn wollen, hat heute bereits zahlreiche Tasten. Selbst wenn etliche davon nicht benutzt werden, wird man es immer noch ganz gut klingen lassen können. Und dass noch einige Tasten hinzukommen werden (z.B. biologische Wasserstoffproduktion, Methanhydrat), ist so gut wie sicher.

Was man natürlich auch nicht verheimlichen soll, ist, dass der Erkenntnisstand voranschreitet. Dass das Wissen auch in Zukunft weiter exponentiell zunehmen wird, ist wohl unzweifelhaft. Es verändern sich dementsprechend auch die Beurteilungen bestimmter Techniken im Verlauf ihrer Erprobung, Anwendung bis hin zur Verwerfung bzw. Abschaffung. Aber auch hierzu werden die nächsten Generationen ihre Kosten-Nutzen-Analysen selbst veranstalten können. Überlassen wir die Entscheidungen über die künftigen Gestaltungen doch besser denjenigen, die diese gegebenenfalls auch auszubaden haben.

Erinnern sollte man meines Erachtens nur daran, dass ohne gründliche Kenntnisse der Naturwissenschaften keine belastbaren Schlussfolgerungen zu ziehen sind und dass Entscheidungen Konsequenzen haben. Die Naturwissenschaften sind nicht durch Glaubensbekenntnisse oder Mehrheitsauffassungen zu ersetzen, selbst wenn man meint, das heute bereits erfolgreich leisten zu können. Und die Konsequenzen der Entscheidungen bleiben nie aus.

Heinz Thieme
27.12.2003


Es gibt doch keine zwei Physiken!

Es mag lästig sein, immer wieder an die Ursachen der unglaublichen Vorstellungen der theoretischen Klimatologen erinnert zu werden. Solange aber den theoretischen Klimatologen während des Studiums vermittelt wird, dass auch die Troposphäre ein strahlungsphysikalisches System sei, in dem allein die Gesetzmäßigkeiten der Strahlungsphysik gelten würden, dass die allgemeine Gasgleichung p * v = R * T unbedeutend für die Zustandsbestimmung der troposphärischen Luft sei und der zweite Hauptsatz der Thermodynamik (Kein Übergang von Wärme von selbst von kalt nach warm) für strahlungsphysikalische Systeme nicht gelten würde, solange werden die theoretischen Klimatologen sogar guten Glaubens ihren Nonsens verbreiten.

Was natürlich nicht so bleiben kann, ist, dass eben mit dem "Wissen", das ein Meteorologie-Student sich aneignen muss, um zu einem erfolgreichen Studienabschluss zu kommen, ein Studierender eines einschlägigen technischen Faches spätestens im Vorexamen wegen Unfähigkeit und absurder Vorstellungen sein Studium erfolglos beenden müsste. Der Studierende des technischen Faches muss nun aber allein schon wegen der möglichen Gefährlichkeit seines künftigen Wirkens ein äußerst verlässliches Wissen vermittelt bekommen.

Denn er simuliert nicht die Klimaentwicklung in den nächsten 1000 Jahren (deren Zutreffen er ohnehin nicht überprüfen kann), er ist vielmehr darauf verpflichtet, Sorge zu tragen, dass beispielsweise die von ihm betriebene thermodynamische Anlage, z.B. ein Wärmekraftwerk in den nächsten zehn Minuten mit Erzeugung von 350 MW elektrischer Leistung mit exakt 50,0 Hz funktioniert. Verstünde er die von ihm gesteuerten Vorgänge so, wie es die Theorie der Klimatologie lehrt, er hätte kaum die Chance, den nächsten Morgen zu erleben, denn eine Kesselexplosion infolge Fehlbeurteilungen der Vorgänge der Wärmeabfuhr aus und mittels Gasen und Dämpfen wäre die unvermeidbare Folge solchen Un- bzw. Anders-Wissens.

Es kann doch nicht so bleiben. Es ist doch ein Unding, dass in der theoretischen  Klimatologie Dinge gelehrt werden, die doch eher zum sofortigen Rausschmiss solchen Unsinn verbreitender Leute aus dem Lehrkörper von technischen Fakultäten unserer Universitäten führen und führen müssen, allein schon aus der Notwendigkeit, Gefährdungen der Allgemeinheit zu vermeiden. Es geht doch nicht, dass völlig konträre Verständnisse des Funktionierens der Lufthülle der Erde gelehrt werden, von denen allerdings nur eines, jenes der Ingenieure, verifiziert ist (sogar Windräder legen wir so aus, dass sie funktionieren, auch Anlagen zur Belüftung, ggf. sogar Klimatisierung planen wir so, dass sie die Erwartungen zuverlässig erfüllen).

Es gibt doch keine zwei Physiken!
Heinz Thieme


Temperaturen
25 Jahre Satellitenbeobachtung – Forscher ziehen überraschende Bilanz
 
Dr. John Christy und Dr. Roy Spencer von der University of Alabama liefern seit 25 Jahren der weltweiten Forschergemeinde die Ergebnisse ihrer Satellitenbeobachtungen. Beide Forscher sind anerkannt und haben viele wissenschaftliche Arbeiten veröffentlicht.
 
Seit 1978 kreisen Satelliten der NASA und vermessen laufend die Temperatur der Atmosphäre unserer guten alten Mutter Erde. Aus Anlass dieses Jubiläums haben sie die Ergebnisse ihrer Arbeiten in einer Schrift veröffentlicht: „Global Temperature Report 1978 – 2003“.

Die präsentierten Messergebnisse lassen aufhorchen. Seit 1978 gibt es weltweit eine leichte Temperaturerhöhung von 0,2°, davon der meiste Teil seit Januar 1998. Hauptsächlich im nördlichsten Drittel unseres Planeten fand diese Erwärmung statt und liegt weitestgehend in natürlicher Schwankungsbreite. Lediglich bei der Erwärmung in kalten, trockenen Gebieten sehen sie einen Zusammenhang mit erhöhter CO2-Konzentration in der Atmosphäre.  



Quelle: Global Temperature Report 1978 - 2003
 
Warme Regionen werden nicht wärmer. Weite Teile der Erde, darunter auch die tropischen Landmassen und die Antarktis, zeigen keinen Trend oder sogar eine Abkühlung.

Das überrascht. Die meisten Wissenschaftler sind der Meinung, dass in den letzten Jahrzehnten die Temperatur der Erde kontinuierlich und stark gestiegen ist, nämlich um mehr als das Doppelte im gleichen Zeitraum. Dabei werden Messstationen am Boden verwendet. Die häufig zitierten Klimamodelle gehen sogar davon aus, dass sich die Atmosphäre stärker erwärmen soll als die Erdoberfläche. Das geschieht nun offensichtlich nicht.
Die beiden Forscher lassen an ihren Messergebnissen jedoch keinen Zweifel aufkommen:
 
1. Ihre Daten seien die einzigen Satelliten basierten Daten, die vielfach und unabhängig auf Genauigkeit geprüft wurden. Sie seien in völliger Übereinstimmung mit Wetterballons und den umfangreichen Bodenstationen in Regionen wie Nordamerika, Russland, Europa, China und Australien. Diese Feststellung bezieht sich auf inzwischen veröffentlichte Arbeiten anderer Forscher, die aus Satellitendaten höhere Temperaturtrends errechneten.
2. Die Bodenstationen sind im Übrigen sehr dünn auf der Erde verteilt. Das wäre so, als ob eine Messung in Hannover Auskunft über den Temperaturtrend in Rom oder Stockholm geben würde.
 
Das letzte Argument irritiert. Kann es wirklich sein, dass Messergebnisse, die weltweit so tief greifende Folgen haben, auf so schmaler Grundlage basieren? Ein repräsentativer Blick auf die Internetseite des GISS der NASA bestätigt diese Aussage.

Es sind nur ca. 2000 Messstationen, aus denen der Welttemperaturtrend ermittelt wird. Riesige Gebiete der Ozeane, Regenwälder, Wüsten und Eisgebiete sind ohne Messstationen. Ihre Temperaturtrends werden also wirklich über Tausende von Kilometern hinweg nur „geschätzt“. Da es hier um kleine Temperaturtrends im Bereich von Zehntelgraden pro Dekade geht, bleiben systematische Fehler unausweichlich. Die Satellitenmessungen stellen also einen Fortschritt dar.

Das bleibt nicht die einzige Überraschung dieser Jubiläumsschrift. Da die beiden Forscher einen Überblick über die Klimaforschungen der letzten Jahre haben, beziehen sie zu weiteren Themen Stellung.

Dabei äußern sie sich zu arktischem und antarktischem Eis, Wetterextremen, Meeresspiegel und Temperatur. Aktuelle Studien zeigen, dass die gegenwärtige Situation entweder keine Verschlechterung enthält (z.B. Wetterextreme, Meeresspiegel) oder als Teil der natürlichen Schwankungsbreite der letzten 200 Jahre (z.B. Eis) oder 1000 Jahre (Temperatur) erklärbar ist.

Das Klima war noch nie konstant. Auch schnelle und drastische Klimawechsel sind normal. Eindrucksvoll wird eine Grafik gezeigt, die den Temperaturverlauf der letzten 18.000 Jahre darstellt. Das einzig Beständige ist der Wandel.
 
Im Weiteren stellen Christy und Spencer aus ihrer Sicht die Prioritäten im Umweltschutz dar und sprechen sich dafür aus, die Länder der Dritten Welt zu entwickeln. Denn dann können sie sich selbst am besten gegen nachteilige Klimaveränderungen schützen.

Das Kyotoprotokoll wird abgelehnt. Seine Auswirkungen auf das zukünftige Klima wären gleich Null, jedenfalls nicht nachzuweisen - und das bei immensen Kosten für Jedermann in den nächsten Jahrzehnten. Auch der bekannte Klimaforscher Hans von Storch hat sich in einem viel beachteten Spiegelinterview (34/2003) gegen derartige Maßnahmen ausgesprochen und für Anpassung plädiert („Wir werden das schon wuppen“).
 
Schließlich warnen die Autoren davor Energie künstlich zu verteuern, weil es die Wirtschaft schwäche. Dadurch könnte sogar die Entwicklung alternativer und sauberer Energie behindert werden. Denn eine gesunde Wirtschaft sei hierzu am besten in der Lage.
 
Wäre eine Einführung dieses Reports in die öffentliche Klimadiskussion nicht wünschenswert ?
 
29.02.2004
Klaus Öllerer
 
Linktipp: www.klimanotizen.de
Ich empfehle Ihnen das Abo des Newsletters!


IST  CO2  EIN  KLIMAKILLER ?

 Von Prof. Dr. Helmut Schröcke

 In den dem  Verfasser zur Einsicht gekommenen Büchern über Klimaschäden und Ähnlichem werden die physikalischen Grundfakten von Spektren meist nicht auseinandergehalten. Alle entstehen dadurch, dass mögliche Energiezustände gequantelt sind.

 1.      Atomspektren sind Linienspektren. Sie entstehen durch mögliche Energiezustände in den Elektronenhüllen isolierter Atome.

2.      Sie entstehen durch eine große Vielfalt von Energiezuständen, durch reine Elektronenzustände, durch zwischenatomare Bindungen, durch vielfältige Schwingungsmöglichkeiten und deren Zusammenwirken innerhalb der Moleküle.

3.      Festkörper und Flüssigkeiten besitzen praktisch kontinuierliche Spektren über große Wellenlängenbereiche.

Das Emissionsspektrum der Erde im ultraroten Bereich reicht etwa von 4 bis 100 m      [1m = 1 mm-3]. In diesem Bereich liegt von CO2 nur eine absorptionsstarke Bande bei 14,9 m und eine schwache Bande bei 9,9 m. Von H2O liegen in diesem Bereich aber Banden bei 5,6 - 6,3 - 7,1 - 8,3 - 10 - 12,5  und 16,7 m.  Die Breiten der Banden erreichen bis +/- 2  m .  Damit wird vom Emissionsspektrum der Erde kaum 3 % überdeckt, d. h. 97 % des gesamten ultraroten Spektrums der Erde gehen wirkungslos am CO2 vorbei! Es können also vom CO2 maximal nur 3 % der Strahlungsleistung der Erde absorbiert und davon die Hälfte wieder nach unten abgegeben werden, d. h. es kann nur ein verschwindend geringer Anteil der Erdemission klimaschädlich (?) werden.

Vom H2O als Gas in der Atmosphäre kann mit seinen Banden wesentlich absorbiert werden. Dazu kommt, dass die molekularen Entfernungen noch für den Durchlass wesentlich sind. In der Atmosphäre ist CO2 mit 0,03 Vol.-% enthalten. H2O aber im Mittel einhundert Mal mehr, ferner mit dem Anteil im flüssigen und festen Zustand, d. h. von kondensiertem H2O in feinsten Tröpfchen und Eiskristallen in Wolken, Nebel und im Dunst.

Daraus folgt, das die Klimaschädlichkeit von CO2 verschwindend gering ist gegenüber der von H2O -  CO2 aus der Atmosphäre zu entfernen ist völliger Unsinn, man müsste vorher das H2O daraus entfernen. Zudem wurde klargestellt (P. Dietze, Pro Conscientia Nov. 2003), dass von den von 1860 bis 2005 zu CO2 verbrannten 9 bis 109 t  C in der gleichen Zeit von der beobachteten mittleren Temperaturerhöhung der Erde von 0,6 0C nur 0,16 0C  auf CO2  entfallen.

Man sieht daraus, welcher Irrsinn aus Ideologien mit falschen wissenschaftlichen Grundlagen entstehen. Alle politischen Entscheidungen bezüglich CO2 sind falsch und kosten bereits horrendes Geld. So ist das Kyoto-Protokoll zur Reduzierung des CO2-Gehaltes der Luft völlig überflüssig. CO2 ist aber vegetationsfördernd wirksam, die Gurken werden bei höherem CO2-Gehalt der Luft dicker und länger. (So wird z. b. deswegen in die Gewächshäuser zusätzlich CO2 eingebracht) Über die Entstehung von Klimaveränderungen gibt es (ausreichend) wissenschaftliche Werke mit dem Nachweis von völlig anderen Ursachen als von CO2.

Die vorstehenden Kenntnisse erwarb sich der Verfasser bereits in den Grundlagenvorlesungen der Bergakademie Freiberg in den Jahren 1946/47, nachzulesen in den damals empfohlenen Lehrbüchern: Kohlrausch, Praktische Physik, Teubner 1942  Und Grimsehl-Tomaschek, Lehrbuch der Physik, Teubner 1943.

 Die in Klammer oder kursiv gesetzten Ergänzungen stammen von mir!

Was bedeutet „klimaschädlich“ – kann das „Spurengas“ CO2, ein natürlicher Stoff, der für die Photosynthese äußerst wichtig ist, überhaupt als „klimaschädlich“ bezeichnet werden?

zugesandt von Burckhard Adam, Berlin



Dipl.-Ing. Peter Dietze
,
Jahrgang 1941, Studium im Fachbereich Elektrotechnik/Regelungstechnik an der TH Darmstadt, ist ehemaliger Siemens-Mitarbeiter aus dem Bereich Energieverteilung. Er befasst sich seit 1987 privat und unabhängig mit der wissenschaftlichen Analyse von Klima- und Kohlenstoffmodellen. Auch im Internet finden sich zahlreiche seiner kritischen Beiträge. Einen Ausschnitt präsentiere ich Ihnen hier im Infobereich. Hr. Dietze ist offiizieller IPCC Reviewer des dritten IPCC-Berichts "Climate Change 2001 - The Scientific Basis".
Ausserdem enthält diese Seite einen speziellen BAUPHYSIK-Artikel.
p_dietze@t-online.de

Umweltphysik auf dieser Seite

P. Dietze im Internet

Bauphysik auf dieser Seite:
Ich möchte Ihnen ein Berechnungsmodell vorstellen, welches einen Beitrag zur U-Wert-Diskussion darstellt. Solare Gewinne werden hierbei wärmeabflussmindernd berücksichtigt. Für manchen mag die Herangehensweise über den Vergleich mit elektrischen Widerstands- Berechnungen eine Herausforderung darstellen.


Politischer Druck gegen Wissenschafts- und Pressefreiheit
Kein DECHEMA-Bericht in GIT

Am 6.3.2003 hielt Dipl.-Ing. Peter Dietze auf dem Frankfurter DECHEMA-Kolloquium "CO2 und Klima: Natürliche und anthropogene Stoffflüsse des CO2" ein zusätzliches Kurzreferat: „Globaler C-Kreislauf – ein Modell auf Basis der CO2-Lebensdauer“. Auf Einladung der Schriftleitung der Chemie-Laborzeitschrift GIT (http://www.gitverlag.com) verfaßte er einen wissenschaftlich-sachlich gehaltenen Bericht über dieses Kolloquium mit Zusammenfassungen aus den offiziellen Abstracts der Referenten sowie einigen in Kästen abgesetzten Anmerkungen, ergänzt durch zwei der fünf Grafiken aus seinem Referat.

Dieser Tagungsbericht wurde nach Änderungen welche von der Verlagsleitung auf äußeren Druck hin gefordert wurden, zunächst angenommen und in die Druckvorlage eingebracht. Kurz vor der Veröffentlichung wurde der Bericht annuliert. Dieser Vorgang, der durch den Schriftwechsel mit Prof. Zellner belegt wird, zeigt wie selbst wissenschaftlich-sachliche Informationen zu CO2 politisch manipuliert und verhindert werden.

Das CO2-Imperium hat zugeschlagen. Der wissenschaftliche Schriftleiter der Chemie-Laborzeitschrift GIT, Prof. Stadlbauer, teilte mir mit dass mein DECHEMA-Artikel am 5.5. im Messeheft zur Frankfurter Achema nicht erscheinen durfte. Der Artikel, aus dem auf Druck von Prof. Zellner (wie vom Verlag gewünscht) meine Boxen mit Anmerkungen zu den Referaten von Frau Prof. Levin und Dr. Heimann entfernt werden mußten, war nach Redaktionsschluß von Prof. Stadlbauer in das Layout integriert. Er wurde trotzdem – offenbar auf Betreiben von Prof. Zellner über die Darmstädter Verlagsleitung (der GIT Verlag gehört seit einem Jahr zu Wiley-VCH) und gegen den Willen der wissenschaftlichen Schriftleitung - kurz vor dem Druck wieder entfernt.

Welche (politisch) wichtigen Motive hier entscheidend waren, möchte Herr Prof. Stadlbauer verständlicherweise nicht nennen. Ich vermute, die Aktion soll eine Störung der Verhandlungen des BMU mit der Industrie über die Zuteilung von CO2-Zertifikaten sowie Kritik an den (flankierenden) Studien des WBGU zum Energiewandel sowie des BMBF zum Klimawandel unterbinden.

In der Anlage die von mir zuletzt abgelieferte, unveröffentlichte Druckversion mit zwei Bildern
( weitere Bilder siehe
DECHEMA und Fragen zur 14C-Kalibrierung
DECHEMA und airborne fraction ).
Ich halte es für notwendig, diesen Vorgang einer breiteren Öffentlichkeit zugänglich zu machen.
(P. Dietze, 6.5. 2003)
~~~~~~~~~~~~~~~~

CO2 und Klima: DECHEMA-Kolloquium am 6. März 2003
von Dipl.-Ing. Peter Dietze 11.4.2003

Natürliche und anthropogene CO2-Flüsse

Nachdem bei der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie in Frankfurt im Oktober 2001 ein Kolloquium zur Strahlungsphysik der Treibhausgase stattfand, wurde am 6. März 2003 unter Leitung von Prof. Dr. R. Zellner das Thema CO2-Kreislauf behandelt.

Der Verfasser, als „Contrarian“ im Internet bekannt und seit 16 Jahren privat und unabhängig mit der kritisch-wissenschaftlichen Analyse von Kohlenstoff- und Klimamodellen befaßt, ist offizieller Reviewer des dritten Berichts Climate Science 2001 – The Scientific Basis des Intergovernmental Panel on Climate Change (IPCC). Er hatte Gelegenheit, sein globales Kohlenstoffmodell als Einführungsbeitrag vorzustellen.

Man geht davon aus, dass die vorindustrielle CO2-Konzentration etwa 280 ppm betragen hat. Diese ist offenbar überwiegend durch Emissionen bei Verbrennung von Kohle, Öl und Gas bis 2001 auf 370 ppm angestiegen. Seit 1975 bis heute wird ein mittlerer jährlicher Anstieg um etwa 1,5 ppm beobachtet. Gemäß Kyoto-Protokoll 1997 sowie nach der Klimakonferenz COP-7 2001 in Marrakesch betragen die für Deutschland festgelegten Emissionsreduktionen 21% in der Berechnungsperiode 2008-12 gegenüber 1990 (siehe auch Forum Klimaforschung und Politik in GIT 4/2001 S.474). Da eine gewisse Anrechnung von CO2-Senken vorgesehen ist und auch zur Abschätzung der Maßnahmen sowie späterer Konzentrations- und Temperaturerhöhungen ist die Kenntnis und Modellierung des Kohlenstoffkreislaufs erforderlich.

Dipl.-Ing. Peter Dietze (Langensendelbach), zusätzlicher Diskussionsbeitrag: „Globaler C-Kreislauf – ein Modell auf Basis der CO2-Lebensdauer“:

Der globale C-Kreislauf – so wie er während der Nutzung fossiler Energien zwischen 1850 und 2100 vereinfacht dargestellt werden kann – läßt sich unterteilen in

a) einen als ausgeglichen angenommenen natürlichen Kreislauf
b) einen durch anthropogene Emissionen gestörten Anteil
c) Puffer sowie Senken

Unter der Prämisse dass die anthropogene Gesamtemission zunächst gepuffert wird und die Senkenflüsse etwa proportional zur Differenz zwischen der atmosphärischen CO2-Konzentration und einer Gleichgewichtskonzentration von etwa 280 ppm sind, läßt sich sowohl aus den globalen C-Flüssen und Pufferinhalten als auch mittels Regressionsanalyse aus beobachteten Werten eine 1/e-Lebensdauer der CO2-Erhöhung von 55 Jahren ermitteln. Diese ist identisch mit der mittleren Verweildauer nach einem Emissionsimpuls und entspricht einer "Halbwertszeit" von 38 Jahren.

Auf Basis dieser Zeitkonstanten wurde ein einfaches C-Modell dargestellt („Wasserkastenmodell“). Die Lösung der System-Differentialgleichung, d.h. der Konzentrationsverlauf, wurde anhand eines IS92a-Szenarios gezeigt, das vom Verfasser an voraussichtliche CO2-Emissionen bis 2150 sowie unter Berücksichtigung der auf ca. 1300 GtC limitierten Verfügbarkeit wirtschaftlich nutzbarer fossiler Reserven adaptiert ist (IS92aD, Bild 1).

Dt_IS92aD_.gif (34005 bytes)

Bild 1: Szenario IS92aD, Vergleichsrechnung mit IPCC-Parametern

Das Modell reproduziert sowohl die gegenwärtige CO2-Konzentration als auch den seit 1975 beobachteten linearen mittleren jährlichen Anstieg um etwa 1,5 ppm (siehe eingezeichnete Gerade) sowie die gegenwärtige mittlere "airborne fraction" von 37%. Maximal wird um 2075 eine Konzentration von 470 ppm erreicht wobei die airborne fraction gegen null geht. Im Vergleich dazu wird ein simulierter Konzentrationsverlauf gezeigt, der mit Parametern der IPCC-Modellierung entstehen würde (Anmerkungen siehe Kasten).

Hier steigt die Konzentration bis 2150 nach Verbrennung von 1300 GtC bis auf 630 ppm an. Die derzeitige Konzentration wird bei der Simulation mit IPCC-Parametern um ca. 12 ppm zu hoch berechnet und steigt mit etwa 2,1 ppm/a progressiv an, was im Widerspruch zu den Meßwerten steht (NOAA, Bild 2, siehe eingezeichnete Gerade).

Dt_NOAAco2_mlo.gif (25844 bytes)

Bild 2: Von NOAA gemessener CO2-Anstieg

Die IPCC-Parameter sind:

a) 570 Jahre CO2-Verweildauer (statt 55 Jahre). Dies wurde vom Verfasser durch kurvengenaue Nachrechnung der Ergebnisse des Berner IPCC-Kohlenstoffmodells für das Szenario SRES A1 ermittelt sowie auch mit den Szenarien IS92a und WRE 550 bestätigt
b) ein größerer Puffer – der Anteil der Atmosphäre (buffer fraction BF) ist 53% (statt 75%)
c) die Klimasensitivität für CO2-Verdoppelung beträgt im Gleichgewicht 2,8 °C (statt 0,7 °C)

Die Erhöhung der Gleichgewichtstemperaturen gegenüber dem Jahr 2000, errechnet aus
deltaT = deltaT2x *ln(C/Co)/ln(2) sind beim Szenario IS92aD in den Fähnchen jeweils bei den maximal erreichten Konzentrationen dargestellt (Bild 1). Die in Klammern genannten Temperaturerhöhungen (0,52 bzw. 3,2 °C) gelten gegenüber der vorindustriellen Konzentration von Co=280 ppm. Die Angabe f=37% im Jahr 2000 ist die "airborne fraction", d.h. das Verhältnis des jährlichen Anstiegs in der Atmosphäre (3,2 GtC) zur Gesamtemission (ca. 8,6 GtC). Die airborne fraction verringert sich in demselben Maß wie die Emissionen ansteigen, da die mittlere atmosphärische Zunahme gemäß NOAA-Messung schon seit 27 Jahren konstant ist. Selbst um 1991, zur Zeit der brennenden Ölfelder in Kuwait, ist kein zusätzlicher Anstieg erkennbar.

IPCC-Forscher sind überzeugt, dass die airborne fraction derzeit noch konstant bleibt, aber in Zukunft aufgrund von Sättigungserscheinungen in den Ozeanen (Karbonatchemie, Revelle-Faktor) zunehmen muß. Beobachtet wird das Gegenteil, nämlich dass sich die airborne fraction kontinuierlich verringert. Dies geht schon aus dem Vergleich der Kohlenstoff-Budgets im 2. und 3. IPCC-Bericht hervor. Ein wesentlicher Grund für die enorme CO2-Aufnahmefähigkeit der Ozeane ist die Bildung von eiskaltem Tiefenwasser unter hohem Druck. Die CO2-Freisetzung mit bis zu 50 m hohen Wasserfontänen beim Ausgasungsprojekt für den afrikanischen Lake Nyos in Kamerun wo 1986 etwa 1800 Menschen im Umkreis bis zu 25 km nach einem CO2-Ausbruch erstickten, hat gezeigt dass bereits in einer Tiefe von 200 m die Speicherfähigkeit um ein Vielfaches ansteigt.

Durch das Modell des Verfassers wird der Konzentrationsverlauf seit 1850 sowie die lineare Zunahme seit 1975 – im Gegensatz zur IPCC-Simulation – sehr gut reproduziert. Es spricht einiges dafür, dass auch das Ergebnis, nämlich ein maximaler Anstieg auf lediglich 470 ppm um 2075, nicht unrealistisch ist. Da weiter von einer etwa um den Faktor vier geringeren Klimasensitivität für CO2 auszugehen ist, erscheint die Sorge um eine starke Klimaerwärmung unbegründet. Man könnte demnach auf das Kyoto-Protokoll, die Zwangsbewirtschaftung der Atmosphäre und den Zertifikathandel verzichten. Kyoto dürfte in der heutigen Fassung und ohne die USA bis 2050 allenfalls einen Temperatureffekt von etwa 1/100 °C bringen.

Weitere Details zum Kohlenstoffmodell siehe unter
"Globaler C-Kreislauf - ein Modell auf Basis der CO2-Lebensdauer"
http://www.john-daly.com/dietze/cmodcalc.htm

Prof. Dr. Ernst-Detlef Schulze (Jena): „Biologische Quellen und Senken von CO2“:

Das Kyoto-Protokoll wurde als ein erster Schritt in die richtige Richtung bezeichnet. Bedenken wurden jedoch bezüglich der Mißbrauchsmöglichkeiten bei der Anrechnung biologischer CO2-Senken angemeldet. Es sei versäumt worden, klar zu definieren, was als zusätzliche Senke anerkannt werden kann. Flächen von 500 Hektar, die zu 10% vom Baumkronendach bedeckt sind, zählen bereits als Wälder. Da die Anrechnungsperiode erst 2008 beginnt, könnten bis dahin umfangreiche Rodungen erfolgen, und eine spätere Wiederaufforstung würde angerechnet. Die Nutzung von Biomasse und Rapsöl bringt kaum eine CO2-Einsparung. Negative C-Bilanzen bei Flächennutzung für Weizen- und Kartoffelanbau werden kaum berücksichtigt. Anmerkung des Verfassers: CO2-Emissionen für die Produktion von Exportgütern werden gemäß Kyoto-Protokoll nicht angerechnet und belasten daher die nationale C-Bilanz. Prof. Schulze äußerte Bedenken zu der vom Verfasser benutzten CO2-Verweildauer von 55 Jahren, da neben parallelen Senken auch serielle Prozesse mit verschiedenen Zeitkonstanten existieren. Das Gegenargument war, dass auch solche Prozesse näherungsweise integriert werden können und der Wert von 55 Jahren aus der globalen Beobachtung stammt.

Prof. Dr. Douglas Wallace (Kiel): „Anthropogenic CO2 and the Ocean“:

Die Wichtigkeit der Chemie wurde hervorgehoben. Ein Sinken der CO2-Aufnahmekapazität der Ozeane durch den Revelle-Faktor wird befürchtet sowie Probleme von Organismen mit Kalkschalen bei erhöhtem Kohlensäuregehalt. Bestätigt wurde allerdings, dass unterseeische Vulkanausbrüche neutralisierend wirken.

Prof. Dr. Wolfgang Cramer (Potsdam): „Landnutzungsänderung und ihr Einfluß auf das Klima“:

Die Aufnahme der Landpflanzen wurde mit 60 GtC/a beziffert. Nach Abzug von Veratmung, Verrottung, Ernte-Entnahme und Schädlingsfraß verbleiben netto etwa 1-2 GtC/a. Der Vortrag befaßte sich mit der Abschätzung historischer (Freisetzung von 180-200 GtC durch Entwaldung) und aktueller Landnutzungsänderungen die wesentliche Beiträge für den C-Haushalt liefern. Möglicherweise sei in Zukunft die Forst- und Landwirtschaftspolitik sogar wichtiger als die Energiepolitik.

Dr. Martin Heimann (Jena): „Modelle des Kohlenstoffkreislaufs und deren Kopplung an globale Klimamodelle“:

Nur etwa 40% des vom Menschen emittierten CO2 akkumulieren zurzeit in der Atmosphäre, der Rest wird durch Ozeane und die Landbiosphäre aufgenommen. Eine quantitative Vorhersage, wie sich dieser Anteil in Zukunft ändern wird, kann durch Szenarienrechnungen mit Modellen des globalen Kohlenstoffkreislaufs ermittelt werden. Die Überprüfung solcher Modelle kann z.B. anhand der Eisbohrkerne erfolgen, aber auch die Abnahme des atmosphärischen Sauerstoffgehalts sowie die Änderung der Isotopenverhältnisse 14C/12C und 13C/12C kann herangezogen werden. Bei zukünftig zunehmenden Emissionen wird eine Verringerung der CO2-Senkenkapazität erwartet. Dies ist auf die nichtlineare Karbonatchemie im Ozean sowie auf die Response der Landvegetation zurückzuführen.

Soweit Klimamodelle den Kohlenstoffkreislauf als Komponente enthalten, können Rückkopplungseffekte durch Kohlenstoffspeicher und Umsatzraten berechnet werden. Hierbei wird die Karbonatchemie, die marine Biologie sowie Nährstoffkreisläufe berücksichtigt. An Land wird ein Vegetationsmodell benutzt, das z.B. die Wechselwirkungen mit dem hydrologischen Zyklus darstellt. Es wurden sehr unterschiedliche Ergebnisse der Modelle einer englischen und einer französischen Arbeitsgruppe vorgestellt. Das englische Modell kommt im Jahr 2100 auf ca. 1000 ppm und +5 °C während das französische Modell bei vergleichbarem Emissionsszenario auf etwa 750 ppm und +3 °C kommt. Die Unterschiede weisen auf ein unbefriedigendes Prozeßverständnis hin.

Prof. Dr. Ingeborg Levin (Heidelberg): „Untersuchung von CO2-Austauschflüssen und Lebensdauern im globalen Kohlenstoffkreislauf mit Hilfe von Isotopentracern“:

Radiokohlenstoff 14C, der relativ schnell zu 14CO2 oxidiert wird, entsteht in der oberen Atmosphäre über die Reaktion von Sekundärneutronen aus der Höhenstrahlung mit dem Stickstoff der Luft. Die Halbwertszeit beträgt 5730 Jahre. 14C nimmt ebenso wie die stabilen Isotope 13C und 12C am C-Kreislauf teil und stellt sich ohne Störung auf eine Gleichgewichtskonzentration ein. Dieses vorindustrielle Gleichgewicht wurde jedoch durch Emission fossilen, weitgehend 14C-freien, Kohlenstoffs gestört, wodurch eine „Verdünnung“ in der Atmosphäre (Suess-Effekt) auftrat. Ein sprunghafter Anstieg erfolgte in den 1950er und 1960er Jahren durch oberirdische Kernwaffentests welche das 14C/12C-Verhältnis nahezu verdoppelten.

Nach dem Stop der Tests fiel der Überschuß von 14C/12C gegenüber dem Gleichgewichtswert nahezu exponentiell ab und beträgt heute nach 40 Jahren weniger als 10%. Die Dynamik des Tracers 14C in Atmosphäre, Biosphäre und den Ozeanen wird dazu benutzt, Austauschraten und CO2-Lebensdauern in den verschiedenen Reservoiren zu untersuchen. Im Vortrag wurde insbesondere auf die Gasaustauschrate zwischen Atmosphäre und Ozean eingegangen. Die Hoffnung, die Ozeane könnten den anthropogenen CO2-Überschuß aufnehmen, sei unbegründet. Die Aufnahmerate muß eher um 25% nach unten korrigiert werden, und an Kyoto führt kein Weg vorbei.

Als weitere Anwendung im Rahmen atmosphärischer CO2-Messungen wurde die Bestimmung der Intensität regionaler CO2-Emissionen genannt, welche hier zur „Verdünnung“ des 14C-Anteils führen. Seit 20 Jahren werden in Heidelberg sowie an der Meßstelle des UBA im Schwarzwald derartige Messungen durchgeführt. Diese Messungen sollen ein hervorragendes Werkzeug darstellen zur Validierung von Emissions-Minderungsmaßnahmen im Rahmen des Kyoto-Protokolls.

Fazit

Die Beiträge zu Details des globalen C-Kreislaufs zeigten deutlich, dass dieser insgesamt bisher unzureichend verstanden ist und weiter erforscht werden muß. Dasselbe gilt für Aussagen zum zukünftigen Konzentrationsverlauf und den Klimafolgen. Prof. Zellner kündigte daher an, dass ein weiteres DECHEMA-Kolloquium zum Thema CO2 und Klima geplant ist.

~~~~~~~~~

Hier der Schriftwechsel mit Prof. Zellner (die hier genannten Schreiben an Dr. Heimann und Frau Prof. Levin, die – obwohl freundlich beantortet – von Prof. Zellner als bedauerlich angesehen wurden, siehe unter
DECHEMA und Fragen zur 14C-Kalibrierung

ZellnerGIT.gif (33952 bytes)

Schreiben an Prof. Zellner
22.4.03 11:35 An: reinhard.zellner@uni-essen.de
Ihr Schreiben vom 15.4. wegen DECHEMA und GIT
DECHEMA CO2-Kolloquium am 6.3.2003

Sehr geehrter Herr Prof. Zellner,

nach Ihrem Brief der mir am 19.4. zuging sowie nach Ihren mir zuvor bekannt gewordenen heftigen Interventionen gegen meinen GIT-Bericht bei der Verlagsleitung wundere ich mich umso mehr, dass Sie den Mut hatten, mir einen erweiterten Diskussionsbeitrag beim CO2-Kolloquium der DECHEMA am 6.3. zu gewähren. dass ich allerdings dort wie eine heiße Kartoffel behandelt wurde und mein Namensschild und Mikrofon vom Podium entfernt wurden, ist etlichen Leuten aufgefallen.

Sie - Vorsitzender des Forschungsbeirats der DECHEMA - haben als Leiter vom Sachverständigenkreis des BMBF für Globale Umweltaspekte (der sich bekanntlich intensiv mit der Frage beschäftigt hat wie man Öffentlichkeitsarbeit zugunsten der Klimakatastrophe betreiben sollte) „herkömmliche rationalistische Vorstellungen vom Primat wissenschaftlichen Wissens“ gar als überholt bezeichnet und konstatierten gemeinsam mit Ihren Sachverständigen „Die Nachfrage der Politik nach gesichertem Wissen zwingt die Wissenschaft zu Aussagen, die immer stärker durch Nichtwissen gekennzeichnet sind". Wiebitte? Dem wäre nur noch hinzuzufügen, dass selbst da wo (unerwünschtes) Wissen vorhanden ist, dessen Veröffentlichung zugunsten politisch gewollten Unwissens verhindert werden muß.

Sie schreiben mir, ich sei nicht autorisiert, über das DECHEMA-Kolloquium in der GIT-Ausgabe zur ACHEMA 2003 zu berichten sowie die Beiträge der anderen Fachkollegen zu referieren ("Als Verantwortlicher des DECHEMA-Kolloquiums muss ich Sie darauf aufmerksam machen, dass Sie nicht dazu autorisiert sind... und ich hoffe dass Sie auf meine Bemerkungen hin, von Ihrer Absicht Abstand nehmen"). War etwa auch Herr Gärtner zu seinem Bericht in der Chemischen Rundschau vom 25. März nicht autorisiert? Wen, glauben Sie eigentlich, hätten wir da um Erlaubnis fragen müssen?

Da das Kolloquium eine öffentliche Veranstaltung war und wir (noch) Meinungs-, Presse- und Wissenschaftsfreiheit haben, kann ich Ihrem absurden Ansinnen nicht Folge leisten. Meine Anmerkungen zu den Aussagen von Frau Prof. Levin und Herrn Dr. Heimann waren rein wissenschaftliche Erörterungen. Diese enthielten keinerlei persönliche Angriffe, und meine Zusammenfassungen basierten auf den von den Vortragenden selbst eingereichten und von DECHEMA offiziell verteilten Abstracts. Die Genannten haben mir nach Erhalt meines Manuskripts sogar freundlich geantwortet (!), meine Zusammenfassung *nicht* kritisiert und weder die Streichung meiner Anmerkungen noch die Löschung meiner Schreiben von der Webseite http://www.dimagb.de/info/bauphys/pdietze1.html verlangt - siehe Anlagen. Dr. Heimann hat mich sogar bestärkt, weiter nach der Ursache für die Diskrepanz zwischen den CO2-Verweilzeiten von 55 und 570 Jahren zu forschen und ggf. mein Ergebnis im Interesse aller Kohlenstoffmodellierer in einer Fachzeitschrift zu veröffentlichen.

dass Sie glauben, nachdem Sie meinen Beitrag im Kolloquium ausdrücklich als "sehr sachlich und informativ" bezeichneten, nun vermeintlich im Namen der Referenten gegen mich aktiv werden zu müssen, erscheint befremdlich. Befremdlich erscheint auch, dass weder Sie noch Frau Dr. Hirche auf mein am 4. April zur Vorabinformation geschicktes Manuskript reagierten, und dass Sie dann ohne mein Wissen bei der Verlagsleitung protestierten und sich erst lange nach Redaktionsschluß an mich als Autor wenden - in der Hoffnung, ich würde über Ostern noch von der Veröffentlichung Abstand nehmen.

Seien Sie versichert, einen weichgespülten Dietze gibt es nicht, und Ihre Bemühungen, das Bekanntwerden klimakatastrophaler Wissenschafts-Irrungen im Interesse von Forschungsgeld, Kyoto, Zertifikathandel und "political correctness" (sehr zum Schaden der chemischen Industrie) hinauszuzögern, sind erfolglos. John Daly hat pro Tag über 2000 Leser und die USA spielen bei Kyoto nicht mit. Verteidigen Sie etwa die falschen Behauptungen von Frau Prof. Levin, die Ozeane könnten den anthropogenen CO2-Überschuß nicht aufnehmen und an Kyoto führe kein Weg vorbei? Durch Ihr Vorgehen haben Sie nur bewiesen, wie im rot-grünen Deutschland politisch gegen Wissenschaft agiert wird. Ich gebe den Vorgang u.a. Herrn Rothermel [VCI], dem Schriftleiter Herrn Prof. Stadlbauer sowie Herrn Dr. Binder [BMBF] zur Kenntnis und behalte mir eine Veröffentlichung im Web vor.

Mit freundlichem Gruß
P. Dietze

P.S.: Nach dem Erscheinen des unsäglichen Energiewende-Gutachtens des WBGU weist Ihre Intervention gegen meine GIT-Veröffentlichung möglicherweise auch einen Zusammenhang auf mit dem BMBF-Bericht "Herausforderung Klimawandel - Bestandsaufnahme und Perspektive der Klimaforschung", der unter Ihrer Leitung von Mitgliedern des Sachverständigenkreises sowie weiteren Experten, u.a. von DLR, erstellt wurde. Inwieweit hier zum Zwecke der Öffentlichkeitsarbeit vom Primat wissenschaftlichen Wissens zugunsten politisch motivierter Aussagen, die immer stärker durch Nichtwissen gekennzeichnet sind, abgewichen wurde, wird sich zeigen.

comment.gif (1022 bytes) Das hatten wir alles schon mal: unter Hindenburg, unter Adolf, unter Honecker. Weil ich diese undemokratische und diktatorische Maulkorbpolitik so unerträglich finde, habe ich diesem Beitrag hier Platz eingeräumt.

Ob weitere Forscherei Sinn macht, wage ich zu bezweifeln. Denn zum einen dürfte das ehrliche Ergebnis nur lauten: wir können solche komplexen Zusammenhänge nicht eindeutig bestimmen. Und zum anderen interessiert in der Ökodiktatur doch kein Datum und kein Fakt, der nicht zum offiziellen Dogma paßt.

Das erinnert mich irgendwie an die Podiums- "Diskussion" anläßlich der KfW-Tagung in Berlin am 08.05. 2003. Dort wurde Unverständnis über mangelnde "Propaganda" zur Klimaproblematik geäußert. Das war eine erstklassige Lehrveranstaltung für mich: es kann nicht sein, was nicht sein darf. Oder: darf es noch etwas Weihrauch sein, bitte?

Die Teilnehmerliste war ganz interessant, es herrschte Disziplin wie zur Honecker- Parteiversammlung. Ergriffen lauschte man der "Podiumsdiskussion". Als es mir zu podiumsmäßig wurde, fuchtelte ich so lange mit dem rechten Arm, bis mich der Moderator (Hr. Alt vom ZDF-WISO) beim besten Willen nicht mehr übersehen konnte.

Ich zitiere kurz meinen Beitrag: "Meines Erachtens kommt der erhoffte Schub in der Altbaumodernisierung erst, wenn wir wieder zu Erfolgsverpflichtung, Erfolgsgarantie und Transparenz zurück finden. Außerdem sollten anstatt Sprechblasen Fakten und Daten verwendet werden.

Es beginnt mit der hahnebüchenen Begründung für die geförderten Maßnahmen. Die Minderung der CO2-Emissionen hat keinen Einfluß auf die Klimaentwicklung, auch wenn das immer wieder behauptet wird." Die Überleitung mit U-Wert-Hysterie und Dämm- olympiade wurde dann leider vom Moderator ganz moderat abgewürgt. Diskutieren durfte man, aber nur zur Sache, bitte schön.

Immerhin besteht der Unterschied zu Honecker-Zeiten darin, dass man nicht auf der Stelle verhaftet wird. Am Verbot unliebsamer Worte hat sich jedoch seit dem Mittelalter in D nichts geändert. Es ist halt eine andere Welt bei der KfW. Der Rotwein zum Imbiß war allerdings lecker und der Spargel war zart. Fazit: Dekadenz, Dogma, Desinteresse. "Neue Perspektiven für das Energiesparen in Wohngebäuden" konnte ich nicht entdecken.

Übrigens:
Die CO2-Emissionen sind in 2002 kaum zurückgegangen (04.2003)
- und das trotz millionenschwerer Programme zur Senkung der CO2-Emissionen.
Außerdem weiß jeder halbwegs mit der Thematik Vertraute auch außerhalb des Trittin-Ministeriums:
die ehrgeizigen und unsinnigen Trittin-Pläne werden nicht erreicht.

Ich verweise im Zusammenhang mit diesem ganzen Wahnsinn auf das

Memorandum 05.2003.


DECHEMA 06.03.2003

DECHEMA-Kolloquium am 06.03.2003
"CO2 und Klima: Natürliche und anthropogene Stoffflüsse des CO2"
Programm siehe http://www.dechema.de/f-veranstaltungen.htm

Beitrag von P.Dietze:
"Globaler C-Kreislauf - ein Modell auf Basis der CO2-Lebensdauer"

Abstract:

Der globale C-Kreislauf - so wie er während der Nutzung fossiler Energien zwischen 1850 und 2100 vereinfacht dargestellt werden kann - läßt sich unterteilen

a) in einen als ausgeglichen angenommenen natürlichen Kreislauf
b) in einen durch anthropogene Emissionen gestörten Anteil
c) in Puffer sowie Senken

Unter der Prämisse dass die anthropogene Gesamtemission zunächst gepuffert wird und die Senkenflüsse etwa proportional zur Differenz zwischen der atmosphärischen CO2-Konzentration und einer Gleichgewichtskonzentration von etwa 280 ppm sind, läßt sich sowohl aus den globalen C-Flüssen als auch mittels Regressionsanalyse aus beobachteten Werten eine 1/e-Lebensdauer der CO2-Erhöhung von 55 Jahren ermitteln. Diese ist identisch mit der mittleren Verweildauer nach einem Emissionsimpuls und entspricht einer "Halbwertszeit" von 38 Jahren.

Auf Basis dieser Zeitkonstanten wird ein einfaches C-Modell dargestellt ("Wasserkastenmodell"). Die Lösung der System-Differentialgleichung, d.h. der Konzentrationsverlauf, wird anhand eines IS92a-Szenarios gezeigt, das vom Verfasser an voraussichtliche CO2-Emissionen bis 2150 sowie unter Berücksichtigung der limitierten Verfügbarkeit wirtschaftlich nutzbarer fossiler Reserven adaptiert ist (IS92aD).

Das Modell reproduziert sowohl die gegenwärtige CO2-Konzentration als auch den seit etwa 27 Jahren beobachteten fast linearen mittleren jährlichen Anstieg um etwa 1,5 ppm sowie die gegenwärtige mittlere "airborne fraction" von 37%. Maximal wird um 2075 eine Konzentration von 470 ppm erreicht. Im Vergleich dazu wird ein simulierter Konzentrationsverlauf gezeigt, der mit Parametern der IPCC-Modellierung entstehen würde. *)

Hierbei steigt die Konzentration bis 2150 nach Verbrennung von 1300 GtC bis auf 630 ppm an. Die derzeitige Konzentration wird bei der Simulation mit IPCC-Parametern um ca. 12 ppm zu hoch berechnet und steigt mit etwa 2,6 ppm/a progressiv an, was im Widerspruch zu den Meßwerten steht.

~~~~~~~~~~~~~~~~

*) Anmerkung:
Diese IPCC-Parameter sind:

a) 570 Jahre CO2-Verweildauer (statt 55 Jahre) wie anhand der Kurve "IPCC Bern" beim Szenario SRES A1 sowie auch durch Nachrechnung der IPCC-Ergebnisse bei den Szenarien IS92a und WRE 550 bestätigt werden konnte),
b) ein größerer Puffer - die Atmosphäre ist davon 53% (statt 75%) und
c) die Klimasensitivität für CO2-Verdoppelung beträgt im Gleichgewicht 2,8 °C (statt 0,7 °C).

Die Erhöhungen der Gleichgewichtstemperaturen gegenüber dem Jahr 2000, errechnet aus deltaT = deltaT2x *ln(C/Co)/ln(2) sind bei den Szenarien SRES A1 und IS92aD in den Fähnchen jeweils bei den maximal erreichten
Konzentrationen dargestellt. Beim Szenario IS92aD gelten die in Klammern genannten Temperaturerhöhungen gegenüber der vorindustiellen Konzentration von Co=280 ppm. Die Angabe f=37% im Jahr 2000 ist die "airborne fraction", d.h. das Verhältnis des jährlichen Anstiegs in der Atmosphäre (3,2 GtC) zur Gesamtemission (ca. 8,7 GtC). Die airborne fraction verringert sich nachweislich in demselben Maß wie die Emissionen ansteigen, da die atmosphärische Zunahme (im Mittel) schon seit 27 Jahren konstant ist (siehe Messungen der NOAA).

IPCC-Forscher sind jedoch davon überzeugt, dass die airborne fraction zwar derzeit noch konstant bleibt, aber in Zukunft aufgrund von Sättigungserscheinungen in den Ozeanen zunehmen muß - beobachtet wird das Gegenteil.

B1_Cmodcal9n.gif (23450 bytes)

Bild 1: CO2-Kreislauf

B2_Diefig2fo_.gif (12755 bytes)

Bild 2: Wasserkastenmodell

B3_Cmodcal5.gif (29139 bytes)

Bild 3: SRES A1

B6_IS92aD_.gif (34005 bytes)

Bild 4: IS92aD

Mehr Informationen:
http://www.john-daly.com/dietze/cmodcalc.htm (carbon model calculation)
http://www.john-daly.com/forcing/moderr.htm (official IPCC TAR review)
http://www.iavg.org/iavg081.htm (Klimawandel - Webseite bei Dr. Penner)


07.03.2003
DECHEMA und Fragen zur 14C-Kalibrierung

Sehr geehrte Frau Professor Levin,

für Ihre interessanten Ausführungen gestern sowie die Diskussion möchte ich Ihnen noch danken. Und natürlich auch für die beiden papers (NATURE 1994 sowie RADIOCARBON 2000). Letzteres kannte ich noch nicht und werde es übers Wochenende genau analysieren.

Ich habe vorweg drei Punkte, die ich bisher leider nicht klären konnte und zu denen Sie mir vielleicht kurz etwas sagen könnten:

1. In Ihrem Vortrag zeigten Sie die Abnahme von delta14C in der Atmosphäre aufgrund der "Verdünnug" durch fossile CO2-Emissionen. Ich sehe da ein gewisses Problem insoweit als die Zeitkonstante von bomb-delta14C bei etwa 16 Jahren liegt (GEOSECS, Anlage *), die "Verdünnung" aber nur sehr langsam geht (0,4 %/a). Dieser Wert dürfte aber wegen der Austauschflüsse mit den Reservoiren, die ja immer wieder zum Teil die unverdünnte Atmosphärenzusammensetzung restaurieren, zu hoch sein. M.E. könnte daher (um mal eine Schnapszahl zu nennen) die Verdünnung z.B. auf 0,2 %/a sinken. Mir ist nicht klar, auf welcher Basis Sie im Vortrag Ihre Aussage machten, dass der Suess-Effekt den fast ausschließlich anthropogen verursachten CO2-Anstieg bewiesen habe.

Sie wissen sicher auch (was ich in der Diskussion schon angeschnitten hatte), dass gegenwärtig nicht 30% sondern nur etwa 5% des atmosphärischen CO2 anthropogen-fossilen Ursprungs sind (Prof. Segalstad) - was leider von einigen Leuten (die nicht an den turnover denken und auch mein C-Modell für einen Artefakt halten) dahingehend mißinterpretiert wird, dass der Mensch kaum an der CO2-Erhöhung beteiligt sei, sondern diese i.w. aus einer Verlagerung des natürlichen Gleichgewichts stammt.

2. Ich habe in meinem Vortrag (3 Bilder in der Anlage) gezeigt, dass die beobachtbare mittlere Verweildauer (1/e-Zeitkonstante) für den CO2-Überschuß 55 Jahre beträgt und IPCC (d.h. das Bern-Modell von Oeschger/Siegenthaler/Joos) de facto gemäß curve fitting für verschiedene Szenarien mit etwa 570 Jahren agiert. Ich habe den Verdacht, dass der Faktor 10 durch die falsche Annahme bedingt sein könnte, 14C unterliegt NICHT dem Revelle-Faktor (siehe Ausführungen von Prof. Harvey "18 May 2001 16:49" unter http://www.john-daly.com/dietze/cmodcalD.htm).

Hier schreibt er wörtlich: "For 14C, there is no b factor, so you can see that the time scale for the atmosphere and mixed layer to come into equilibrium with each other is about 10 times faster for total carbon than for a 14C" - ähnlich hatte sich auch Dr. Joos geäußert in "Imbalance in the budget" (NATURE 370, 21 July 1994 p.182 Sp.1). Sehr interessant (!!) ist die Dynamik für 13C, 12C und total C nach einem großen 13C-Impuls (siehe Bild von Prof. Harvey unter "11 Jun 2001 11:03"). Das total C verhält sich wie sonst das 12C nach einem Emissionsimpuls.

Bei der Kalibrierung könnte sich der Revelle-Fehler vielleicht stark auswirken. Ich hatte Ihnen berichtet, dass Prof. Wofsy, der m.E. ohne es zu wissen, über seine Parameter auch den Fehler hat (siehe http://www.courses.fas.harvard.edu/~es166/4box.html). Daher sah er sich leider nicht in der Lage, eine korrigierte Testrechnung zu machen. Pieter Tans und auch Dr. Heimann hatten mir bestätigt (Tans-Dissertation), dass meine Auffassung, 14C unterliege ebenso wie 12C dem Revelle-Faktor, richtig sei. Prof. Bolin schrieb mir, 14C unterliege NICHT dem Revelle-Faktor. Ich war sehr überrascht dass Sie (obwohl Sie den richtigen Sachverhalt kennen) trotzdem im Vortrag sagten, Ihre Ergebnisse seien identisch mit den Werten der Oeschger-Gruppe. Wie kommt das? Weiter frage ich mich, wie Sie die CO2-Aufnahme der Ozeane um 25% verringern wollen wenn doch die Beobachtung und meine Modellrechnungen eher dafür sprechen dass sie größer ist als bisher angenommen.

3. Bei der Erstellung von http://www.john-daly.com/dietze/cmodcalc.htm hatte ich nervige Debatten mit etlichen Leuten, die nicht einsehen konnten wie man denn von 11 Jahren Halbwertszeit des bomb-delta14C (GEOSECS) auf eine Verweilzeit auf 55 (Dietze) geschweige denn 120 oder gar 570 Jahre (IPCC) kommen kann. Mein Problem ist, dass IPCC-Forscher den Zeitkonstanten-Ansatz gar nicht benutzen, sondern Flußberechnungen, und dass es daher wohl dazu auch keine (direkte) Dokumentation gibt. Ob ich des Rätsels Lösung in Ihrem RADIOCARBON-Paper finden kann, weiß ich noch nicht. Vielleicht können Sie mir mal einen Tipp geben.

Ich hoffe, Ihre Zeit mit diesem hochinteressanten Thema nicht zu sehr zu beanspruchen, verbleibe mit freundlichen Grüßen und wünsche ein schönes Wochenende.

P. Dietze

Cmodcal8.gif (16817 bytes)

*) Bild 8 GEOSECS von cmodcalc.htm


07.03.2003
DECHEMA und airborne fraction

Sehr geehrter Herr Dr. Heimann,

für Ihren interessanten gestrigen Vortrag und die Diskussion möchte ich nochmals danken. Allerdings hatte ich ein Problem da Sie nicht bestätigen wollten dass wenn (gemäss NOAA-Messung lt. Anlage 1) die CO2-Zunahme seit 1975 konstant (!) 1,52 ppm/a ist und die Emissionen in demselben Zeitraum beträchtlich zugenommen haben, zwingend die airborne fraction ABGENOMMEN haben muss.

B7_NOAAco2_mlo.gif (25844 bytes)

Da meine Modellrechnung ziemlich genau den beobachten CO2-Verlauf reproduziert und auch die Emisssionskurve in etwa den Tatsachen entspricht, können Sie den Verlauf der airborne fraction aus Anlage 2 ersehen *).

Die AF ist bei mir das Verhältnis zur Gesamtemission. Sie nimmt - entgegen Behauptungen von IPCC - in der Tat ab. Dies geht auch aus dem Vergleich der Budgets in SAR und TAR hervor. Mir ist unerklärlich wie Sie den exponentiellen CO2-Anstieg und die konstante AF aus Beobachtungswerten ermittelt haben. M.E. kann es sich nur um Rechenwerte handeln (siehe meine blaue IPCC-Kurve und zugehörige AF).

Mit freundlichem Gruss
P. Dietze

*) Bild 2 IS92aD von www.john-daly.com/dietze/cmodcalc.htmsiehe oben )


Informationen zu Modellen und Lügen


"Klimaschutz" und CO2-Emissionshandel: teure Schildbürgerstreiche
aus CHEMKON Nr. 2/2001

Am 23. Januar hieß es in diversen Pressemeldungen, das Weltklima werde sich schneller erwärmen als angenommen. UNEP-Direktor Klaus Töpfer sei besorgt über die neuesten Befunde, die in Schanghai für den dritten IPCC-Bericht (im Summary for Policymakers) verabschiedet wurden, und die Alarmglocken müssten jetzt überall läuten. Die Temperaturerhöhung 1990-2100 lag gemäß dem Intergovernmental Panel on Climate Change bisher bei 1-3,5 °C, im Bericht 2000 wurden den Review-Experten erst 4, dann 5 und schließlich 1,4-5,8 °C vorgelegt. Diese Verschlimmbesserungen erfolgten jedoch nicht wegen neuer wissenschaftlicher Erkenntnisse, sondern mittels realitätsferner Szenarienrechnungen – offensichtlich aufgrund politischer Zielvorgaben des von UN und UNEP geführten IPCC, um eine drastische Reduktion der CO2-Emissionen durchzusetzen. Bereits im Oktober ließ man 6°C "durchsickern" (z.B. NZZ-Meldung am 27.10.2000). Anfang Februar verkündete die UNEP laut einer Studie der von ihr beauftragten Münchner Rückversicherungs AG um 2050 jährliche globale Klima-Schäden von 620 Mrd. DM. In der Öffentlichkeit wird der Eindruck erweckt, die Gefahr der Klimaerwärmung sei bisher weit unterschätzt worden.

Die Bundesregierung bestätigt in dem vor der COP-6 in Den Haag politically correct verabschiedeten Klimaschutzprogramm (http://www.bmu.de/download/dateien/klimaschutzprogramm2000.pdf) (dead link, 29.01.2005) noch ausdrücklich die sicher nicht realisierbare 25%ige CO2-Reduktion bis 2005. Die Kernenergie wird mit keinem Wort erwähnt. Erforderlich sei u.a. die Energieeinsparverordnung (EnEV), eine deutsche Energieagentur und das Inkrafttreten des Kyoto-Protokolls bis spätestens 2002 (Rio+10). Bis ca. 2010 haben wir leichtfertig 75% der 8%igen EU-Reduktionsverpflichtungen übernommen, das sind für uns 21 % bezogen auf 1990. Absurd erscheint hierbei der Ausstieg aus der Kernenergie. Bereits ein KKW mit 1300 MW ist hinsichtlich CO2 so gut wie ein Wald mit etwa 180 Mio. Bäumen, und bundesweit wird ein CO2-Ausstoß von ca. 160 Mio. t vermieden, der dem des gesamten Straßenverkehrs entspricht (Stromthemen 12/1999).

Die EU-Kommission hat bereits Vorschläge für den CO2-Zertifikathandel und Sanktionen, das sog. Grünbuch, ausgearbeitet (www.konservativ.de/umwelt/wildgrue.htm). Der geplante Emissionshandel, die Zuteilung oder Versteigerung, Zertifizierung und das Monitoring durch den TÜV sowie JI- und CDM-Projekte zwecks CO2-Anrechnung werden zu hohen Energiekosten, Wettbewerbsverzerrungen, ausufernder Bürokratie und deutlichen Einbußen in der Wirtschaft führen. Diese Schildbürgerstreiche erinnern nicht nur an den mittelalterlichen Ablasshandel (kombiniert mit Opfergaben und Buße für die Götzin Gaia), sondern sind faktisch auch unter "Betrug" nach §263 StGB einzuordnen. Die energie-, wirtschafts- und verkehrspolitischen Maßnahmen, die wegen Kyoto und des nirgends bewiesenen Klimakatastrophen-Mythos durchgesetzt werden sollen, erscheinen ebenso grotesk wie die Vorstellung, dass sich mit Temperaturänderungen von ein paar hundertstel Grad Naturkatastrophen vermeiden lassen.

Meine Untersuchungen deckten erhebliche Parameterfehler in den IPCC-Modellen auf, die bis 2100 insgesamt zu einer Überschätzung der CO2-bedingten Erwärmung um etwa 600% führen. Diese wurden von mir als offiziellem Reviewer des 3. Berichts bei IPCC eingereicht, unter

www.john-daly.com/forcing/moderr.htm

im Internet dokumentiert und im Capitol in Washington DC vorgestellt. Von Patrick Michaels und Robert Balling ist das kritische Buch "The Satanic Gases" erschienen, von Mihkel Mathiesen "Global Warming in a Politically Correct Climate" und von Fred Singer (ebenfalls in deutscher Ausgabe) "Hot Talk – Cold Science". Auch Dr. Heinz Hug (CHEMKON 7/1/2000) sowie Dr. Hartwig Volz (Erdöl Erdgas Kohle 116/9/2000) äußerten Kritik an der etablierten Treibhauswissenschaft. Sogar Prof. Lennart Bengtsson et al. vom Klimarechenzentrum Hamburg gaben im Journal of Geophysical Research 104, S. 3865 (Februar 1999) unter dem Titel "Why is the global warming proceeding much slower than expected?" zu, dass – offenbar aufgrund bisher nicht geklärter Modellfehler - die Erwärmung weit geringer ausfällt und langsamer vor sich geht, als bisher berechnet wurde. Trotzdem hat IPCC jetzt die mögliche Erwärmung drastisch erhöht.

Gemäß Regressionsanalysen muss aufgrund des Solaranteils die Klimasensitivität von CO2 mindestens um den Faktor drei reduziert werden. Im IPCC-Modell wird der Strahlungsantrieb für CO2-Verdoppelung lediglich für den oberen Bereich der Atmosphäre (Tropopause) berechnet, ohne die Verhältnisse in Bodennähe einschließlich Wasserdampfüberlappung der Absorptionsbanden zu berücksichtigen, die für die Erwärmung des Bodens durch thermische Gegenstrahlung relevant sind. Hiermit ergibt sich anhand eines einfachen Energiebilanzmodells der Atmosphäre eine sogar um den Faktor 4 bis 6 geringere Bodenerwärmung gegenüber IPCC.

Fälschlicherweise wird von IPCC ein konstanter atmosphärischer Temperaturgradient angenommen, der die vermeintliche Erwärmung der Tropopause durch 3,7 W/m² bei CO2-Verdoppelung bis auf den Boden bringt. Hier soll sich diese durch die angenommene Wasserdampf-Rückkopplung mehr als verdoppeln. Wegen verstärkter Strahlungskühlung wurde jedoch eine bis in die untere Troposphäre reichende Abkühlung gemessen (nach Bengtsson et al., s.o.), die sogar zu einem insgesamt geringeren Gehalt an Wasserdampf führen könnte. Dies erklärt auch weshalb der bodennahe (um urbane Wärmeinseleffekte bereinigte) Treibhaus-Erwärmungstrend bei Satellitenmessungen in etwa 1-5 km Höhe nicht auftritt.

Auch das IPCC-Kohlenstoffmodell, das überwiegend eine ozeanische CO2-Aufnahne durch Wirbeldiffusion annimmt, ist fehlerhaft. Aus den natürlichen Senkenflüssen kann eine (auch längerfristig gültige) "Halbwertszeit" von nur 38 Jahren für jede emissionsbedingte CO2-Erhöhung berechnet werden. Selbst wenn bis 2100 noch 1500 Gt Kohlenstoff verbrannt würden, ergeben sich lediglich 570 ppm für business as usual (Szenario IS92a). Die nutzbaren fossilen Reserven betragen schätzungsweise nur 1300 GtC, womit maximal ein Anstieg auf 548 ppm (statt 700 ppm bei IPCC) möglich ist. Die CO2-bedingte globale Erwärmung dürfte – ohne jegliche Reduktion – bis 2100 real allenfalls 0,4 °C betragen und das mittelalterliche Optimum kaum überschreiten.

Wenn sich alle Industrienationen an die Reduktionen gemäß Kyoto halten, werden nach Tom Wigley (IPCC) 0,07 °C bis 2050 erreicht. Real sind es kaum 0,02 °C, wovon auf die BRD etwa nur 0,0025 °C entfallen. Wozu also der ganze Aufwand, die Forcierung der nur marginal und unwirtschaftlich realisierbaren Energieerzeugung aus Sonne und Wind sowie die Reise-Großveranstaltungen von UNEP/IPCC? Bis 2100 dürfte die Menschheit, so sie vernünftig ist, ohnehin auf Thoriumbrüter übergehen – in Indien ist bereits ein Versuchsreaktor in Betrieb. Im Mineral Monazit steht uns eine Energiemenge von etwa dem 100-fachen (!) der heutigen Öl- und Gasreserven zur Verfügung (Naturwissenschaftliche Rundschau 10/1998 S. 391).

Peter Dietze, Frankenstr. 9, 91094 Langensendelbach

Dipl.-Ing. Peter Dietze, Jahrgang 1941, Fachbereich Elektrotechnik/Regelungstechnik, TH Darmstadt, ist ehemaliger Siemens-Mitarbeiter aus dem Bereich Energieverteilung. Er befasst sich seit 15 Jahren privat und unabhängig mit der wissenschaftlichen Analyse von Klima- und Kohlenstoffmodellen. Auch im Internet finden sich zahlreiche seiner kritischen Beiträge.
[ p_dietze@t-online.de; www.john-daly.com/dietze/cmodcalc.htm]

CHEMKON Nr.2/2001

Literaturtipps:
Zurück zum Plan. Die EU will den Klimaschutz vorantreiben - es droht eine bürokratische Maßregelung der Industrie.
von Konrad Handschuch in Wirtschaftswoche, Nr. 9, 21.02.2002
siehe auch
Special Energie der Zukunft in Wirtschaftswoche vom 14.02.200

Kontakt:
Dipl.-Ing. Peter Dietze
Frankenstr. 9
D-91094 Langensendelbach
E-Mail: p_dietze@t-online.de

Internetadressen mit interessanten Beiträgen:

CHEMKON
(Chemie konkret), ist eine Chemie-Zeitschrift für den Bereich Ausbildung an Hoch- und Fachschulen
herausgegeben von Prof Walter Jansen chemkon@chemie.uni-oldenburg.de


Eine Information von P. Dietze zu Strahlungsfenster und Reemission von CO2

Frage von Dr. Thüne: "Nach Ansicht aller "Klimaexperten" (incl. IPCC) gibt es in der Atmosphäre ein "stets offenes atmosphärisches Strahlungsfenster" zwischen 7 und 13 Mikrometer! Kohlendioxyd soll mit seiner Absorptionsbande bei 15 Mikrometer durch Re-Emission der von der Erde emittierten, von ihm absorbierten und dann wieder emittierten Temperatur(Wärme)strahlung zur "Erderwärmung" beitragen. Ich habe bisher nicht ergründen können, wie dies funktionieren soll! Kann mir jemand ... helfen?"

Die Auffassung, IR-Strahlung, die ja aus Wellen unterschiedlicher Frequenzen besteht, könne ähnlich wie warme Luft praktisch vollständig durch ein "offenes Fenster" entweichen, ist *grundfalsch*. Nur die Wellen, die im Frequenzbereich des offenen Fensters liegen, können entweichen. Ebenfalls grundfalsch ist die Vermutung, dass für die Absorption und Emission nur Wellen im Maximum gemäß Wienscher Verschiebung betroffen sind, und dass jede Welle auf einer bestimmten Temperatur basiert. Übrigens liegt das Maximum der wellenzahlbezogenen Strahlungsdichte für 288 K nicht bei 1000/cm (10 µm), sondern etwa bei 560/cm (17,8 µm), siehe Anlage 1.

VolzRama_.gif (28573 bytes)

Weiter grundfalsch wäre die Vermutung, dass elektromagnetische Strahlung sich nur von warmen zu kalten Körpern bewegt. Die Strahlung geht grundsätzlich nur gemäß der Kelvin-Temperatur von jedem Körper aus - eine Temperaturmessung der angepeilten Ziele sowie einen Vergleich Sender-Empfänger und eine Entscheidung "soll ich oder soll ich nicht" kann sie nicht ausführen.

Der 2. Hauptsatz gilt nur für die Transportbilanz, und in der Tat gibt ja die Erde laufend Energie an die kältere Umgebung ab. Das gilt auch dann, wenn sie sich durch einen Wärme- oder "Strahlungsstau" durch THG um einige Zehntel °C erwärmt.

Trotz 300.000 km/sec kann es einen Strahlungsstau insofern geben, als die Strahlung teilweise zurückgeworfen, wieder emittiert und wieder zurückgeworfen wird - sie kann somit die Erde nicht direkt verlassen. Die Folge ist, dass sich die Erde solange erwärmt bis die verringerte Energieabgabe durch eine erhöhte Abstrahlung im Bereich der offenen Fenster kompensiert wird.

Bei vermehrter Schließung offener Fensterbereiche durch Erhöhung der THG-Konzentration erhöht sich zunächst die Absorption mit der Folge von sog. Thermalisierung. Aber dann wird auch wieder mehr IR von den THG der Troposphäre thermisch in alle Richtungen, also auch zum Boden, (re-)emittiert - insbesondere auch wegen nunmehr erhöhter Emissivität nach Kirchhoff +Planck.

D.h. die Atmosphäre unterliegt einer gewissen Strahlungskühlung (natürlich nur in den Frequenzbereichen wo sie auch absorbiert), was dann zu einem neuen thermischen Gleichgewichtszustand führt. Hierbei kann die Temperatur ggf. nur geringfügig ansteigen (in der untersten Troposphäre) oder sogar fallen (in der mittleren und oberen Troposphäre). Dies ist die von mir gefundene und auch meßtechnisch nachgewiesene Erhöhung der "lapse rate" (siehe Bengtsson et al. in JGR Feb. 1999). Diese ist auch großteils für die Diskrepanz zwischen Satelliten- und Bodenmessungen verantwortlich.

Die Berechnung der bei CO2-Verdoppelung zusätzlich von CO2 absorbierten IR-Strahlung mittels HITRAN-Spektren und schließlich die Abschätzung der Bodenerwärmung durch thermische (Re-)Emission mitsamt Wasserdampf-Überlappung habe ich in Kap.3 von http://www.john-daly.com/forcing/moderr.htm (official TAR Review) erklärt.

Sehr schön sehen Sie, was in etwa bei CO2-Verdoppelung passiert, anhand meiner roten Linien in beigefügter Satellitenmessung von Ramanathan. Der CO2-"Trichter" verbreitert und vertieft sich
(Kühlung der oberen Troposphäre). Inklusive Wasserdampf werden (neueste Zahlen) zusätzlich 2,7 W/m² zurückgehalten. Da die Sonnenenergie gleich bleibt, müssen überwiegend im Bereich der offenen Fenster diese 2,7 W/m² zusätzlich abgestrahlt werden. Dies ist nur möglich, wenn sich der Erdboden (den man ja unmittelbar per IR-Fernmessung dort "sehen" kann) etwa um 0,7 °C erwärmt.

Ich hoffe dass hiermit alle wesentlichen Mißverständnisse beseitigt sind. Die Auskühlung in einer sternklaren Frostnacht wird übrigens von CO2-Leuten nicht bestritten. Sie ist aber keinesfalls ein Beweis dass der CO2-Treibhauseffekt nicht existiert. Ohne den (geringen) Anteil zusätzlicher Gegenstrahlung (siehe Anlage 2, blaues Spektrum) wäre natürlich die Auskühlung etwas stärker.

Volz_upanddownrad.gif (8362 bytes)

CO2 bringt hier einen erheblich geringeren Effekt als Wasserdampf und Wolkenbedeckung. Wie Sie wissen, gehen die CO2-Leute davon aus, dass letztere anthropogen (wenigstens primär) praktisch nicht verändert werden, wohl aber die CO2-Konzentration.

Mit besten Wünschen für's neue Jahr
P. Dietze
E-Mail vom 04.01.2003

... und noch eine kleine Ergänzung

... möchte ich Ihnen gern eine Grafik präsentieren die sehr schön die Gegenstrahlung in Abhängigkeit vom Bewölkungsgrad zeigt (Anlage).

McIntyre.gif (42849 bytes)

Die Messung der Gegenstrahlung wurde unter bodennahen Temperaturverhältnissen um -2 °C (271 K) ausgeführt. Die Luft- und Wolkentemperatur ist in etwa dieselbe.

Die blaue Kurve zeigt die Gegenstrahlung ohne Bewölkung wo der CO2-Effekt im 15 µm-Bereich von etwa 610-670-730/cm (neben Wasserdampf bis 610/cm, Ozon bei 1050/cm und Wasserdampf ab 1250/cm) deutlich in Erscheinung tritt. Je höher der Bewölkungsgrad (grün, rot), desto mehr steigt die Gegenstrahlung außerhalb des (gesättigten) CO2-Bereichs an und nähert sich der Planck-Kurve (türkis) eines Schwarzstrahlers!!

Wenn diese erreicht ist, spielt die CO2-Konzentration offensichtlich keine Rolle mehr. Hier wird deutlich, wie stark die Bewölkung das radiative forcing von CO2 (welches für clear sky und ohne Wasserdampf gilt) vermindert. Wenn man sich vergegenwärtigt, dass die Höhe des CO2-"Zahns" proportional zum zusätzlichen Treibhauseffekt bei CO2-Verdoppelung ist, so kann sich dieser ohne weiteres bei Bewölkung auf die Hälfte, ein Viertel oder weniger verringern. Auch durch die Wasserdampfüberlappung auf der linken Seite erfolgt eine Verringerung um ca. 27 % wie aus einer Satellitenmessung von Ramanathan zu entnehmen ist.

Die IPCC-Annahme dass der CO2-Effekt durch Wasserdampf und Wolken nur wenig verringert, dafür aber durch Wasserdampf-Feedback sogar um den Faktor 2 verstärkt wird, dürfte damit endgültig widerlegt sein. Die von mir benutzte Reduktion des IPCC-Effekts insgesamt um den Faktor 4 (Feedback, Wolken und 288 statt 255 K Bezugstemperatur) scheint nicht nur berechtigt, sondern eher noch untertrieben.

Sie erkennen in den Meßwerten auch deutlich, dass die Gegenstrahlung maximal diejenige eines Schwarzstrahlers mit Wolkentemperatur erreichen kann. Wenn Sie einmal annehmen, dass in der von Ihnen oft erwähnten klaren Frostnacht Wolken aufziehen, können Sie hier leicht erkennen woher die Erwärmung (bzw. Verminderung weiterer Auskühlung, je nach Wolkentemperatur) kommen muß, nämlich von der Gegenstrahlung.

Die Energieabstrahlung (Bilanz!) des Erdbodens mit T1 ergibt sich bei dichter Bewölkung (T2), d.h. praktisch unter Schwarzstrahlerbedingungen, zu S = Sigma*(T1^4 - T2^4). Wenn T2 normalerweise niedriger ist als T1, bedeutet das einen Netto-Energieverlust für den Boden durch überwiegende Abstrahlung. Im hypothetischen Gleichgewicht der "Mittelwert-Erde" muß die (solar) zugeführte Leistung P gleich S sein. Daraus folgt, dass wenn das (niedrigere) T2 sich erhöht, auch die (höhere!) Temperatur des Bodens ansteigen muß. Also ergibt sich tatsächlich eine Rückwirkung von kalt nach warm - wobei allerdings der Netto-Energiefluß immer von warm nach kalt geht und damit den 2. Hauptsatz nicht verletzt.

Mit freundlichen Grüßen
P. Dietze
per E-Mail vom 20.01.2003, Grafik aktualisiert am 21.01.2003


Eine Ergänzung vom 22.01.2003
von Ernst-Georg Beck

Zweifellos absorbieren/emittieren bestimmte Wolkentypen je nach Zusammensetzung elektromagnetische Strahlung mehr oder weniger ideal. Dies ist natürlich nicht zu bestreiten jedoch darum ging es mir nicht. Mich hat die Ausschließlichkeit Ihrer Aussagen gestört.

In der Atmosphäre findet in größtem Umfang vom UV - IR-Bereich Streuung, Brechung oder Reflektion statt und zwar je nach Teilchengröße oder z.B. Strahlungswinkel in den Wolken, Nebel, Regen, Schnee, Eis. Ist die Teilchengröße im Bereich der Wellenlänge, ist dieser Effekt besonders groß. In der Akustik nennt man das Diffraktion. Nun ist die Teilchengröße der Wolken bzw. sind die Varianten des H2O im flüssigen und festen Zustand in der Atmosphäre sehr unterschiedlich. (Quelle z.B. ) (dead link, 29.01.2005)

Hier der Zusammenhang im near IR von der Seite des GEOS-Satelliten

sm5cm1101.gif (5759 bytes)

Quelle: http://deved.comet.ucar.edu/satmet/goeschan/print/p_swir4.htm

dass oben 3,9 Mikrometer verwendet werden liegt am verwendeten Satellitenkanal. Bei größeren Wellenlängen gilt das genauso und damit sind wir in dem von der Erde emittierten IR-Bereich. Also habe ich Streuung und Reflektion sowohl bei der eintreffenden Solarstrahlung als auch je nach Aggegatzustand des Wassers in der Atmosphäre bei der Emission durch die Erde.

Mir ging es nur darum daraufhinzuweisen, dass man nicht alles nach Schema F abhandeln kann. Je nach Wolkentyp stimmt die allgemeine Regel für Wolken der Absorption/Emision eben nicht mehr. Die Streuungsproblematik, auch bei Messungen kann man auf den entsprechenden Meteorologischen Seiten nachlesen.

comment.gif (1022 bytes) Ich muss aber der Vollständigkeit auf folgende Artikel verweisen:

Sehr geehrte Mitleser, Combattanten oder als was Sie sich sonst empfinden,

die Diskussion über Gegenstrahlung, Treibhauseffekt  etc.zeigt, dass wir das Wirkungsprinzip, bei dem am Anfang die Sonnenenergie und am Ende die in den Weltraum emittierte Energie steht, wir uns aber für das Wetter der Erde interessieren, offenbar nicht überschauen.

Wir können uns damit trösten, dass alle diesbezüglichen Geschehnisse chaotisch sind, sich also der mathematischen Nachrechnung entziehen. Allerdings sind uns die Wirkungen bekannt und wir haben auch erkannt, dass sich selbst steuernde Regelungen stattfinden, die zur Konstanz des langjährigen Klimas führen.

Auf die Ursachen des Geschehens können wir offensichtlich keinen nennenswerten Einfluss nehmen, weder im Guten noch im Bösen. Der marginale Anteil des CO2 in der Luft und der noch marginalere Anteil hieran, der von menschlichen Aktivitäten herrührt, lohnt nicht, sich mit ihm zu befassen.Die Selbstregelsysteme werden damit mühelos fertig.

Wer sich mit Computersimulationen etwas auskennt, weiß, dass auch diese keine neuen Erkenntnisse liefern können. Was soll also bei dieser Diskussion herauskommen ausser der Erkenntnis, dass die CO2 Diskussion ein riesiges politisch motiviertes Affentheater ist und wir uns daher überlegen sollten, wie man die Politiker, die ja diesen Stuss in Verordnungen und Gesetze kleiden und damit ohnehin nicht vorhandene Steuermittel vergeuden, von ihrem unheilvollen Tun abbringt.

Ausserdem sehe ich noch die Aufgabe, die Pseudowissenschaftler, die sich haben kaufen lassen, systematisch als das entlarvt, was sie in Wirklichkeit sind.

Beste Grüsse
Dipl.-Ing. Christoph Schwan
E-Mail vom 22.01.2003


Aus "Science" wurden wegen Fälschungen acht (Review-) Arbeiten zurückgenommen
siehe Anlage

Viel größer als hier in einem unpolitisierten Wissenschaftsbereich aus der Industrieforschung, erscheint mir die Häufigkeit manipulierter oder zumindest stark tendenziöser bzw. selektiver Artikel auf dem Klima- und Umwelt-Gebiet. Insbesondere hier werden keine als kritisch bekannten Reviewer bemüht - und schon garnicht Artikel von Kritikern ausgewählt.

Die Verstärkung der Mainstream-Auffassung sowie Andeutung von möglicherweise erheblich größeren Gefahren (die natürlich weiter untersucht werden müssen und verschärfte energiepolitische Maßnahmen bestätigen oder erfordern) sichert doch allen Beteiligten reichlich Forschungsmittel.

Allerdings dürfte sich, da insbesondere in USA die Forschung sehr stark durch die Linie der (Bush-) Regierung geprägt wird, in Kürze ein merklicher "Klimawandel" vollziehen - der mit zeitlicher Verzögerung z.T. auch auf die Veröffentlichungen in Europa übergreift.
 
Gruß P. Dietze
E-Mail vom 05.01.2003

Anlage:
Ende einer Affaire?
Nach der Rücknahme von acht Arbeiten aus „Science“ wegen Fälschungen bleiben viele Fragen
Von Steffen Schmidt

Lange konnte die Physik vom Nimbus der „exakten“ Wissenschaft zehren. Sind doch reproduzierbare Bedingungen eines Experiments eine der Grundfesten des Faches. Deshalb blieben Fälschungsskandale in der Physik auch extrem selten. Man erinnere sich nur an das schnelle Ende der „Kalten Kernfusion“. Doch  nun erwischte es die Physiker richtig. Einer der ihren, der Deutsche Jan Hendrik Schön, hatte bei Experimenten mit organischen Halbleitermolekülen und Supraleitern Messdaten manipuliert. Und das ausgesprochen erfolgreich. Die Liste der über vier Jahre erschienenen Arbeiten, die in der aktuellen Ausgabe des US-Fachjournals „Science“ zurückgezogen werden, zählt acht Aufsätze, an denen Schön als maßgeblicher Autor beteiligt war. Das ist nach Auskunft der Amerikanischen Gesellschaft zur Förderung der Wissenschaft (AAAS), die das Journal herausgibt, die größte Zahl von Arbeiten, die auf einen Schlag zurückgezogen werden. Auch beim britischen Konkurrenzblatt „Nature“ werden wohl fünf Schön-Artikel zurückgezogen.

Die ganze Affaire wirft nicht nur ein schlechtes Licht auf die renommierten Bell Laboratories des US-Technologiekonzerns Lucent, wo Schön bislang forschte, es bleiben auch einige Fragen, die „Science‘“ zu beantworten hat. Immerhin waren Schöns Ergebnisse nach dem Urteil vieler Kollegen „bahnbrechend“. Aber sie konnten meist in anderen Labors nicht nachvollzogen werden. Da bleibt schon Zweifel am Funktionieren des Begutachtungssystems, mit dem Zeitschriften wie „Science“ im Zeitalter des Internets ihre weitere Existenzberechtigung begründen. Normalerweise durchlaufen Forschungsergebnisse bis zur Veröffentlichung in solchen begehrten Zeitschriften mehrere Filter. Schon die Koautoren – von denen im Fall Schön keiner die entscheidenden Experimente selbst gesehen hatte – müssten die erste Stufe der Qualitätssicherung sein. Sie müssten als erste stutzen. Doch womöglich blendet der Erfolgsdruck den kritischen Blick auf die Messkurven. Als nächstes wird – zumal bei einem Industrie-Institut – die Leitung und die Patentabteilung damit befasst. Wenn die Arbeit dann in der Redaktion eines renommierten Fachblattes landet, schickt die das Manuskript an mehrere Kollegen mit ähnlichen Forschungen zur Begutachtung.

Doch im Falle Schön versagte diese ganze Kette. Erst durch Konkurrenten, denen die Übereinstimmung mancher verschieden beschrifteter Messkurven auffiel; wurde letztlich eine Untersuchung in die Wege geleitet. Optimisten sehen den letztlichen Ausgang der Affaire als sicheres Zeichen, dass die Kontrollmechanismen noch immer bestens funktionieren. Doch ob das bei der wachsenden Spezialisierung der Wissenschaften und den daraus erwachsenden Verständigungsproblemen noch so bleibt?

Quelle: Neues Deutschland, 2./3. November 2002


Nordsee-Zeitung Bremerhaven 01.03.2003
http://www.nordsee-zeitung.de/default.asp

Forscher: Kalte Füße im Treibhaus Erde
Wissenschaftler stellen neue Erkenntnisse zum Klimawandel vor


Dass die Erde immer wärmer wird, weiß inzwischen jeder – außer den Wissenschaftlern, die den Klimawechsel erforschen. Viele Geologen, Glaziologen und Ozeanographen sind sich ihrer Sache gar nicht mehr so sicher: Trotz allgemeiner Erderwärmung könnten die Nordeuropäer bald ziemlich kalte Füße bekommen.

Die Zusammenhänge sind so verschlungen wie die Meeresströmungen, die für das Klimachaos mitverantwortlich sind. Sie zu entwirren, ist ein Schwerpunktthema der europäischen Forschung. Um ihre Anstrengungen auf diesem Gebiet darzustellen, hatte die EU-Kommission rund 30 Journalisten nach Bremerhaven eingeladen. An Bord des Forschungseisbrechers „Polarstern“ stellten führende europäische Forscher ihnen gestern die aktuellen Wetterberichte aus der Wissenschaft vor.

„Es wird wärmer, zu einem guten Teil aufgrund menschlicher Aktivitäten“, erklärt Sir Nicholas Shackleton, Professor für Geologie an der Universität Cambridge. Trotzdem könne es in Nordeuropa in den nächsten Jahrzehnten empfindlich kalt werden. „Aufgrund der Erwärmung verändern sich auch die Meeresströmungen“,   erklärt Shackleton. „Die meisten Modelle sagen eine Abschwächung des Golfstroms voraus, deshalb könnte es in Nordeuropa tatsächlich kälter werden.“ Die These teilt Ola M. Johannessen vom Nansen Zentrum für Umwelt und Fernmesstechnik in Bergen (Norwegen). „Durch die Erwärmung schmilzt das Eis in der Arktis“, erklärt er. „Frischwasser ist leichter als Salzwasser, schwimmt also obenauf – wie die Sahne auf dem Kaffee.“ Dadurch jedoch kommt das Schwungrad des Golfstroms zum Stillstand: Statt in riesigen Strudeln abzusinken und in der Tiefe dem warmen Wasser entgegenzuströmen, bleibt das arktische Frischwasser obenauf – der Treibriemen für den Golfstrom ist gerissen.

=======

Mein (P. Dietze, M.B.) Kommentar:
Es ist unerhört, dass behauptet wird, es könne in Nordeuropa in den nächsten Jahrzehnten empfindlich kalt werden da die Erwärmung eine Abschwächung des Golfstroms verursacht. Ich erinnere daran, dass Rahmstorf (und ähnlich Dr. Joos in Bern) eine Abschwächung erst nach 2100 berechnet hat, und zwar unter der Annahme einer VERVIERFACHUNG des CO2-Gehalts und bei Annahme einer FÜNFFACH zu hohen Klimasensitivität.

Die Realitäten, insbesondere in den kommenden Jahrzehnten (bis 2020 steigt die CO2-Konzentration nur auf rund 400 ppm) sind weit davon entfernt. Vor einigen Jahren wurde noch eine *lebhafte* Tiefenwasserbildung zwischen Grönland und Island gemessen (= stärkerer Golfstrom). Bisher habe ich von gegenteiligen Messungen nichts gehört, also sind das nur SPEKULATIONEN ohne jedweden Bezug zur Realität.

Mir scheint, dass die Klimakatastrophler, da sie jetzt eine unerklärliche (solar bedingte!) Abkühlung bemerken, die Öffentlichkeit bewußt irreführen wollen um das Märchen von der CO2-Erwärmung möglichst lange aufrecht zu erhalten. Die Abkühlung ist, was ihnen entgangen zu sein scheint, nicht nur im Umfeld des Golfstroms zu beobachten, sondern z.B. auch in Indien wo etwa 1600 Menschen erfroren sind. Sogar der Nil (in Afrika!) soll teilweise vereist gewesen sein. Trotzdem wird man nun bei uns umsteuern und mit Nachdruck weitere CO2-Begrenzungen, Windmühlen und Zertifikathandel fordern DAMIT ES NICHT KÄLTER WIRD. Bekanntlich haben Menschen ja Kälte weniger gern als Wärme...

Weiter möchte ich auf die jüngsten Klimaschutzaktivitäten und Energieplanungen von Tony Blair hinweisen:
http://www.guardian.co.uk/leaders/story/0,3604,902198,00.html
Hier ein Kommentar dazu:
http://www.spiked-online.com/Articles/00000006DC7E.htm
Zur Diffamierungskampagne gegen Björn Lomborg siehe "Denmark's Ministry of Truth":
http://www.techcentralstation.be/2051/wrapper.jsp?PID=2051-100&CID=2051-011003N
Und über die Lomborg-Inquisition:
http://www.spiked-online.com/Articles/00000006DBEB.htm

Gruß P. Dietze
0.03.2003


Sehr geehrter Herr Prof. Arlt,

von Herrn Prof. Heyke - einem Freund und altem Streiter wider die behauptete CO2-Klimakatastrophe - erhielt ich heute Ihren CIT-Aufsatz 4/03 "Verfahrenstechnische Möglichkeiten zur Verringerung des Anstiegs von CO2 in der Luft" den ich mit Interesse gelesen habe. Allerdings wundere ich mich, dass Sie (offenbar ohne Überprüfung der weit übertriebenen Parameter und Behauptungen von IPCC) von der Notwendigkeit der Reduktion eines CO2-Anstiegs in der Atmosphäre überzeugt zu sein scheinen.

Tatsächlich wird von den IPCC-Modellen, die eine etwa 4-fach zu hohe Klimasensitivität für CO2 annehmen sowie eine wesentlich zu geringe Aufnahme der Ozeane bei steigender Konzentration, eine bis 2100 etwa um 600% übertriebene Erwärmung berechnet. Fazit ist, dass wir auf eine kostspielige CO2-Reduzierung verzichten können da mit den wirtschaftlich nutzbaren 1300 GtC maximal (im stationären Gleichgewicht) nur eine Temperatur- erhöhung von 0,52 °C (gegenüber dem vorindustriellen Wert) bzw. 0,24 °C gegen heute erreicht werden kann. Siehe Bild 1 bzw. Bild 4 IS92aD im Web unter DECHEMA CO2. Die derzeitige mittlere gesamte airborne fraction beträgt nur 37 % und nimmt nachweislich stetig ab.

Wenn Sie sich vergegenwärtigen, dass der beobachtete globale Temperaturanstieg um 0.6 °C seit 1860 zu 57% solar bedingt ist und nur zu 43% durch Treibhausgase (davon zu 60% von CO2) verursacht ist - lassen wir mal Aerosolkühlung und urbane Wärmeinseln außer Betracht - so entfallen seit 1860 lediglich 0.16 °C (!!) auf CO2 - obwohl etwa 400 GtC emittiert wurden. Die Sorge um die Klima-Wirkung von CO2 erscheint maßlos übertrieben und eher politisch und umweltideologisch motiviert. In Deutschland geht man sogar soweit, dass man 250 Mrd Euro (vielleicht sogar das Doppelte) ausgeben will, um die Temperatur um etwa 3/1000 °C abzusenken. Ich denke, wir haben wichtigere Probleme.

Mit bestem Gruß
P. Dietze
02.06.2003

***

Sehr geehrter Herr Dietze,

vielen Dank für Ihr Interesse an meinem Aufsatz. Als Thermodynamiker bin ich nicht in der Lage, den Wahrheitsgehalt der Aussagen der Klimaprogramme zu beurteilen. Ich habe mir für eines - das Programm Climber - den thermodynamischen Teil der CO2-Löslichkeit angesehen. Das war in Ordnung.

Ich kann Ihnen nur berichten, dass von ernsthaften Wissenschaftlern (keinen Öko-Freaks) der Anstieg des CO2 mit Sorge gesehen wird. Die USA geben etwa 3 Mrd. USD pro Jahr für ein Programm aus. Mit meinem Aufsatz wollte ich den Stand des Wissens und eigene Gedanken vorstellen. Ob wir diesen Weg gehen, hängt ja nicht nur von der Tatsächlichkeit des Eintretens sondern auch vom politischen Willen ab. Die Verfahrenstechnik kann den Aufwand an Geld und Energie nennen, entscheiden sollen wir dann alle. Nur so sehe ich meinen Beitrag.

Mit besten Grüßen
W.Arlt


CO2-Zertifikathandelsgesetz & Gefahr einer Ökodiktatur

Sehr geehrter Herr Sieghart,
Dank für Ihre Antwort (s.u.) zum Thema CO2-Zertifikathandel.

  • Sie könnten mir und anderen Adressaten weiterhelfen, wenn Sie, der Sie offensichtlich Fachmann für Zertifikathandelsgesetze und Energiefragen sind, konkret begründen würden, warum dieses neue Gesetz unsere Wirtschaft kaputt macht und warum das Ganze einer Öko-Diktatur gleichzusetzen sei.

Hierzu habe ich an Herrn Hartmut Paul (FDP, aus 77709 Wolfach), der ein ähnliches Verständnisproblem hatte, folgendes Beispiel als Erläuterung geschickt (s. Anhang).

In einer Diktatur wird bekanntlich von Behörden *willkürlich* über die Menschen und ihre Eigentums- und Freiheitsrechte verfügt, überwiegend ideologisch (und machtpolitisch) motiviert und natürlich auch ohne Rücksicht auf Kosten und wissenschaftliche Erkenntnisse. Dieser Fall ist hier gegeben - schließlich ist der Einfluss von CO2 auf die Globaltemperatur und das Klima offiziell bis heute *unbekannt* (siehe Aussage von Stephen Schneider, zitiert in FUSION 2/03 unter http://www.dimagb.de/info/bauphys/umwelt/oekonar1.html#dilemma. Allerdings dürfte die (offenbar fast irrelevante) Klima-Wirkung von Windmühlen und CO2-Restriktionen à la Kyoto bereits bekannt sein. Und wieso soll eigentlich die CO2-Reduktion in der EU nur Deutschland treffen, welches nunmehr (leichtfertig) statt 75% gar 112% der Reduktion der EU übernommen hat?

  • Darüber hinaus hätte ich gerne die Quellen, die zeigen, dass unsere Klimaschutzaktion bis 2020 mehr als 250 Mrd. EUR kosten würde und nur Verbesserungen von 3/1000 °C bringen würde

Quelle für die 250 Mrd. Euro ist der Energiebericht des BMWI "Nachhaltige Energiepolitik für eine zukunftsfähige Energieversorgung" (Oktober 2001). Hier sind m.E. aber nur die primären Kosten berücksichtigt.

Die 3/1000 °C stammen von mir. Man kann das leicht überschlägig nachrechnen. 40% von 1 Mrd t CO2 sind 0,109 GtC/a. Im Senkenfluß-Gleichgewicht ergibt diese Emission E bei einer mittleren Verweilzeit T von 55 Jahren und einem Pufferfaktor BF von 75% mit der Formel delta_ppm = E*T*BF/2.123 eine CO2-Konzentrationsverminderung von 2,1 ppm. Grundlagen siehe nach Fig.7 bei http://www.john-daly.com/dietze/cmodcalc.htm (Carbon Model Calculations).

Im Strahlungsgleichgewicht ergibt sich wenn man für CO2-Verdoppelung meinen Wert von 0,7 °C einsetzt (siehe http://www.john-daly.com/forcing/moderr.htm - official IPCC TAR Review) bei +15 °C (288 K) mittlerer globaler Bodentemperatur und rund 400 ppm um 2020 (370+20*1,5/a)
delta_T = 0,7*ln(402,1/400)/ln(2) = 0,005 °C
Da aber bis dahin nicht der Gleichgewichtszustand erreicht ist und durch die Verzögerung hiervon nur etwa 60% wirksam werden, sind das (transiente) 3/1000 °C.

  • warum dieses neue Gesetz unsere Wirtschaft kaputt macht

Ich meine die Wirtschaft insgesamt - die von Trittin auf Kosten der Allgemeinheit begünstigten Energiewende-Branchen einmal ausgenommen. Das gilt auch für Sie soweit Sie an (hoch subventionierten) Projekten zur regenerativen Energieerzeugung beteiligt sind. Der Windstrom ist nur 1,5 c/kWh wert, kostet aber insgesamt 11,4 Cent und der Solarstrom (zumindest am Standort Nikolaikirche in Leipzig) kostet sogar 2 Euro/kWh (siehe http://www.bwl-bote.de/20030701.htm). Wenn W.v.Fabeck (SFV) 30% Solarstrom fordert sowie bescheidene 80 c/kWh, so bedeutet dies bereits eine Zwangssubvention von 115 Mrd. Euro pro Jahr. Wenn dann noch die KKW stillgelegt werden und mitsamt Kohle großteils durch Wind und Gas ersetzt werden und die dann teuren Zertifikate gekauft werden müssen, ist Deutschland nicht mehr konkurrenzfähig. Viele Betriebe kämpfen ja jetzt schon ums Überleben. Ein entscheidendes Problem ist auch, dass bei diesen Randbedingungen und den ständigen Willkürakten der Ökopolitik keine sinnvollen Investitionsentscheidungen in der Industrie mehr möglich sind - und das kostet bekanntlich Arbeitsplätze, ebenso wie durch Fehlallokation von Investitionsmitteln.

Mit freundlichen Grüßen
P. Dietze
07.01.2004

Original Message:

Sehr geehrter Herr Dietze,

als Unternehmensberater betreute ich derzeit eine ganze Reihe von Projekten u.a. auch Energieprojekte, z.B. Biogasherstellung durch Trockenfermentation – das Pilotprojekt eines unserer Klienten ist gerade äußerst erfolgreich angelaufen.

Sie schreiben: "Deutschland rettet das Weltklima und macht seine Wirtschaft kaputt!" 

Original-Artikel hier

Das BMU hat die Machtergreifung über unsere Industrie erreicht und wird in Zukunft unter Missbrauch des Parlaments bestimmen, wer wie viel Strom, Stahl oder Zement erzeugen darf, usw.

Um Näheres darüber zu erfahren, empfehlen Sie mir das Gesetz und die Begründung im Internet herunter zuladen.

Wenn ich mir die Liste Ihrer Adressaten anschaue, und davon ausgehe, dass Sie jedem dieser Adressaten zumuten, seine Arbeitszeit dazu zu verwenden das Zertifikathandelsgesetz mit Begründung zu studieren, dann wäre dies eine Verschleuderung der teuren Arbeitszeit hoch qualifizierter Fachleute.

Sie könnten mir und anderen Adressaten weiterhelfen, wenn Sie, der Sie offensichtlich Fachmann für Zertifikathandelsgesetze und Energiefragen sind, konkret begründen würden, warum dieses neue Gesetz unsere Wirtschaft kaputt macht und warum das Ganze einer Öko-Diktatur gleichzusetzen sei.

Darüber hinaus hätte ich gerne die Quellen, die zeigen, dass unsere Klimaschutzaktion bis 2020 mehr als 250 Mrd. EUR kosten würde und nur Verbesserungen von 3/1000 °C bringen würde.

Wenn Sie Begründungen und Quellenangaben in rasch lesbarer Form zur Verfügung stellen, könnten Sie sich um dieses Thema wirklich verdient machen.

Mit freundlichen Grüßen

P.S. Sind Ihnen die Forderungen der EU zum Thema "Regulierung der Energiewirtschaft" eigentlich bekannt?

APR-Unternehmensberatung
Dipl.-Ing. Diether Sieghart
85368 Moosburg


Anhang:

  • Ich bin bislang unbeleckt... Wäre es Ihnen möglich, die erkannte Gefahr der Ökodiktatur (schon seit einem Jahrzehnt mein Verdacht) anhand des Gesetzes in wenigen Stichworten näher zu erläutern ?

Lieber Herr Paul,

da Sie offenbar Probleme haben, den Gesetzestext zu interpretieren, gebe ich Ihnen ein Beispiel:
Sie haben ein Auto gekauft und es ist für unbeschränkten Betrieb zugelassen. Nun kommt aber ein Brief vom BMU, dass aus Klimaschutzgründen Ihre Kilometerleistung behördlich begrenzt und überprüft werden muss. Sie sollen für die die letzten Jahre und für die kommende Verpflichtungsperiode genau dokumentieren wann und warum Sie vie viel km gefahren sind und vie viel CO2 Sie dabei emittiert haben bzw. in den nächsten Jahren zu emittieren gedenken.

Von Brüssel wird die Gesamtemission (und km-Leistung) für deutsche Autofahrer restriktiv (und jedes Jahr etwas weniger) vorgegeben. Nun wird aus Ihrer Vergangenheit und dem angemeldeten Bedarf für die nächste Periode ihr zulässiger Anteil behördlich ermittelt und Ihnen als Bescheid zugestellt.

Falls Sie dann in der kommenden Verpflichtungsperiode mehr fahren, müssen Sie entweder eine hohe Strafe zahlen oder Erlaubnisscheine zukaufen (deren Preis Sie natürlich nicht vorher kennen). Ihre Fahrleistung muss von einem Gutachter zertifiziert werden. Falls Sie renitent gegen die Vorgaben und die Berichtspflicht verstoßen oder das Geld für die einzureichenden Erlaubnisscheine nicht aufbringen können, wird Ihr Auto behördlich stillgelegt.

Sollten Sie wider Erwarten weniger fahren als behördlich zugelassen oder Ihren großen Mercedes gegen einen Kleinwagen tauschen, dürfen Sie Erlaubnisscheine an der Börse verkaufen. In absehbarer Zeit wird wegen der Streitigkeiten um die Zuteilung von Erlaubnisscheinen diese sukzessive durch Versteigerung ersetzt.

So soll zunächst mit allen 2600 Großfeuerungsanlagen (ab 20 MW th) verfahren werden. Das ist nur der Anfang. Nun alles klar bezüglich Ökodiktatur? Und Schröder heuchelt uns noch etwas vor von Wirtschaftsaufschwung...

Gruß P. Dietze
03.01.2004

P.S.: In Neuseeland müssen die Farmer bereits Klimaschutzabgaben auf die Methanfürze ihrer Schaf- und Rinderherden zahlen...


Energieverlust durch Wärmeleitung
Ein Beitrag zur Kontroverse um den k-Wert

Peter Dietze

Anhand des statischen und dynamischen Übertragungsverhaltens eines elektrischen Wandmodells werden die umstrittenen Thesen untersucht "Gut gespeichert ist auch gut gedämmt" und "Der k-Wert ist wegen Einspeicherung solarer Wärme sowie großer Unstimmigkeiten für die Berechnung ungeeignet". Ergebnis: Die Speicherfähigkeit hat im Prinzip keinen Einfluß auf den mittleren Wärmeverlust. Sie verbessert die Dämmung nicht, geht jedoch multiplikativ – die Wandstärke sogar quadratisch – in die Dämpfung von Schwankungen der Temperatur ein und ist damit für ein angenehmes Raumklima von großer Bedeutung. Entscheidend für die Berechnung der Transmissionsverluste mittels k-Wert (heute oft U-Wert genannt) ist der korrekte Mittelwert der Temperaturdifferenz an den Wandoberflächen wobei eine temporäre solare Erwärmung zu berücksichtigen ist.

"Gegenwärtig [und seit Jahrzehnten] beherrscht das stationäre Denken und Rechnen der etablierten Bauphysik den Wärmeschutz. Der Verbrauch von möglichst viel Dämmstoff wird dabei einseitig bevorzugt. Die Speicherwirkung einer Außenwand wird rechnerisch und praktisch ignoriert. Für massiv gebaute Altbauten bringt diese auch theoretisch falsche Bauphysik schwere Nachteile und Gefahren" heißt es in einem Beitrag von Prof. C. Meier auf der Wärmeschutzseite. Grund: Bei massiven, speicherfähigen Baustoffen gibt es wegen der täglichen Änderungen der Außentemperatur – insbesondere bei Sonneneinstrahlung auf die Wand – keinen Beharrungszustand, wie er z.B. bei der Bestimmung der Wärmeleitfähigkeit l [W/mK] im Labor vorliegt und welcher für die stationäre Berechnung des Wärmeverlusts mittels k*DJ vorausgesetzt wird.

Folgerung: Bei Altbauten (und nicht nur bei diesen) sei die gängige k-Wert-Berechnung nach DIN 4108 nicht anwendbar, da die vorhandene Speicherfähigkeit der Wandkonstruktion im Rechenmodell nicht wirksam einbezogen wird. Die temporäre Solarstrahlung (im Winter kann eine Wand z.B. 150 W/m² Wärme aufnehmen) bewirkt durch Absorption im massiven Baustoff effektive k-Werte, die sogar niedriger als stationär gerechnete "Superdämmungen" sein können. Insofern kann u.U. eine außen angebrachte Wärmedämmung (bei einer Südwand) den Vorteil der solaren Energieaufnahme einer speicherfähigen Wand beseitigen und diese dadurch energetisch entwerten.

Wie die Realität hinsichtlich der obigen Argumentation aussieht, soll im folgenden analysiert werden. Bild 1 zeigt das Temperaturprofil einer Ziegelwand ohne Außendämmung in Südrichtung, die bis 13 Uhr ihre Temperatur durch Sonneneinstrahlung trotz winterlicher Außentemperatur um über 14°C erhöht hat (Quelle: W. Feist: Ist Wärmespeichern wichtiger als Wärmedämmen? Institut für Wohnen und Umwelt GmbH, Darmstadt, Mai 1987).

Bild 1: Temperaturprofil einer Ziegelwand nach solarer Erwärmung

Nach Ende der Sonneneinstrahlung verteilt und schwächt sich dieser eingespeicherte "Wärmeberg" langsam, führt aber vorübergehend zu einer nennenswerten Verringerung des wärmeableitenden Temperaturgradienten nahe der Innenwand. Hierdurch – so die allerdings nur in bezug auf den Momentanwert berechtigte Argumentation – wird die Berechnung des Wärmeverlusts mit k*DJ falsch.

Für das Einpendeln auf (quasi-)stationäre Verhältnisse benötigt nach Cammerer eine 38 cm Ziegelwand mindestens drei Tage. Zum Ausgleich aperiodischer Schwankungen sollte die Meßperiode jedoch 3-4 Wochen betragen. Soweit die statistischen Mittelwerte richtig bestimmt werden, erscheint es im Prinzip zulässig, für die Oberflächentemperaturen dann mit diesen (z.B. Monatswerten) zu operieren und damit die täglichen Temperaturschwankungen zu umgehen.

Der (stationäre) Wärmeverlust ergibt sich aus dem Produkt von k-Wert und DJ an den Wandoberflächen – die Dynamik und der Mittelwert werden noch anhand eines elektrischen RC-Modells behandelt. Zunächst muß also das DJ gemäß Bild1 grundsätzlich um die beidseitigen Temperaturabfälle in Wandnähe (zusammen etwa 5,5°C) korrigiert werden. Dieses DJ an den Wandoberflächen läßt sich auch leicht meßtechnisch erfassen und mitteln. Die Wandaußenfläche ist im Schnitt tatsächlich wärmer als die für die Berechnung i.a. angenommene Winterluft. Wir wollen im folgenden unter DJ stets den beidseitig auf die Wandoberfläche korrigierten Wert verstehen, da sonst – d.h. wenn für die Berechnung die Differenz der Lufttemperaturen genommen würde – der k-Wert der Wand um den summarischen k-Wert der beiden Wärmeübergänge kü zu k' = k*kü/(k+kü) korrigiert werden müßte. Alle Überlegungen erfolgen hier unter der Prämisse, dass es auch für die Wärmeleitung quasi ein Ohm'sches Gesetz gibt – daher konnte auch der Ansatz eines elektrischen Wandmodells für die Wärmeleitung gewählt werden.

Kommen wir nun zu diesem Wandmodell und dem angekündigten Beweis dass der Wärmeverlust trotz dynamischer Temperaturänderungen unabhängig vom Speichervermögen ist. Zuvor möchte ich erwähnen, dass ich kein Bauingenieur bin, sondern mich im Studium mit Elektronik und Regelungstechnik und daher auch intensiv mit der Berechnung des Verhaltens dynamischer Systeme befaßt habe. Auch ein Berechnungsverfahren (Algol-Programm) für Reaktionen komplexer linearer Systeme hoher Ordnung bei beliebigen (!) Eingangsgrößen hatte ich entwickelt. Diese können z.B. über eine Fourier-Analyse in Sinusschwingungen oder auch in eine Folge sehr kurzer Rechteck-Impulse verwandelt werden, deren Einfluß auf die Systemvariablen dann per Faltungsintegral über e-Funktionen berechnet werden.

In Bild 2 wird eine Wand mit drei Widerständen R1, R2 und R3 (Wärmewiderstand analog 1/l/Wandstärke bzw. 1/k-Wert) sowie zwei Kondensatoren C1 und C2 (Speichervermögen) modelliert. Die mittlere Wandtemperatur außen wird durch die konstante Spannung V1 (z.B. mit -5 V bzw. °C) vorgegeben, der veränderliche Anteil durch eine Wechselspannungsquelle Vw (niedrige Frequenz, im Bereich der Zeitkonstante der RC-Glieder), und die Innentemperatur durch eine konstante Spannung V3 (z.B. mit +20V bzw. °C).

Zu beweisen ist, dass ohne Vw (also im stationären Fall) der Strom I (Wärmeverlust) ebenso groß ist wie der Mittelwert von I-Iw (also bei periodischer Anregung mit Vw) und weiter, dass dieser Mittelwert unabhängig von der Größe der Speicherkondensatoren ist.

Im statischen Fall (Vw = 0) haben die Kondensatoren eine konstante Spannung und beteiligen sich nicht am Strom, also ist der Strom (Wärmeverlust) I = (V3-V1) / (R1+R2+R3).

Für den dynamischen Fall kann, da es sich um ein lineares System handelt, das Superpositionsverfahren angewendet werden. Dies besagt, dass Systemvariable (z.B. der Strom I) zusammenaddiert werden können aus dem dynamischen Fall (Anregung nur durch Vw; V1 und V3 sind Null bzw. kurzgeschlossen) und dem statischen Fall (Vw ist Null bzw. kurzgeschlossen und nur V1 und V3 sind vorhanden).

Bild 2: Elektrisches RC-Modell einer Wand

Der dynamische Fall wird wechselstrommäßig (komplex) gerechnet, wobei wir für j*2pf = p setzen. Die Phasenverschiebung des Wechselstroms Iw ergibt sich dann aus arctan(Imaginärteil/Realteil), der Effektivwert (d.h. Amplitude/Wurzel(2)) wird mit der Wurzel aus der Summe der Quadrate von Imaginär- und Realteil berechnet. Der Effektivwert der Wechselspannung U2 geht aus den Gleichungen in Bild 2 hervor, soweit die bekannten Größen sukzessive eingesetzt werden. Der Wechselstrom Iw ist durch U2/R3 bestimmt.

Interessant ist, dass die Schwankungen des Wärmestroms Iw, die von den Temperaturschwankungen Vw an der Außenseite der Wand hervorgerufen werden, mit dem Quadrat der Wandstärke gedämpft werden. Die Werte C (Wärmespeicherung) und R (Wärmewiderstand) stehen im Prinzip als Produkt im Nenner von Iw/Vw. Beide Größen R und C – sie sind proportional zur Wandstärke – ermöglichen also ein angenehmes Raumklima trotz erheblicher Schwankungen der Außentemperatur. Von großer Bedeutung ist eine ausreichende Speicherfähigkeit (zusammen mit der Dämmung) auch an heißen Sommertagen um den Anstieg der Innentemperatur zu verringern. In der Übergangszeit kann die Speicherung kurzfristige kalte Phasen überbrücken und damit die Inbetriebnahme der Heizung (!) verhindern. Im Winter kommt der Speicherung - soweit eine temperaturgeregelte Heizung vorhanden ist - weniger Bedeutung zu; hier ist es jedoch die Aufgabe der Dämmung, die Wärmeverluste zu verringern. Speicherung bewirkt keine Dämmung sondern nur eine Dämpfung. Als Beispiel kann man auch an ein Wasserbecken als Speicher in einem Fluß denken. Es ändert prinzipiell nicht die über Monate gemittelte abfließende Wassermenge, dämpft jedoch die Pegelschwankungen.

Nach Bild 2 haben wir den durch Vw (d.h. durch periodische Schwankungen der Oberflächentemperatur außen) hervorgerufenen Wechselstrom Iw vom stationären Strom I zu subtrahieren. Uns interessiert jedoch der Mittelwert. Dieser ist bei Iw wegen der Sinusschwingung grundsätzlich Null, so dass für I-Iw der statische Wert, also I = (V3-V1) / (R1+R2+R3) gilt. Was zu beweisen war: Der mittlere Wärmeverlust – er entspricht der Berechnung mit k-Wert bei mittlerem DJ – ist trotz periodischer Änderung der Außenwandtemperatur (gilt ebenso bei der Innenwandtemperatur) unabhängig von den Speichern C1, C2 und C3. Dies erscheint auch plausibel da Speicher weder Wärme verbrauchen noch erzeugen. 

Der Beweis dass Speicher keinen Einfluß auf die Dämmung haben wurde zunächst erbracht für eine sinusförmige periodische Anregung (etwa dem durchschnittlichen Tag/Nacht-Temperaturgang). Man wird nun einwenden, korrekterweise müsse zu Iw noch ein additiver Anteil Is (als Zeitfunktion) berechnet werden, wie er sich aufgrund von Abweichungen, insbesondere zusätzlicher über Tage verteilter "Solarimpulse" am Eingang Vw ergibt. Die genaue Berechnung kann mit entsprechenden Computerprogrammen erfolgen. Das Ergebnis läßt sich jedoch ohne weiteres angeben: Da es sich bei der Wand um ein Tiefpaßfilter (lineares Verzögerungssystem zweiter Ordnung) handelt, würde (bei genügender Wandstärke und Speicherfähigkeit) für Is wegen der Glättung der Solarimpulse gerade der positive Mittelwert (!) der Impulsfolge, dividiert durch R1+R2+R3 herauskommen.

Die Division durch den Gesamtwiderstand im Modell entspricht in der Realität einer Multiplikation mit dem k-Wert. Das heißt, dem durch DJ verursachten I (mittlerer Wärmeverlust nach der k-Wert-Methode) würde sich ein Is aus dem Mittelwert DJs der (gegenüber DJ) zusätzlichen solaren Temperaturimpulse an der Wandaußenseite überlagern:

Energiegewinn Is = k-Wert * DJs.

Man erkennt daraus, dass in der Tat der Energiegewinn – die Physik ist hier konsequent – ebenso wie der Energieverlust bei einem geringeren k-Wert weggedämmt wird. Trotzdem verbleibt durch bessere Wärmedämmung unter dem Strich ein Gewinn, soweit die Wand im Winter überwiegend einen Wärmeverlust aufweist der durch Heizung ausgeglichen werden muß, was in der Regel der Fall ist. Allerdings würden sich bei einer Wand die erheblich mit Sonneneinstrahlung beaufschlagt ist und sogar einen Nettogewinn an Wärme liefert, die Verhältnisse umkehren, d.h. eine zusätzliche Dämmung würde tatsächlich den Wärmegewinn verringern.

Prof. Meier schlug vor, den k-Wert um einen solar bedingten Bonus zu korrigieren, also in unserem Fall

DJ k - DJs * k = k' DJ und somit k' = k * (1 - DJs/DJ)

Das kann man so machen und damit zum Ausdruck bringen, dass umso weniger Dämmung erforderlich ist, je mehr Sonnenenergie die Wand durchschnittlich aufnimmt und je geringer so ihr mittlerer Wärmeverlust wird. Da aber der k-Wert eigentlich als material- und konstruktionsbedingte Konstante nicht vom Sonnenschein abhängt, erscheint es eher sinnvoll, das DJ für eine solar beaufschlagte Wand zu korrigieren und den Wärmeverlust wie folgt zu berechnen:

Wärmeverlust = k * (DJ - DJs)

Für die korrekte Berechnung des Transmissionsverlusts (d.h. des Anteils, der durch Wärmeleitung der Gebäudewände bedingt ist) sollte also die Temperaturdifferenz nicht (wie bisher praktiziert) aus den Lufttemperaturen, sondern aus den Mittelwerten an den Wandoberflächen gebildet werden. Hierbei müssen gegebenenfalls auch solar bedingte temporäre Temperaturanhebungen als Mittelwert für den betrachteten Zeitraum eingehen.

Hiermit kann sogar die zusätzliche Strahlungsabsorption (und damit Aufheizung) einer dunklen Wand berücksichtigt werden, die z.B. nach Messungen des Fraunhofer-Instituts für Bauphysik in Holzkirchen (1985, Dr.-Ing. H. Werner) gegenüber einer Wand mit hellem Anstrich während der winterlichen Sonneneinstrahlung die Absorption z.B. um 50 W/m² auf etwa 140 W/m² erhöht. Bei einer absorbierten (Dauer-)Einstrahlung von durchschnittlich 100 W/m² verringerte sich der über die Meßperiode von 28 Tagen gemittelte Transmissionsverlust der Wand um ca. 30%. 

Eine zusätzliche solare Erwärmung der Außenwand kann natürlich auch als eine entsprechende Verringerung des k-Werts (Bonus) interpretiert werden, beruht aber eigentlich auf der solar bedingten Anhebung der mittleren Temperatur der Wandaußenfläche. Wie hoch diese Anhebung tatsächlich ist, hängt außer von der Wandfarbe auch von der Oberfläche, der Wärmeleitfähigkeit und dem Speichervermögen des Materials ab. Angenommen, es handelt sich um Styropor, so würde dieser zwar stark erwärmt wobei ein Teil der Energie durch verstärkte Konvektion und Abstrahlung verloren geht. Ein gut speicherfähiges Material hätte weniger Wärmeverlust da es sich außen weniger, aber dafür innen umso länger erwärmt. Für die Benutzung in Berechnungen müßten die Mittelwerte der Temperaturanhebung an der Wandoberfläche exemplarisch durch Messung festgestellt werden.

Falls nicht auf Temperaturmessungen der Wandoberfläche, d.h. Mittelwertbildung mit Berücksichtigung zeitweiliger solarer Erwärmung, zurückgegriffen werden kann, existiert auch eine modellmäßige Lösung für den Solarbonus soweit der solar in die Wandoberfläche eingespeiste Wärmefluß ermittelt werden kann (Bild 3).

Bild 3: Wandmodell mit Solareinspeisung

Der Transmissionsverlust ohne Sonne beträgt (V3-V1)/(R1+R2+R3+R4), also Temperaturdifferenz dividiert durch Summe der Wärmewiderstände. Wird zusätzlich ein solarer Wärmefluß in die Wandoberfläche eingespeist, so bewirkt dieser eine Verringerung der Transmission um

Is" = Is * R1/(R1+R2+R3+R4)

Mit R1=1/20 für den Luftübergang und bei einem summarischen k-Wert von 0,5 bzw. einer R-Summe von 1/0,5 wäre Is" der 40te Teil von Is. Bei einer mittleren Sonnenscheindauer von z.B. 6%, d.h. täglich 86 min mit einer Einstrahlung von z.B. 100 W/m² würde sich die Transmission also im Mittel um 6/40 = 0,15 W/m² verringern. Für ein mittleres DJ von 20 °C würde der Solarbonus bei einem Verlust von 10 W/m² lediglich eine Minderung um 1,5% bedeuten. Dieser geringe Betrag ist wesentlich durch den hohen k-Wert der äußeren Luftschicht gegenüber demjenigen der Wand bedingt. Man könnte den Bonus erheblich verbessern wenn man z.B. außen eine lichtdurchlässige Beschichtung aufbringt. Angenommen, diese hätte einen k-Wert von 5, so wäre Is" immerhin der 11te Teil von Is und es würde sich im Mittel ein Solarbonus von 0,55 W/m² oder 5,5%  ergeben. Die Beschichtung selbst würde über den k-Wert zusätzlich eine Minderung um 10% bringen.

Eine wesentlich effizientere Nutzung der Solarenergie kann durch Isolierglasfenster erreicht werden. Z.B. würde bei einem k-Wert von 0,5 und einer Einstrahlung von 150 W/m² eine mittlere Sonnenscheindauer von 7% (täglich 100 min) ausreichen um den gesamten Transmissionsverlust zu decken – ein gut speichernder Innenraum vorausgesetzt.

Die Wirkung der Dämmung auf den Transmissionsverlust sowie auf die Temperaturgradienten in verschiedenen Wandkonstruktionen werden anhand von drei Beispielen für unterschiedliche Summen-k-Werte ks in Bild 4 gezeigt. Für eine Temperatur der Außenluft von 0 °C und von 20 °C an der Innenwandoberfläche wird jeweils der Temperaturabfall angegeben für W (Wand), D (Dämmung) und L (Luft außen). Es wird deutlich, dass die erste Dämmschicht – selbst bei doppeltem k-Wert der Wand – eine Verbesserung um 6,5 W/m² bringt. Eine Verdoppelung der Dämmschicht bringt dann lediglich noch 1,2 W/m² und ist in der Regel unwirtschaftlich.

Bild 4: Transmission (stationär) und Temperaturabfall

Da Styropordämmungen kaum sorptionsfähig sind, ergeben sich oft gravierende Feuchteprobleme. Bei starker Dämmung wird die kalte Wand im Außenbereich naß und kann nicht wie bei Ziegeln die Feuchte abdampfen. Damit ist meist nicht nur der anfänglich gute k-Wert dahin, sondern es bildet sich auch Schimmel. Nötig wäre also ein sorptionsfähiger Dämmstoff. Weiter sollte eine zu hohe Dämmung vermieden werden da zur Abdampfung der Feuchte die Außenwand im Winter eine gewisse Wärme benötigt. Bei Altbauten war das Problem optimal gelöst. Die (Vollziegel-)Wände waren durchgehend sorptionsfähig, hatten keinen zu geringen k-Wert und waren meist dunkel. Sie wurden also außen nicht zu kalt und zeitweise auch gut von der Sonne erwärmt. So konnte die Feuchte abdampfen, es gab keinen Schimmel und der k-Wert blieb ebenfalls erhalten.

Die Energiesparpropaganda hat in letzter Zeit oft zu Dämm-Maßnahmen geführt, die sich nicht nur hinsichtlich der Feuchte als problematisch erwiesen – in der Regel wurden auch keineswegs die gemäß k-Wert erwarteten Energieeinsparungen errreicht, so dass sich die Aktionen als unwirtschaftlich erwiesen. Zweifellos liefert die Berechnung des Transmissionsverlusts einer Wand mittels k-Wert (zumindest theoretisch) korrekte Ergebnisse – auch als Mittelwert bei dynamischen Temperaturänderungen. Doch bei Vergleich des für ein Gebäude gemessenen und mit k-Wert-Summen berechneten Wärmeverlusts können Abweichungen bis zu einigen hundert Prozent auftreten, so dass schon die (physikalisch unrichtige) Meinung geäußert wurde, der k-Wert weise keinen mathematischen Zusammenhang mit dem Energieverbrauch auf und sei für die Bemessung energiewirksamer Baumaßnahmen ungeeignet (siehe Leserbriefseite). Auch auf die Tatsache, dass beispielsweise die Verringerung des k-Wertes der Außenwände um 70% nicht wie erhofft zu einer ebenso großen Heizwärmeeinsparung führt, sondern vielleicht nur zu 19% und damit die Wirtschaftlichkeit zusätzlicher Dämmung infrage stellt, wird in einem Architektenkammer-Einspruch gegen den Referentenentwurf der EnEV hingewiesen. Bild 5 zeigt an einem Beispiel mögliche Ursachen für ein solches Ergebnis anhand einer vereinfachten Schaltung relativer Wärmeleitwerte (k-Wert * Fläche in m², in Prozent des gesamten Gebäudewerts vor der zusätzlichen Dämmung).

Bild 5: Beispiel für eine Verringerung des Gesamtwärmeverlusts um
lediglich 22,4% trotz Verbesserung der Wanddämmung um 70%

In diesem Gebäude wurden ursprünglich 63% des Wärmeverlusts nicht durch Wand-Transmission verursacht. Bei einer Verringerung des k-Werts der Außenwände um 70% durch zusätzliche Dämmung ergibt sich hier – soweit keine anderen Maßnahmen realisiert werden – lediglich eine Energieeinsparung von 22,4%. Bei Dämmvorhaben sollte also neben dem Feuchteproblem der Aufwand gegen eine realistische Abschätzung der gesamten Energieeinsparung überprüft werden.

Erstellt am 20. Dezember 1999
Ergänzt am 9. März 2003 (Bild 3, 4)
Dipl.-Ing. Peter Dietze, Langensendelbach
Email p_dietze@t-online.de


Energieverlust durch Wärmeleitung - die Diskussion

Liebe Mitleser,

da ich mitschuldig bin, dass eine Diskussion losgetreten wurde - was ich jedoch nicht bereue -, möchte ich meinen Senf dazu geben. Vielleicht ist es ja wie bei des Kaisers neuen Kleidern, wenn ein "Laie" zur Diskussion beiträgt.

Wie bekannt ist, habe ich zur allgemeinen Information insbesondere zum Thema Wärmeschutz mehrere Theorien, Methoden, Postulate, Meinungen und Messwerte ins Netz gestellt. Warum? Ich glaube solange nicht an die U-Wert-Rechnerei und die Sinnhaftigkeit der ausgeuferten EnEV-Berechnungen, bis man plausibel darlegt, wie die teilweise riesigen Unterschiede zwischen Theorie und Praxis zu erklären sind.

Erst kürzlich durfte ich in meinem Forum wieder Prügel beziehen, als es um solare Gewinne ging. Wenn Sie so freundlich sind, hier nachzulesen, kann ich mir einige Wiederholungen sparen.
http://forum.webmart.de/wmmsg.cfm?id=285013&sr=1&a=1&d=30&t=1213741

Wie wird der Rechenwert zur Wärmeleitfähigkeit bestimmt? Im Labor: mit definierter Quelle, definierten Abmessungen und Zeiten. Quasi bilderbuchmässig stationär. Noch dazu interessieren nicht alle Stoffeigenschaften. Dies wird in die Praxis übertragen und man bildet letztendlich Mittelwerte, um den rechnerischen Beweis zu liefern. Ich lass mich gern korrigieren, jedoch vermisse ich - in einer komplex anzustellenden Betrachtung - einige Kenngrössen:
- Wärmeeindringzahl
- Auskühlzeit
- Temperaturträgheit, TAV, Phasenverschiebung
- Sorptionsvorgänge u. Feuchteeinflüsse

Das sind wiederum Kenngrössen, welche mit dem Speichervermögen zusammenhängen. Es mag sein, dass man sie mittels langfristiger Mittelwertbetrachtung eliminieren kann - aber warum soll das richtig sein? Hier habe ich mir mal Gedanken zu den Arten des Wärmetransports gemacht:
http://www.dimagb.de/info/bauphys/mbbph1.html#3arten

Ich bin der festen Überzeugung, dass der U-Wert, da er theoretisch nur mit Leitungsvorgängen zu tun hat, die Vorgänge ungenügend beschreibt. Daher ist das Modell von Hr. Dietze in sich richtig und schlüssig: Input ergibt anhand definierter Rechenwege einen nachvollziehbaren Output. Daraus abzuleiten, dass man nun noch Kenngrösen eliminiert und die Berechnung immer noch stimmt, halte ich für zu kühn.

Ohne ins Esoterische abgleiten zu wollen: es muss etwas mehr geben als den U-Wert. Ob stark abweichende Messergebnisse ausreichen mögen, dies zu untermauern, mag ich nur vermuten. Alles auf einen Fake zurückzuführen, halte ich für vermessen. Das Kernproblem ist, dass es viel zu wenige Messwerte gibt. Ich behaupte auch, dass in der Neuzeit solche Werte unter Verschluss bleiben. Dabei geht es nicht um U-Wert hin-oder-her, sondern um die Wirtschaftlichkeit. Hat man in Berlin riesige Wohnungsbestände energetisch verbessert, lag der Löwenanteil bei der Haustechnik, die WäDä brachte nur Marginalien - das aber bei relativ hohem Kostenaufwand.

Übrigens ist das Phänomen, dass nach Anbringen eines WDVS die Heizkostenrechnung höher ausfiel, keine "Erfindung". Das Problem auch hier: keine verlässlichen Daten, sondern nur Aussagen von Bewohnern. Bei Hr. Schwan fällt mir noch ein: wenn seine Alufolien-Theorie so abwegig sein sollte - wieso wird er dann praktisch nicht mit Haftungsforderungen kaputt gespielt? Wohl, weil es keine gibt.

Man muss auch nicht im Prof.-Meier-Fanclub sein, um festzustellen, dass er viele kluge Sätze aus den 70ern bis Anfang der 90er zitiert, welche sich mit den Vorteilen speicherfähiger Bauteile befassen und die aus dem offiziellen Sprachgebrauch verschwunden sind. Ist das Haus - 4 Wände und ein Dach drauf - nach 20-30 Jahren denn so sehr anders geworden?

Ich würde mich freuen, wenn man zu einem Konsens finden würde. Ich hab die Wahrheit nicht gepachtet, ich suche sie noch. Dazu habe ich gute Mitstreiter und die Diskussion ist eine andere als im Forum.

Mit den besten Grüssen aus Berlin
M. Bumann
E-Mail vom 18.03.2003

~~~~~~~~~~~~~~~~

Zum U-Wert ist nur eines zu sagen: Er ist unrealistisch.
Wer an den U-Wert glaubt, der belügt sich selbst.
Hier verweise ich auf:
Der ominöse U-Wert - Gilt er oder gilt er nicht?
Bauen im Bestand (B+B) 2003, H. 2, S. 46 (März 2003).
Man sollte endlich erkennen, was "Beharrungszustand" bedeutet und nur hierfür gilt der U-Wert!
Prof. Claus Meier
E-Mail vom 23.03.2003

~~~~~~~~~~~~~~~~

Meine Meinung zur Praxisuntauglichkeit des U-Wertes habe ich hier dargelegt:

... Wenn man mit der U-Wert-Theorie die Energieverwaltung des Gebäudes, insbesondere der Aussenwände, nicht richtig berechnen kann - warum tut man es dennoch? Sind 40% Abweichung nicht reine bauphysikalische Kabbalistik? Wieviele Schimmelkranke brauchen wir denn noch in Deutschland? Sind zigtausende m² mit patentiertem Verfahren sanierte WDVS nicht Beleg genug für Untauglichkeit?

~~~~~~~~~~~~~~~~

Zum besseren Verständnis noch einmal gemessene Werte:
BossertMessWerner19851.gif (51323 bytes)

Details zu den Messungen an einer Ziegelwand, die 1985 von Dr. Werner und Prof. Gertis
(Fraunhofer-Institut für Bauphysik, Holzkirchen) ausgeführt und in EB-8/1985 vom 20.12.85
- insbesondere Bild 8 - dokumentiert wurden.

Ausserdem liefern uns diese gemessenen Werte Aufschlüsse:

Abb. 11: Diskrepanz Rechnung - Verbrauch bei unterschiedlichem Gebäudealter
Es wurden für die Stadt Wedel neben den errechneten Energiebedarfswerten auch die Energie- Verbrauchsdaten der Stadtwerke statistisch ausgewertet. Abgesehen von den zum Teil großen Streuungen einzelner Daten wurden bedeutsame Trends in Form von Regressionsgeraden festgestellt, die besondere Aufmerksamkeit verdienen ...

zk.gif (890 bytes) Weitere Messergebnisse, die die Untauglichkeit der U-Wert-Theorie belegen.

Die gesamte Problematik wird hier recht anschaulich und komplex betrachtet dargelegt:

Um die Diskussion um´s heilige U-Wertle abzuschließen, verweise ich auf diesen Beitrag:

Die 8 energierelevanten Faktoren der Aussenwand
(von Paul Bossert; nicht von mir und trotzdem gut)

nach oben

Die Seiten:

:: A.v. Alvensleben: Kohlendioxid und Klima

:: Alfons Baier, Aspekte zur "Klimakatastrophe"
:: Umweltphysik: Fakten von E.G. Beck
:: Prof. Dr. Gerhard Gerlich Aufsätze
:: Kommentar zum Artikel „Der große Schwindel“
:: IWOE, Klimakatastrophen-Märchen und Landschaftsgestaltung
:: Klima + Politik = Nepp + Abzocke, Klima-Betrug
:: Klima Zahlen und Fakten, 2007 + 2008
:: Aufsätze von Prof. Horst Malberg
:: Die Klimakatastrophe im Wandel der Zeit
:: Neues vom Öko-Narrenhaus
:: Dr. Thüne: Ökodiktatur, Treibhauseffekt
:: Irrtümer in der Klimatologie, CO2, Treibhauseffekt
:: Windkraftanlagen - sündhaft teuer und nutzlos