Startseite

Amateurfunk

Funkwetterbericht

Rund ums Wetter 1

Rund ums Wetter 2

39 Jahre Funkwetter

Unser Klima

Wetterliteratur

Wetter und UKW

Mein Gästebuch

Impressum

Hintergrundwissen zur Winterdiskussion in Europa
 
Die Nordatlantische Oszillation (NAO)
 
Unser Klima über dem Nordatlantik und hier in Europa wird sehr stark durch die Nordatlantische Oszillation bestimmt. Es handelt sich dabei um eine interne Klimaschwankung, die schon seit vielen Jahrzehnten bekannt ist. Sie wurde bereits in den 20-er Jahren des vorigen Jahrhunderts beschrieben. Es handelt sich dabei um eine "Luftdruckschaufel" zwischen dem Islandtief und dem Azorenhoch. Dadurch wird die Stärke der Westwinde in jener Region bestimmt.
 
Ein einfach zu messender Index ist die Druckdifferenz zwischen Lissabon und Island. Ein hoher NAO- Index steht für ein anomal starkes Islandtief und ein anomal starkes Azorenhoch. Ein niedriger Index ist durch ein anomal schwaches Islandtief und ein anomal schwaches Azorenhoch charakterisiert. Seit 1860, dem Beginn der Luftdruckmessungen an beiden Stationen, kann man ausgeprägte Schwankungen im Abstand von durchschnittlich zehn Jahren feststellen. So wurden  Anfang des 20. Jahrhunderts relativ hohe Werte gemessen, aber in den 60-er Jahren erreichte der Index ein Minimum und stieg dann wieder relativ stark an. Dieser Anstieg trug beträchtlich zur Erwärmung der Nordhemisphäre im Winter in den letzten Jahrzehnten, insbesondere über Eurasien, bei. Auch die milden Winter in Deutschland in den letzten Jahrzehnten sind auf die anomale Stärke der NAO zurückzuführen. Bis heute weiß man jedoch nicht, ob diese Intensivierung auch durch menschliche Einflüsse teilweise bewirkt wird oder bewirkt worden ist. Jene Druckschwingungen waren in den vergangenen 30 Jahren sogar von Jahr zu Jahr recht variabel.
 
Die Veränderungen der NAO haben natürlich Auswirkungen für das Klima über dem Nordatlantik und Europa. So werden vor allem die bodennahe Temperatur und der Niederschlag über Europa stark durch die NAO geprägt. Die Sturmhäufigkeit über dem Atlantik ist ebenfalls eng mit der NAO korreliert. Hohe Werte gehen üblicherweise mit milden Temperaturen, erhöhten Niederschlägen und mehr Stürmen über Deutschland einher. Unser diesjähriger lang anhaltender extremer Frühwinter in Deutschland und Europa hat seinen Ursprung in einem aktuell relativ niedrigen Wert der Nordatlantischen Oszillation. Man sollte dies bei allen Diskussionen über den globalen Klimawandel nicht vergessen.
 
Im Laufe dieser Woche stellte sich die europäische Großwetterlage um: In den vergangenen Wochen war die so genannte Nordatlantische Oszillation (NAO) negativ. Diese war also praktisch nicht vorhanden. Wetterbestimmend war die Konstellation Hoch Island/Skandinavien - Tief Azoren/Mittelmeer bei uns und mit nordöstlicher Strömung strömte immer wieder sehr kalte Polarluft nach Deutschland. Nun scheint sich wieder ein wintertypisches Strömungsmuster einzustellen. Atlantische Tiefausläufer griffen bereits ab Mittwochabend zunächst auf den äußersten Westen und Nordwesten unseres Landes über und erfassten zum Donnerstag von Westen her ganz Deutschland. Damit war eine deutliche Milderung verbunden.
 
 
Das "Wunder von Cancún"
 
Neue Chancen durch Kompromisse in letzter Sekunde
 
Die Staaten der Welt haben gestern am Samstag ein schweres Trauma überwunden. Genau vor einem Jahr waren 120 Staats- und Regierungschefs in Kopenhagen mit einem globalen Plan gegen die Erderwärmung gescheitert: Der Streit darüber, wer in den kommenden Jahrzehnten weniger Kohle, Öl und Erdgas verbrennt, wer seine Wälder besser schützt und wer seine Rinderherden verkleinert, endete im Crash der Klimaverhandlungen.
 
Viele Beobachter folgerten, die Menschheit sei eben nicht fähig, kollektiv zusammen-zuarbeiten. Sie erklärten den Multilateralismus, also das Zusammenwirken vieler Staaten, zum todkranken Patienten. Doch beim Endspurt des Klimagipfels von Cancún herrschte nun ein neuer und frischer Geist der Zusammenarbeit - ganz an-ders als damals in Kopenhagen.
 
Der Multilateralismus ist aus dem Koma erwacht. Nachdem Ende Oktober schon der Uno-Naturschutzgipfel mit einem Erfolg endete, ist es nun das zweite Lebenszei-chen.
 
Offenbar saß das Trauma von Kopenhagen auch bei den neuen Großmächten China, Brasilien und Indien so tief, dass diese kein Interesse an einer neuen, destruktiven Machtdemonstration hatten. Die US-Regierung war nach den Enthüllungen durch Wikileaks bemüht, sich auf der Weltbühne nicht noch unbeliebter zu machen. Und auch die klassischen Entwicklungsländer setzten auf Kooperation statt auf Sabotage. Obwohl die UNO-Gipfel unter ihrem Gigantismus leiden, fanden die Unterhändler mit Ausnahme von Bolivien zur eigenen Überraschung einen gemeinsamen Kurs.
 
Damit wird das Trauma von Kopenhagen wohl erfolgreich therapiert. Doch reicht das auch, um einen gefährlichen Klimawandel abzuwenden? Achim Steiner, der Chef des Uno-Umweltprogramms Unep, hat in Cancún vorgerechnet, dass der Aus-stoß von Treibhausgasen sehr schnell seinen Höhepunkt erreichen und dann sinken muss, um den schlimmsten Risiken der Erderwärmung zu entgehen.
 
Selbst wenn die Staaten die Reduktionen vornehmen, die sie nun bekräftigt haben, werden in den kommenden Jahren aber jährlich fünf bis zehn Milliarden Tonnen Kohlendioxid pro Jahr zu viel in der Atmosphäre landen, warnte Steiner. Mehr also, als die Natur in Ozeanen, Böden und Pflanzen wieder aufnehmen kann. Das Gas bleibt in der Luft und speichert zusätzlich Sonnenenergie, die von der Erde abstrahlt. 2,5 bis 5 Grad Celsius Erderwärmung drohen.
 
Eine Einigung in Cancún wurde eben auch möglich, weil weder für die USA noch für China noch irgendeinen anderen Staat konkret beziffert wurde, welche neuen CO2-Reduktionen bis wann verbindlich zu erbringen sind. Immerhin wurde das kol-lektive Ziel ausgelobt, dass die Industrieländer, die das Kyoto- Protokoll unterzeich-net haben, ihre Emissionen bis 2020 um 25 bis 40 Prozent reduzieren. Und auch die USA haben sich nun im Rahmen der Vereinten Nationen zu dem Ziel verpflichtet, die Erderwärmung unter zwei Grad gegenüber vorindustriellen Zeiten zu halten.
 
Angesichts der existentiellen Risiken, die mit dem Klimawandel einhergehen, sind die konkreten Zusagen dafür aber noch viel zu unklar und unverbindlich - von ihrer Umsetzung ganz zu schweigen. Es bleibt eine schwierige, aber alternativlose Aufga-be, auf der nächsten Klimakonferenz im südafrikanischen Durban jenen Masterplan anzustreben, der damals in Kopenhagen gesucht wurde.
 
Dieses Ziel aufzugeben, hieße zu riskieren, dass die Trendwende in den kommenden zehn bis zwanzig Jahren nicht gelingt. Im Jahr 2014 werden die Wissenschaftler des Weltklimarats IPCC neu beziffern, wie stark die Emissionen sinken müssen, um die Erwärmung unter zwei Grad Celsius zu begrenzen. Spätestens dann wird sichtbar, auf was für einem gefährlichen Kurs die Menschheit auch nach Cancún ist.
 
 
Ein zweiter Bereich, in dem es nennenswerte Fortschritte gab, ist die Geldfrage. Der Übergang von einer Infrastruktur, die verschwenderisch mit fossilen Brennstoffen umgeht, zu einer, die effizient von erneuerbaren Energien gespeist wird, kostet Geld. Bis 2012 sollen Entwicklungsländer insgesamt 30 Milliarden Dollar dafür bekom-men, ihre Wirtschaft mit modernen Technologien auszustatten - und so die Fehler des Westens nicht zu wiederholen. Bis 2020 sollen sogar 100 Milliarden Dollar jähr-lich mobilisiert werden.
 
Das sind stolze Summen, bei denen sich mancher Amerikaner oder Europäer fragen wird, ob sie auch gerechtfertigt sind. Hier kommt auf die Regierungen des Westens eine große Aufgabe zu, ihren Bürgern zu erklären, dass Nicht-Handeln noch viel teu-rer käme - in Form steigender Ölpreise, humanitärer Probleme und wirtschaftlicher Schäden durch den Klimawandel.
 
Erfreulich ist auch, dass der Cancún- Gipfel einen Rahmen geschaffen hat, wie Men-schen in waldreichen Gebieten dafür entlohnt werden, wenn sie den Naturreichtum erhalten statt ihn zu zerstören. "REDD" lautet das Uno-Kürzel für diese neue Form des Waldschutzes. Das Prinzip ist überzeugend: Wer die Waldzerstörung nachweis-bar gegenüber heute vermindert, bekommt für den erhaltenen Wald eine finanzielle Belohnung. Die Welt fängt damit endlich an, für ökologische Dienstleistungen zu bezahlen statt auf kostenlosen Raubbau zu setzen.
 
Wäre nach Kopenhagen auch Cancún gescheitert, wären die internationalen Klima-schutz-Verhandlungen womöglich wirklich am Ende gewesen. Die UNO und ihre Mitglieder haben diese letzte Chance zum Glück genutzt. Das ist aber kein Grund, sich nun beruhigt zurückzulehnen. Im Gegenteil geht jetzt vor allem jener "zweite Gipfel" los, von dem Unep -Chef Achim Steiner in Cancún gesprochen hat - der per-manente Gipfel der Bürger, Firmen, Stadträte und Regierungen. Sie müssen dafür sorgen, dass die Beschlüsse nicht nur umgesetzt, sondern am besten übertroffen werden.
 
Von Cancún führt eine Spur in den Alltag jedes einzelnen. Die Menschen vor allem in den westlichen Ländern haben die Macht, weniger Auto und mehr mit öffentli-chen Verkehrsmitteln zu fahren, ihren Fleischkonsum zugunsten hochwertiger pflanzlicher Lebensmittel einzuschränken, in erneuerbare Energien zu investieren statt ihre Wohnungen mit fossilen Brennstoffen auf T-Shirt-Temperatur zu heizen. Zudem können sie Politiker dabei unterstützen, Steuergelder in Energieforschung statt in kurzfristigen Konsum zu investieren, in grüne Infrastruktur statt in weiteren Raubbau.
 
So ließe sich demonstrieren, dass westlicher Wohlstand nicht heißen muss, den Pla-neten zugrunde zu richten. Neue, smartere Formen von Wohlstand sind möglich.
Der globale Klimagipfel wird mit dem Happy- End in Cancún also erst beginnen.
 
Der Uno-Klimaschutz war schon abgeschrieben, nun gibt es neue Chancen. Doch die Kompromisse von Cancún können nur ein Anfang sein. Es geht darum, den westlichen Lebensstil neu zu erfinden.
 
Der Klimawandel
 
Die populärsten Argumente der Skeptiker
 
Das Klima hat sich schon immer geändert
 
Stimmt, aber frühere Klimaänderungen beruhten auf natürlichen Ursachen, etwa Verschiebungen der Erdachse, und sie gingen viel langsamer vonstatten als heute. Den Temperaturanstieg der  letzten Jahrzehnte können Wissenschaftler nur durch menschliche Einflüsse erklären: So führte etwa die massenhafte Verbrennung fossiler Rohstoffe zur Freisetzung großer Mengen CO2, die in der Atmosphäre den natürlich Treibhauseffekt verstärken.
 
Die Sonne ist schuld am Klimawandel
 
Falsch. Zwar schlagen sich Veränderungen der Sonnenaktivität tatsächlich im Erdklima nieder. Nach Ansicht von Forschern ist aber nur ein Zehntel der heutigen Erderwärmung auf die Sonne zurückzuführen. Anderslautende Behauptungen halten einer Prüfung nicht Stand. Mindestens während der vergangenen 50 Jahre wurde dieser natürliche Faktor durch menschliche Einflüsse überlagert.
 
Selbst eine Verdoppelung von CO2 in der Atmosphäre hätte nur eine Erwärmung um etwa ein Grad C zur Folge
 
Eine geschickte Untertreibung. Die direkte Wirkung von zusätzlichem Kohlendioxid in der Atmosphäre ist zwar in der Tat begrenzt. Doch sein Anstieg löst zahlreiche indirekte Wirkungen, sog. "Feedbacks" aus. So steigt durch CO2 der Gehalt von Wasserdampf in der Atmosphäre, was starke, weitere Erwärmung bedeutet. Es wird auch mehr Wolken geben. Deren Wirkungen aufs Klima sind komplex. Wolken haben sowohl kühlende als auch wärmende Effekte, und Skeptiker betonen die Kühlwirkung. Doch die starken Klimaschwankungen der Erdgeschichte deuten darauf hin, dass die Feedback- Effekte insgesamt stark sind - und die Klimaskeptiker falsch liegen.
 
Hohe CO2- Konzentrationen in der Atmosphäre traten früher nach einer Erwärmung auf. Kohlendioxid ist also Folge, nicht Ursache von Klimaerwärmung
 
Dieses Argument beruht auf einer Vermischung urzeitlicher und moderner Phänomene. In Zyklen von Zehntausenden von Jahren erwärmte sich die Erde infolge orbitaler Veränderungen. Die so erwärmten Ozeane setzten mit einigen hundert Jahren Verzögerung große Mengen CO2 frei - was den Klimawandel dann weiter beschleunigte. Die gegenwärtige Situation ist grundlegend anders. Die zusätzlichen Treibhausgase in der Atmosphäre sind nachweislich vom Menschen verursacht und nicht Resultat einer vorherigen Erwärmung.
 
Es gibt keinen wissenschaftlichen Konsens zum Klimawandel
 
Falsch. Natürlich gibt es auch beim Thema Erderwärmung Akademiker mit abweichenden Meinungen. Die Klimaskeptiker kommen meist nicht aus der Klimaforschung, sondern aus fachfremden Gebieten. Im Jahr 2009 ergab eine Umfrage der University of Illinois unter mehr als 3000 Geowissenschaftlern, dass rund 90 % von ihnen sicher sind, dass der Mensch das Klima aufheizt. Besonders groß war übrigens die Zustimmung unter Klimatologen. Bei Geologen aus der Erdölbranche betrugen sie nur 47 %. Allgemein gilt: Je informierter ein Forscher, desto besorgter ist er in der Regel über den Klimawandel.
 
Seit 1998 erwärmt sich die Erde nicht mehr, der Klimawandel hat gestoppt
 
Ein Trugschluss. Temperaturschwankungen zwischen einzelnen Jahren sind nur natürlich. Doch das Klima ist, salopp gesagt, der 30- jährige Durchschnitt des Wetters - und die Durchschnittswerte zeigen weiter nach oben. Das vergangene Jahrzehnt wirkt nur deshalb relativ kühl, weil 1998 das El- Nino - Phänomen  die langfristige Erwärmung noch verstärkte und dies ein außergewöhnlich heißes Jahr war. Die folgenden fielen dahinter etwas zurück, aber insgesamt betrachtet war die vergangene Dekade erneut wärmer als das vorherige Jahrzehnt - und die war die wärmste jemals registrierte.
 
Zum Schluss möchte ich noch einmal darauf hinweisen, dass kalte Winter nicht im Widerspruch zum Klimawandel stehen. Forscher des Potsdamer Instituts für Klimafolgenforschung haben erst vor kurzem gezeigt, wie die Erderwärmung in Europa kalte Winter zur Folge haben kann: In der östlichen Arktis schrumpft das Eis auf dem Meer. Dadurch aber werden regional die unteren Luftschichten wärmer. Das wiederum kann zu starken Störungen von Luftströmungen führen. Und diese Störungen können die Wahrscheinlichkeit des Auftretens extrem kalter Winter in Europa und Nordasien verdreifachen.
 
Auch wenn wir zurzeit diesen kalten frühen Wintereinbruch haben, belegen die Daten, dass dieses Jahr 2010 aus globaler Sicht zu den drei wärmsten Jahren seit Beginn der Wetteraufzeichnungen 1850 werden wird, vielleicht sogar das vorläufig heißeste Jahr. Dies hat die WMO (Welt - Meteorologieorganisation) gerade mitgeteilt.
 
 
 
Computer- Wettermodelle (1)
 
In den jüngsten drei Funkwetterberichten hatte ich über die verschiedenen Möglichkeiten der Wetterbeobachtung gesprochen, ohne die man zur Erstellung einer seriösen Wetterprognose nicht auskommt. Einmal ging es um die Wetterbeobachtungen unten am Erdboden in speziell dafür eingerichteten Wetterhütten, die ihre Messergebnisse heutzutage immer mehr automatisch weiterleiten, zum anderen um die Messungen von Wettergrößen im vertikalen Bereich, sowohl von unten nach oben wie  von oben nach unten. Diese gewinnt man durch den Aufstieg von Wetterballonen sowie durch den Überblick der Wettersatelliten von oben. Zur Erstellung einer Wettervorhersage haben wir somit zur Verfügung: Satellitenbilder, Radarbilder, Wetterkarten mit aktuellen Messwerten am Boden, Wetterkarten mit aktuellen Messwerten aus der höheren Atmosphäre und Informationen über Blitzschläge in den Vorhersageregionen.
 
Das wichtigste Hilfsmittel fehlt aber noch, das so genannte Computermodell. Dieses Modell ist ein mit physikalischen Gleichungen errechneter Entwurf, wie die Atmosphäre nach einer bestimmten Zeit aussehen müsste. Das Wetter gehorcht schließlich atmosphärischen Gesetzmäßigkeiten, wobei man entsprechende Formeln auf das gesamte Sammelsurium der gemessenen Wetterdaten anwenden kann und wobei jede Kenngröße Schritt für Schritt in die Zukunft hochgerechnet wird. Mit wissenschaftlicher Genauigkeit auf der einen Seite, aber auch mit Fingerspitzengefühl und individuellem Geschmack werden pro Tag allein im ARD- Wetterstudio etwa zehn verschiedene Computermodelle errechnet. Doch bereits nach zwei Tagen kommt es oft zu ganz unterschiedlichen Lösungen. In solchen Fällen sprechen die Meteorologen dann von einer "unsicheren Wetterentwicklung". Die können sich aber auch für eine bestimmte Lösung entscheiden oder ein Mittel aus den unterschiedlichen Ergebnissen bilden. Wetterfrösche benötigen ein gewisses "Bauchgefühl", um die wahrscheinlichste Lösung bei den "weiteren Aussichten" zu finden.
 
Warum aber sind die Computermodelle so unterschiedlich? Warum schmecken nicht alle Frikadellen gleich? Es liegt an der Rezeptur. So wie jeder Bulettenbrater sein eigenes Geheimnis hat - da ein Gewürz, dort etwas anderes Fleisch und am Schluss noch eine andere Grilltemperatur - gibt es auch Rezepturunterschiede bei den Computerwettermodellen. Zum Beispiel: Wann fange ich an zu rechnen nach den Wetterbeobachtungen? Sofort oder erst dann, wenn alle Nachzügler vom ohnehin kleinen Messnetz auf dem Meer da sind? Oder warte ich noch ab und korrigiere dafür offensichtliche Falschmeldungen von der Wetterfront? Wie groß ist die Maschenweite des Netzes, das ich über die Welt lege? Arbeite ich großmaschig und dafür schnell oder feinmaschig und langsamer? Wie kalkuliere ich eine schneebedeckte Landschaft ein? Wie die Wassertemperatur zum Beispiel der Nordsee? Jeder Wetterdienst hat für diese und andere Fragen eine eigene Antwort, und deswegen sind die Vorhersagen über 3 - 4 Tage hinaus oft so unterschiedlich.
 
Soweit bis heute. Im nächsten Funkwetterbericht werde ich noch ausführen, warum die Computermodelle auch weiterhin nicht hundertprozentig sein werden, welche Chancen es aber dennoch gibt, diese zu verbessern und was man diesbezüglich bis heute schon erreicht und verbessert hat.
 
Wetter- Computermodelle (2)
 
Im Funkwetterbericht vor einer Woche sprach ich über das wichtigste Hilfsmittel zur Erstellung einer Wettervorhersage: das so genannte Wettercomputermodell. Ich erläuterte, warum diese Modelle bis heute noch immer so unterschiedlich ausfallen. Heute werde ich noch genauer ausführen, warum jene Modelle auch weiterhin nicht hundertprozentig sein werden, welche Chancen es aber dennoch gibt, diese zu verbessern und was man diesbezüglich bis heute schon erreicht und verbessert hat.
 
Die ersten 24 Stunden differieren die Ergebnisse der  Modelle nicht allzu stark. Für diesen Zeitraum benutzen die Meteorologen zudem ihre Fähigkeiten, das Wetter nach alten klassischen Methoden zu "machen": Sie sitzen vor der Wetterkarte mit aktuellen Meldungen, malen Isobaren und Fronten, die sie jede Stunde korrigieren.
 
Es gibt noch zwei Dinge, warum die Computermodelle nicht hundertprozentig richtig sind. Zum einen ist das Wetterstationsnetz auf den Meeren nicht so dicht wie an Land, und jeder weiß, dass das Wetter ausgerechnet von dort am meisten kommt. Die Verhältnisse beim Atlantik sind zwar noch etwas besser als an der Pazifikküste von Nordamerika, wo das Wettergeschehen über drei Tage im Voraus bei West- Wetterlagen meist für eine Prognose unbrauchbar ist. Bei uns ist das erst nach 5 - 7 Tagen der Fall. Das zweite ist, dass sich die Atmosphärenphysik in ihrer ganzen Breite nicht in ein paar vereinfachende Formeln pressen lässt. Die Welt ist eben komplizierter und es kann auch dann noch zu Fehlern kommen, wenn die Ausgangslage sehr genau erfasst wurde.
 
Die besten automatischen Prognosen und damit Hilfestellungen erzeugen Computermodelle in Zusammenhang mit den Beobachtungen einer Wetterstation.
 
Dazu kombiniert man 5 Jahre Wetterkarte und 5 Jahre Beobachtungen einer Wetterstation und erhält eine Formel, welche Wetterlage bei jeder Station zu welchem Wetter führte. So ermittelt man die Eigenheiten eines Standortes viel besser als es das feinmaschigste Computermodell alleine  könnte. Es handelt sich hierbei um ein statistisch verbessertes Modellverfahren, mit dem sich vor allem auch Unwetter künftig richtiger vorhersagen lassen. Dieses Modell hat sogar einen Namen bekommen: "Model Output Statistics". Hier ist ein Deutscher namens Klaus Knüpffer in der internationalen Forschung führend. Raten Sie mal, für welchen Betrieb dieser Forscher unter anderem auch arbeitet: für "Meteomedia" Jörg Kachelmann.
 
 
Der Langfrist- Wetterbericht
 
Kein Meteorologe wird weltweit von irgendeiner Zeitung oder Zeitschrift gefragt, wie der Sommer oder der Winter wird. Das geschieht nur in Deutschland. Hier hat das meteorologische Institut der Freien Universität Berlin traurige Berühmtheit erlangt. Früher zu Recht gelobt wegen der praxisnahen Ausbildung seiner Studierenden, ist das Institut zu einer Verkaufsabteilung für seltsame Hoch -und Tiefnahmen und zum wissenschaftlichen Deckmäntelchen für Leute geworden, die mit Langfristvorhersagen experimentieren.
 
Dass in diesem Bereich geforscht wird, ist gut, richtig und wichtig, aber es gilt das gleiche wie beim Biowetter: wir sind im Bereich der Monats- und Jahresvorhersagen am Anfang, nicht am Ende eines langen Weges.
 
In der jüngsten Zeit hat der südkoreanische Wetterdienst mit guten Erfolgen auf sich aufmerksam gemacht; alle Meteorologen verfolgen weltweit mit Spannung, wer zuerst eine brauchbare Formel entwickelt. Auf alle Fälle wird sie noch mindestens ein paar Jahrzehnte auf sich warten lassen, so dass man hoffen kann, dass eines Tages im Frühling die Journalistenfrage, wie der Sommer wird, nicht mehr kommt. Sie ist sinnlos, so wie jede Antwort unsinnig wäre. Nach 5 -7, als Trend 10 Tagen ist Ende der Fahnenstange. Wir erinnern uns: manche Wetterdienste haben Orkane wie "Lothar" oder "Anna" noch nicht einmal 12 Stunden vor Eintreffen korrekt vorhergesagt.
 
Zusammenfassend können wir also sagen: wir müssen noch zig Jahre warten, bis wir zig Tage Wetter vorhersagen können.
 
Vertikale Daten aus der Troposphäre
 
Zusätzlich zu den Wetterstationen am Boden ist auch die Erforschung der Vertikalen in der Atmosphäre von großer Bedeutung. Seit Jahrzehnten sind dafür Radiosonden im Einsatz. Moderne Systeme, mit denen heute gearbeitet wird, sind technisch so weit entwickelt, dass nur das Füllen eines Ballons mit Wasserstoff, das Anhängen eines Fallschirms und der Start der Sonde Handarbeit bleiben. Seit der Nutzbarmachung des GPS -Systems ortet sich die Sonde selbst, was die aufwändige Ortung über Radar überflüssig gemacht hat. Der Ballon platzt erst in etwa 25-30 km Höhe, dringt also weit in die Stratosphäre vor.
 
Radiosondierungen sind in der Meteorologie messtechnisch sehr spannend. Am Bildschirm folgt die unmittelbare Erfahrung, wie 30 km Atmosphäre über einem aussehen. Inzwischen gibt es auch andere Möglichkeiten, die Atmosphäre vertikal auszumessen, diese Instrumente heißen Radiometer und werten die Mikrowellenstrahlung in der Atmosphäre aus, die sich je nach Feuchtigkeit und Temperatur verändert
 
Eine Kombination zwischen der Messung am Boden einerseits und dem Ziel, die gesamte Troposphäre, also die Wetterschicht in der Atmosphäre, andererseits zu vermessen, bietet das Radar. Hier geht es vor allem um die Erfassung des Niederschlags in der Atmosphäre (Radarstrahlen werden durch Regentropfen und Schneeflocken reflektiert), aber auch Windgeschwindigkeiten können durch besonders ausgerüstete Radarstationen ausgewertet werden.
 
Das umgekehrte Prinzip, also nicht den Blick von unten nach oben, sondern von oben nach unten, verfolgt die Arbeit mit Wettersatelliten. Hier muss man die geostationären von den umlaufenden Satelliten unterscheiden. Um einen schönen Satellitenfilm jede halbe Stunde im Fernsehen zeigen zu können, muss der Satellit an derselben Stelle stehen. Das ist in 36.000 km Höhe der Fall, aber der Satellit ist dadurch ziemlich weit weg, um eine sehr gute Auflösung des Satellitenbildes hinzubekommen. Für Bilder mit hoher Auflösung sind deswegen die umlaufenden Satelliten zuständig - umlaufend deshalb, weil sie in ihrer Aufnahmehöhe von rund 700 km Höhe eben keine fixe Position über einem Punkt der Erde einnehmen, sondern einen Ort in unregelmäßigen Abständen und aus unregelmäßigen Richtungen mehrfach pro Tag überfliegen. Man sieht zwar jeden Fluss und jeden See, aber eben nicht jede halbe Stunde.
 
Als zusätzliches Hilfsmittel für den meteorologischen Arbeitsplatz ist schließlich das BLIDS- System zu erwähnen, dass ernst zu nehmende Blitzeinschläge registriert und uns hilft, die Intensität eines Gewitters unter dem Aspekt der Elektrizität zu bewerten.
 
Wir resümieren: zur Erstellung einer Wettervorhersage hat der Meteorologe Satellitenbilder, Radarbilder, Wetterkarten mit aktuellen Messwerten am Boden, Wetterkarten mit aktuellen Messwerten aus der höheren Atmosphäre und Informationen über Blitzschläge in der Vorhersageregion. Ein äußerst wichtiges Hilfsmittel fehlt aber noch: das so genannte Computermodell. Darüber mehr in einem weiteren Beitrag.
 
Wie eine moderne Wetterstation arbeitet
 
Die Existenz von Wetterstationen ist die größte Gemeinsamkeit, die die Arbeit eines Meteorologen vor 50 Jahren und heute verbindet. Was sich in den Wetterstationen verändert hat, sind die Instrumente. Nur bei den immer seltener handbetriebenen Stationen, in denen ein Beobachter dreimal täglich die Treppe zu seiner Wetterhütte hoch steigt, den weißen Holzkasten mit den Lamellen nach innen und außen eröffnet und seine Quecksilberthermometer und das Haarhygrometer abliest, gibt es eine jahrzehntelange Kontinuität: an diesen Instrumenten wie auch am mechanischen Niederschlagsmesser hat sich nichts geändert: alles geht von Hand oder per Auge. Die aktuelle Temperatur wird abgelesen, die tiefste Temperatur am Minimum- Thermometer, die höchste Temperatur am Maximum- Thermometer, das genau so funktioniert wie ein Fieberthermometer - und alles auf 0,1° genau. Quecksilber - Thermometer wird es noch eine Weile geben, doch steht zu befürchten, dass eine Einnahmequelle für Trägerinnen blonder Haare versiegen könnte: seit jeher messen Hygrometer die Luftfeuchtigkeit über die Längenschwankungen entfetteter Haare. Wenn es feucht ist, werden Haare nämlich länger als in trockener Luft. Moderne Hygrometer arbeiten indessen kaum noch mit Haaren, sondern mit elektronischen Sensoren oder sogar mit so genannten Taupunktspiegeln, wenn es denn ganz genau sein soll.
 
Um dieses Instrument zu verstehen, müssen wir uns daran erinnern, dass kalte Luft weniger Feuchtigkeit aufnehmen kann als warme Luft. (Zum Thema "Taupunkt" habe ich hier an dieser Stelle bereits früher schon eine ganze Menge erklärt, und ich will dies hier heute nicht alles wiederholen). Nun zu unserem modernen Messgerät: in dem Moment, in dem der Taupunkt erreicht wird, bilden sich kleine Tröpfchen. Das nutzt das Instrument: ein kleiner Spiegel wird immer wieder in Messzyklen herunter gekühlt, bis sich auf ihm Tröpfchen bilden. Dadurch verändert sich die optische Charakteristik des Spiegels, welche die Elektronik registriert: das ist der Taupunkt. Und dann kann die relative Feuchtigkeit berechnet werden. Bei der Niederschlagsmessung ist die Automatisierung schon länger fortgeschritten. Die fernabfragbaren Geräte sind beheizt und mit einer Wippe ausgerüstet, die nach 0,1 mm Niederschlag ausgelenkt wird und einen Impuls erzeugt. Oder der Niederschlag wird direkt gewogen.
 
Bei der Windmessung hat zum Glück für die Meteorologen eine Revolution stattgefunden, die sich weltweit noch gar nicht herumgesprochen hat: es gibt nun endlich einen Windmesser, der auch bei furchtbarsten windigsten Vereisungsbedingungen eisfrei bleibt - ein Stück deutscher Wertarbeit: die Firma Thies in Göttingen hat einen Ultraschall -Windmesser entwickelt, der ohne sich bewegende Teile mit Sicherheit eisfrei bleibt. Ultraschallwindmesser wurden zunächst in großen Höhen auf den Bergen bei eisigen Temperaturen eingesetzt, inzwischen aber auch in normalen Gegenden.
 
Die Geräte zur Messung der Sonnenscheindauer haben sich inzwischen auch stark verändert. Früher bündelte eine Glaskugel die Sonnenstrahlen und brannte sie in eine Registrierpappe. Inzwischen lässt sich die Sonnenscheindauer auch elektronisch messen. Weil immer mehr Wetterstationen unbemannt sind, kommt dort sowieso nur die automatische Messung infrage. Bei anderen Messgrößen ist das menschliche Auge teilweise ersetzbar geworden, so bei der Sichtweite oder der Wolkenuntergrenze, aber Verluste an Informationen sind mit der Automatisierung immer verbunden. Die Schneehöhe kann zwar auch automatisch festgestellt werden, meistens wird dieses Instrument in automatische Stationen aber nicht eingebaut, so dass nur wenige Schneehöhen - Informationen in Deutschland, der Schweiz und Österreich vorliegen. Über die vertikalen Messungen in unserer Atmosphäre durch Wetterballone und Radiometer vielleicht demnächst einmal etwas hier im Funkwetterbericht.
 
Libration des Mondes
 
Täglich können wir beobachten, dass der Mond einen gewaltigen Einfluss auf unsere Erde hat: Ebbe und Flut. Wenn unser Erdtrabant derart an den Wassermassen zerren kann, dann wird er doch auch einen Einfluss auf das Wetter haben, oder? Elbe und Flut haben mit dem Wetter aber gar nichts zu tun. Luftdruckänderungen durch die Stellung des Mondes sind kaum messbar. Die relativ leichten Luftmassen werden durch den Mond viel weniger beeinflusst als die schweren Wassermassen. Alle Wetterregeln, die sich auf den Mond beziehen, lassen sich mit realen Wetterdaten nicht belegen. Man muss sich nur klar machen, dass ja auf der gesamten Erde Vollmond herrscht, wenn bei uns Vollmond ist. Ein weltweiter Wetterumschlag ist aber nicht zu beobachten. Das gleiche gilt für die anderen Mondphasen.
 
Zum Thema "Mond" fällt mir gerade noch etwas sehr Interessantes ein. Sie alle kennen das berühmte "Mondgesicht". Wussten Sie schon, dass wir hier von der Erde aus diesem Gesicht einmal "unter das Kinn" und zum anderen Mal "über die Stirn" schauen können? Das kommt daher, dass die Mondbahn um 5° zur Erdbahnebene geneigt ist. Befindet sich der Mond nördlich der Erdbahnebene, so sehen wir ein wenig mehr von seiner Südkalotte, im anderen Fall zeigte er uns ein wenig mehr von seiner Nordkalotte. So sehen wir den Mond einmal gewissermaßen "unter das Kinn", das andere Mal "über die Stirn". Der Mond scheint zu "nicken" und Ja, Ja zu sagen. Darüber hinaus vermag der Mond aber auch noch den Kopf zu schütteln und gewissermaßen Nein, Nein zu sagen. Wieso?
 
Warum kann man das Mondgesicht einmal über den Westrand und ein anderes Mal über den Ostrand hinaus sehen? Obwohl der Mond der Erde stets dieselbe Seite zukehrt (gebundene Rotation), kann man dennoch mehr als die Hälfte seiner Oberfläche von der Erde aus beobachten, etwa 59 %. Die Rotation des Mondes erfolgt gleichförmig, während sein Umlauf um die Erde gemäß dem zweiten Keplerchen Gesetz mit unterschiedlicher Geschwindigkeit erfolgt. In Erdnähe läuft der Mond somit schneller als in Erdferne. Deshalb sehen wir einmal ein wenig über den Westrand, einen halben Monat später über den Ostrand des Mondes hinaus. Der Mond scheint den Kopf zu schütteln und Nein, Nein zu sagen. Jene Schwankungen des Mondes in Breite und Länge werden als Libration bezeichnet.
 
Die Libration des Mondes sorgt also dafür, dass unser Erdtrabant mit seinem Mondgesicht sowohl "nicken" als auch den "Kopf schütteln" kann.
 
Das Barometer als Höhenmesser
 
Am vergangenen  Sonntag ging es zum Thema Luftdruck sehr theoretisch zu. Ich erläuterte Ihnen die Umrechnung von Millibar in Hektopascal. Zum Ausgleich geht es heute im Steilflug in die Praxis. Es geht um die im wahrsten Sinne überlebenswichtige Einschätzung der Flughöhe eines Piloten für seine Maschine. Jene vollzieht er nämlich mit Luftdruckangaben, die ihm ein hochempfindliches zum Höhenmesser umfunktioniertes Barometer liefert. Da der Luftdruck mit der Höhe abnimmt, kann ein Aneroid - Barometer auch dazu verwendet werden, die Höhe über einem bestimmten Niveau zu bestimmen. Das ist aber gar nicht so einfach, da der Druck in kalter Luft schneller mit der Höhe abnimmt als in warmer Luft. Die kalte Luft ist nämlicher dichter und somit schwerer. Wenn der Pilot den Druck am Boden kennt und auch die Temperatur zwischen Boden und seinem Flugzeug, dann könnte er an seinem Barometer genau ablesen, in welcher Höhe er fliegt.
 
Nun ist dies aber nie der Fall. Woher sollte der Pilot wissen, wie die Temperaturverhältnisse unterhalb seiner Flughöhe sind? Ein Flugzeug wird auf seiner Route somit nicht in einer konstanten Höhe fliegen können. Damit es aber bei dem dichten Luftverkehr nicht zu Kollisionen kommt, hat die internationale Luftfahrtorganisation ICAO eine künstliche Atmosphäre definiert, die so genannte Standard- Atmosphäre. Dabei wurde eine mittlere Temperaturabnahme mit der Höhe von 6,5 Grad pro 1000 Meter festgelegt, wobei die Temperatur am Boden 15° C beträgt und der Luftdruck 1013,2 hPa.  Die Höhenmesser in allen Flugzeugen sind auf diese Standardatmosphäre geeicht. Den Flugzeugen wird  nun von der Bodenkontrolle eine bestimmte Druckfläche, das so genannte flight level (FL) zugewiesen. Das entspricht in der Standardatmosphäre einer ganz bestimmten Höhe, die aber nicht mit der wirklichen Höhe übereinstimmen muss.
 
In der Luftfahrt wird als Höhenmaß nicht Meter, sondern Fuß (ft) verwendet, wobei 1000 m gleich 3281 ft sind. Das flight level wird dabei in Hundert - Fuß - Stufen angegeben. FL 100 entspricht also eine Flughöhe von  10 000 ft oder etwa 3000 m. Der Druck in jener Fläche beträgt in diesem Fall 700 mb. Jene festgelegte Standardatmosphäre verhindert somit Flugzeugkollisionen, da sich alle Höhenmesser danach richten.
 
Die Sache ist jedoch noch weitaus komplizierter. Während eines Fluges bewegt sich eine Maschine nicht nur in Luftschichten unterschiedlicher Temperatur, sondern auch stets zwischen Hoch- und Tiefdruckgebieten. Vor allem bei einem Flug von einem Hoch in ein Tief kann manches schief gehen, falls der Pilot nicht aufpasst. Bei abnehmendem Luftdruck zeigt der Höhenmesser nämlich bei konstanter Flughöhe einen Steigflug an. Die Höhenangaben auf dem Barometer stimmen nicht mehr. Wenn der Pilot seine Höhe beibehält, fliegt die Maschine in Wirklichkeit tiefer als es der Höhenmesser anzeigt. Würde sich der Pilot nun bei einer Landung im Nebel auf seinen Höhenmesser verlassen, würde seine Maschine bereits bei einer angezeigten Flughöhe von weit über Null Metern aufsetzen wollen. Dies entspräche wohl keiner gelungenen Landung, da sich die Maschine zu dieser Zeit noch im Landeanflug befinden würde.
 
Fliegt ein Flugzeug von einem Tief in ein Hoch, ist es umgekehrt: Der Höhenmesser zeigt einen Sinkflug an, obwohl sich die Maschine auf konstanter Höhe bewegt. Der Pilot würde dann, geleitet vom Höhenmesser, bereits landen wollen, wenn die Maschine noch weit über Null Meter Höhe über dem Boden schwebt. Landen ohne Bodenkontakt wäre auch ein Problem.
 
Wie kann man derartige "Missverständnisse" durch unterschiedliche Luftdruckverteilungen in Bodennähe verhindern? Ganz einfach: der Pilot lässt sich vor der Landung vom Tower den aktuellen Luftdruck durchgeben und korrigiert damit seinen Höhenmesser. Im Bereich des sog. "Transition Level, einer Übergangsfläche, muss der Pilot den  Höhenmesser von 1013,2 hPa der Standardatmosphäre auf QNH umstellen, also auf den auf Meereshöhe reduzierten aktuellen Luftdruck auf der Piste des Landeflughafens. Diese Übergangsfläche (transition level) ist die tiefste noch oberhalb der Übergangsgröße gelegene Flugfläche. Sie ändert sich je nach dem Barometerstand. Auf dem Flughafen in Düsseldorf liegt diese je nach Barometerstand zwischen 60 und 70.
 
Festzustellen ist also: Der Luftdruck nimmt mit der Höhe ab. Deshalb lassen sich Barometer in Flugzeugen als Höhenmesser verwenden. Da der Luftdruck mit der Höhe jedoch nicht immer gleichmäßig abnimmt, sondern auch von Lufttemperatur und Wetterlage abhängig ist, hat man die so genannte Standardatmosphäre geschaffen und nach deren Berechnungen die Höhenmesser aller Flugzeuge geeicht. So können sich auf speziell eingerichteten Druckflächen, den Flight Levels, die Piloten mit ihren Maschinen sicher bewegen, ohne eine Kollision mit einer anderen Maschine befürchten zu müssen, denn alle Flugzeuge bewegen sich auf den ihnen vom Tower zugewiesenen Flugflächen der Standardhöhen, ohne dass sie ihre wahre Höhe überhaupt kennen müssten.
 
Da ich keinen Pilotenschein besitze, spreche in hier in diesem Themenbereich nicht als Profi. Der eine oder andere von meinen Zuhörern oder Lesern wird vielleicht Flieger sein. Darunter gibt es viele Funkamateure.
 
 
 
"Globalisierung" - für den Wind kein Thema
 
Auch der kleinste Lokalwind auf unserer Erde ist eingebettet in das große globale Windsystem
 
Nun ist er da, der Herbst, der uns kühle, teilweise auch nasse Tage bringt und der nun auch vermehrt den Wind im Gepäck hat. Jeder regionale oder sogar lokale Wind ist eingebettet in unser großes lokales Windsystem.
 
Einen Überblick über die globalen Winde verschafft man sich am einfachsten, indem man vom Äquator ausgeht, wo die durch intensive Sonneneinstrahlung erwärmte Luft aufsteigt und sich zu den Polen hin bewegt. Bodenwinde, die von dem Unterdruck  angesaugt werden, der durch die aufsteigende Luft entstanden ist, bewegen sich sowohl von Norden als auch von Süden in Richtung Äquator, werden aber durch die Kraft der Erddrehung nach Westen gelenkt, ein Phänomen, das als Corioliskraft bekannt ist. Diese so genannten Ostwinde (weil sie aus östlicher Richtung einströmen) sind die Passatwinde, die beständigsten und zuverlässigsten Brisen auf der ganzen Erde. Auch sie werden erwärmt, steigen nach oben und driften teilweise zu den Polen. All dies geschieht in der Troposphäre, der Heimat unseres Wetters, also bis in etwa 10 Kilometer Höhe.
 
Ab etwa 30 Grad nördlicher und südlicher Breite - dort, wo die Subtropen enden, auf der Höhe von New Orleans und dem Nordrand Afrikas - beginnt die aufgestiegene Luft wieder zu sinken. Ein Teil dieser Luft wandert zum Äquator zurück und tritt wieder von vorne in den Kreislauf ein, ein anderer Teil bewegt sich in die mittleren Breiten. Dieser wird unterwegs durch die ablenkende Kraft der Erdrotation leicht im Uhrzeigersinn in die nördliche Halbkugel umgelenkt oder ebenso leicht gegen den Uhrzeigersinn in die südliche Halbkugel. Aus der Luft, die vom Äquator wegströmt, entwickeln sich die bodennahen Westwinde der mittleren Breiten. Treffen diese auf kühle Luft, die von den Polen zum Äquator strömt, vermischen sie sich mit ihr, wirbeln durcheinander und bilden jene durchziehenden Fronten, die das unbeständige Wetter der gemäßigten Zonen ausmachen. In der oberen Troposphäre erzeugen die aufeinander treffenden Luftmassen atmosphärische Wellen, die von Westen her um die Erdkugel strömen (Jetstreams). 
 
Um die Pole wehen leichtere, variablere Bodenwinde, die tendenziell von Osten kommen. (Damit will ich aber keineswegs behaupten, für die Polargebiete seien leichte Brisen typisch. Windströmungen in der Antarktis bewirken, dass Luftmassen an Berghängen abrupt abstürzen und dabei Spitzengeschwindigkeiten erreichen.) 
 
In den äußersten Regionen der Erde türmt sich kalte Luft auf und führt damit zur Entstehung starker Hochdruckzonen. Schließlich strömt diese kalte Luft von den Polen weg. Wenn sie den 60. Breitengrad erreicht (der Breitengrad, der durch die Südspitze von Alaska und Grönland verläuft), erwärmt sie sich etwas und steigt hoch, dabei schafft sie relativ stabile Tiefdrucksysteme. Gleichzeitig entsteht in den Rossbreiten (zu denen auch die trockenen Regionen im Südwesten Amerikas und des Mittleren Ostens zählen) ein Hochdruckgebiet, in dem kühle Luft über dem Festland nach unten sinkt.
 
Die Hoch- und Tiefdruckgebiete - sowohl die stagnierenden Zellen als auch die durchziehenden Systeme, die uns abwechselnd sonnige und stürmische Perioden bescheren - haben großen Einfluss auf die atmosphärische Zirkulation, denn sie wirken wie Gipfel und Täler. Luftpartikel, die den Weg des geringsten Widerstands suchen, gleiten um die Ränder der Hochdruckzonen und sinken in die wie Saugrohre wirkenden Tiefdruckzonen ab. Die Drucksysteme beeinflussen schließlich auch die Richtung des Windes: Auf der nördlichen Halbkugel wird die Luft um das Hochdruckgebiet im Uhrzeigersinn geleitet und in Tiefdruckrinnen gegen den Uhrzeigersinn. Auf der südlichen Halbkugel gilt genau das Gegenteil. Vor allem in den gemäßigten Zonen schlängelt sich die Luft von einem Drucksystem zum nächsten, bis sie wieder zum Äquator driftet, um das Spiel von neuem zu beginnen.
 
Das ist nur eine vereinfachte Darstellung der Bodenwinde. Ihre genauen Bewegungsmuster hängen noch von einer ganzen Reihe anderer Faktoren ab, so z.B. von der Land- und Meerverteilung und von dem Verlauf der Jetstreams, der Strahlströme in der oberen Troposphäre. Aber es ist richtig: Auch unser Wind an Rhein und Ruhr ist natürlich in das erwähnte globale Windsystem eingebettet. Für die Luft sind Migration und Integration also kein Thema.
 
 
 
 
Die Luftfeuchte
 
Nichts ist bei Wetterbeschreibungen und Wetterprognosen wichtiger als die Angabe von Temperaturen. Deren Werte nehmen stets eine Favoritenstellung unter den meteorologischen Maßeinheiten ein. Zu Recht, denn sie haben schließlich den größten Einfluss auf das Wettergeschehen. Sie sind verantwortlich für Druckunterschiede und somit für unsere zahlreichen Windsysteme, die sich vertikal und horizontal täglich auf unserem Planeten ereignen.
 
Über die Luftfeuchtigkeit, also den in der Luft ständig vorhandenen unsichtbaren Wasserdampf, hört man meist wenig. Zu Unrecht, denn dieser ist schließlich für unsere Niederschläge in fester oder flüssiger Form verantwortlich. Während wir Menschen Temperaturen gefühlsmäßig recht gut beurteilen können, haben wir kein direktes Sinnesorgan für die in der Luft vorhandene Feuchte. Erst wenn unser Körperschweiß bei Anstrengungen in höheren Temperaturen nicht mehr rechtzeitig verdunstet, die Abkühlung unserer Haut also problematisch wird, sprechen wir von Schwüle.
 
Hinzu kommt, dass die Luftfeuchtigkeit nicht so einfach angegeben werden kann wie eine Temperatur. 20 Grad Celsius zum Beispiel ist für uns eine recht verständliche Angabe. Damit können wir erfahrungsgemäß etwas anfangen. Aber was bedeutet zum Beispiel 60 % Luftfeuchte?  60 % wovon? Was sind denn die 100 %? Warum nimmt man nicht eindeutigere Maße, etwa eine Skala von 1 bis 12 (wie bei den Windstärken)? 1 gleich rappeltrocken, 6 gleich normale Feuchte und 12 gleich superfeucht, feuchter geht´ s nicht mehr.
 
Nun, das liegt daran, dass man Temperaturangaben und auch die Windstärken linear angeben kann. Die Luftfeuchtigkeit hingegen hängt sehr stark von der jeweiligen Temperatur ab, ist somit exponentiell. Die erwähnten 100 % Luftfeuchte sind je nach Temperatur sehr unterschiedlich. 100 % bei Null Grad bedeutet, dass nur etwa 5 Gramm Wasser in einem Kubikmeter Luft "hinein passen". Bei 20 Grad sind es aber bereits über dreimal so viel, ca. 17 Gramm, und bei 30 Grad sage und schreibe etwa 30 Gramm Wasser, also sechsmal soviel wie bei Null Grad.
 
Jene temperaturabhängigen 100 % bezeichnet man als die jeweilige "Sättigungsfeuchte" bei einer bestimmten Temperatur. Die jeweilige Bezugstemperatur heißt auch "Taupunkt". Dieser Name ist gut gewählt, denn steigt die Feuchtigkeit über 100 %, wird der vormals unsichtbare Wasserdampf als Tau oder in Form von Wolkentröpfchen ausgeschieden. Eine sinnvolle Aussage über die Luftfeuchte kann man also nur machen, wenn man diese relativiert, und zwar auf die Sättigungsfeuchte bei einer bestimmten Temperatur. Wir sprechen ja bekanntlich von "relativer Luftfeuchtigkeit in Prozent".
 
Nun, wie kommt die jeweilige Angabe in Prozent zustande? Nehmen wir als Beispiel eine Temperatur von 20 Grad. Wenn in der Luft dann je m³ 10 Gramm Wasserdampf enthalten sind, beträgt die relative Feuchte 59%. Klar, denn bei 20 Grad kann die Luft maximal nur ca. 17 Gramm Wasserdampf aufnehmen. Und 10 geteilt durch 17 sind ca. 59% (0,59).  Es geht also stets um die Relation von absoluter Feuchte zur höchstmöglichen, der Sättigungsfeuchte.
 
Haben Sie sich nicht schon einmal gefragt, warum es im Winter bei sehr kühlen Temperaturen keine extremen Regengüsse gibt wie sooft im Sommer? Die Luft kann einfach bei niedrigen Temperaturen nicht so viel Wasserdampf enthalten wie im Sommer. Somit kann sie auch nicht so viel davon in gleichen Zeitintervallen ausscheiden. Zum Ausgleich muss es dann länger regnen oder schneien. Die gleiche Menge Niederschlag kann im warmen Sommer bei einem einzigen kurzen Gewitterguss vom Himmel prasseln. Jeglicher Platzregen bleibt also weiterhin für die warme Jahreszeit reserviert.
 
Messung der Luftfeuchte
 
Am vergangenen Sonntag versuchte in den Begriff der "Luftfeuchtigkeit" zu erhellen. Dabei wurden die Bezeichnungen "relative Luftfeuchtigkeit", "Sättigungsfeuchte" und "Taupunkt" näher erläutert. Heute schließe ich die Frage an: Wir lässt sich die relative Luftfeuchtigkeit messen?
Die Luftfeuchtigkeit kann man recht einfach mit Haarhygrometern bestimmen. Als Messelement dient ein Bündel staub - und fettfreier Haare, vorzugsweise Frauenhaare. Infolge der hygroskopischen Eigenschaften des Frauenhaares nimmt die Haarlänge zu, wenn die Luftfeuchte wächst. Bei der Feuchtigkeitsmessung muss die Sonnenstrahlung ebenso wie bei der Temperaturmessung vom Hygrometer ferngehalten und dieses gut belüftet werden.
 
Besonders sichere Werte der Messung der relativen Luftfeuchtigkeit liefert das Psychrometer. Es besteht aus zwei Thermometern. Das sog. "trockene" Thermometer zeigt die aktuelle Lufttemperatur an. Das "feuchte" Thermometer ist von einem Wattebausch umhüllt, den der Beobachter vor der Messung mit Wasser anfeuchtet. Durch die Verdunstung des Wassers im Wattebausch wird dem Messkörper des feuchten Thermometers Wärme entzogen. Je tiefer die Temperatur am feuchten Thermometer unter dem zur gleichen Messzeit ermittelten Wert am trockenen Thermometer sinkt, je größer also die sog. "psychrometrische Differenz" ist, umso trockener ist die Luft, weil dann mehr Wasser verdunstet und dem feuchten Thermometer entsprechend mehr Wärme entzogen wird. Beide Thermometer werden durch einen künstlichen Luftstrom ventiliert, um den Messfehler möglichst gering zu halten. Mit diesen beiden abgelesenen Temperaturen lassen sich die relative Luftfeuchtigkeit und der Dampfdruck aus einer Psychrometertabelle oder entsprechenden Diagrammen ablesen.
 
Der Temperaturunterschied zwischen trockenem und feuchtem Thermometer ist also ein Maß für die relative Luftfeuchte. Je kleiner die Differenz, desto feuchter ist die Luft. Die daraus zu ermittelnden Werte der relativen Feuchtigkeit, der Taupunkttemperatur und des Sättigungsdampfdrucks muss man aus diversen Tabellen der sog. "Psychrometertafel" ablesen.
 
Für uns Normalverbraucher genügt jedoch ein einfaches Haarhygrometer. Man sollte es hin und wieder eichen. Das geht recht einfach: Man wickelt das Gerät in ein feuchtes Tuch und stellt den Zeiger nach etwa einer halben Stunde auf  95%. In den modernen Wetterstationen gibt es schon längst elektronische Messungen, die von einem Fühler per Funk zur Station im Innenraum übertragen werden. Nach meinen Erfahrungen sind diese oftmals ungenauer als die Werte von herkömmlichen Hygrometern. Vor allem in relativ feuchter Luft zeigen die modernen Geräte oft bis zu 10% zu wenig an Feuchtigkeit an.
 
 
Himmelblau
 
Welch ein tolles Wetter! Dieses fantastische Himmelsblau! Der blaue Himmel ist das Ergebnis des Zusammenwirkens von Sonnenschein und Atmosphäre. Ohne Atmosphäre hätten wir einen dunklen Taghimmel und könnten neben der Sonne auch die Sterne sehen. Die Astronauten, die unseren atmosphärelosen Mond betreten haben, konnten davon berichten. Die Sonnenstrahlen auf der Erde werden an den Molekülen der Luft und an den in der Lufthülle vorhandenen Staubpartikeln und Wassertröpfchen nach allen Richtungen hin gestreut. Und wie kommt es zum Farbton blau? Wenn unsere Augen von allen Farben des Spektrums getroffen werden, sehen wir ?  (weiß). In der Atmosphäre werden an den Molekülen, Partikeln und Tropfen bevorzugt die kurzwelligen, blauen Strahlen zerstreut. Es ist somit der blaue Anteil des Sonnenlichts, der in der Atmosphäre auf diese Weise viel stärker zur Geltung kommt als das rote, gelbe oder grüne Licht.
 
Auch für die wechselnde Kraft der Blautönung gibt es eine ebenso einfache Erklärung: die die Atmosphäre trübenden Elemente sind die Staubteilchen und die Wassertröpfchen. Je mehr sie in der Luft vorhanden sind, umso blasser wird das Blau. Der Himmel erscheint dann auch bei  trockenem, schönem Wetter manchmal sogar mehr weiß und grau als blau. Umgekehrt verstärkt das Fehlen von Staubteilchen und Wassertropfen die Blaufärbung, was man besonders oft im Hochgebirge beobachten kann.
 
 
Die "Schraubenzieher" - Regel
 
Den Namen "Tiefdruckgebiet" (Tief) sowie den Ausdruck "Hochdruckgebiet" (Hoch) kennt jeder. Doch wie war das noch mal mit dem Unterschied der beiden?
 
Die Luft weht links herum in das Zentrum eines Tiefdruckgebietes hinein. Nun muss sie schließlich irgendwo hin. In den Boden kann sie nicht, also bleibt nur der Ausweg in die Höhe. Oberhalb des Tiefs beginnt die Luft in etwa 6 km Höhe wieder auseinander zu fließen, um die bodennahe Konvergenz auszugleichen. Solange Konvergenz am Boden und Divergenz in der Höhe gleich sind, wird sich der Luftdruck am Boden nicht ändern. Durch das Aufsteigen der Luft bilden sich Wolken und bei entsprechender Stärke gibt es Niederschlag.
 
Umgekehrt wird die bodennahe Divergenz in einem Hoch durch konvergente Strömung in der Höhe kompensiert. Beim Sinken der Luft erwärmt sich diese, Wolken lösen sich auf und deshalb herrscht im Bereich des Hochs meist sonniges Wetter. Im Winter gilt dies meist nicht wegen der Nebelbildung.
 
Sie können sich den erwähnten Sachverhalt sehr leicht mit der "Schraubenzieher" - Regel merken. Wenn Sie eine Schraube eindrehen, dann drehen Sie den Schraubenzieher im Uhrzeigersinn rechts herum. Wenn Sie die Schraube herausziehen, drehen Sie diese entgegen dem Uhrzeigersinn links herum.
 
In einem Hoch sinkt die Luft im Uhrzeigersinn. Das Gewinde der Schraube bewegt sich rechts herum nach unten. In einem Tief steigt die Luft entgegen dem Uhrzeigersinn. Das Gewinde der "Schraube" bewegt sich nach oben. Mit Kenntnis dieser einfachen Regel können Sie die Strömungsverhältnisse in Hoch und Tief nie mehr vergessen.
 
 
Natürliche Klimaänderungen
 
Die Entwicklung des globalen Klimas hängt von weitaus mehr Faktoren ab als allgemein bekannt ist. Am vorletzten Sonntag wies ich darauf hin, dass seit Beginn der Industrialisierung die Menge von Gasen in unserer Atmosphäre, die den Treibhauseffekt verstärken, um 40% seit 1750  - und damit auch die globale mittlere Temperatur um 0,6 bis 1 Grad - unter Einwirkung des Menschen zugenommen hat. Auffallend ist, dass die 10 wärmsten Jahre des 20. Jahrhunderts aus seinen letzten 17 Jahren stammen (1998, 1997, 1995, 1990, 1991, 1994, 1983, 1988, 1987, 1996). Wir treiben also ein gewagtes Spiel mit dem globalen Klima, das wir mit Sicherheit nicht gewinnen werden, wenn wir so weitermachen.
Das globale Klima hat sich aber immer schon durch "natürliche" Ursachen (ohne Eingriff des Menschen) mehr oder weniger stark verändert. So wissen wir z.B. inzwischen recht genau, wie sich das Klima in den letzten 1000 Jahren verhalten hat. Trotz leicht voneinander abweichender Ergebnisse der Klimaforscher stimmen ihre Aussagen in wesentlichen Punkten überein. Die Sonne, aber auch die Erde selbst, muss man nämlich mit globalen Temperaturschwankungen in Verbindung bringen.
 
Sonne
 
Die "Solarkonstante", also der Betrag der Sonnenenergie, die an der Obergrenze der Atmosphäre ankommt (1370 W / m²) schwankt um 3% wegen der unterschiedlichen Entfernung der Erde während ihres Umlaufs um die Sonne. Doch strahlt auch die Sonne bei weitem nicht so gleichmäßig, wie man noch bis ins 16. Jahrhundert hinein annahm. Denken wir an die "Sonnenflecken" und ihren ca. 11jährigen Zyklus, dem noch weitere Perioden überlagert sind und die zu extremen Fleckenmaxima und Fleckenminima führen können. So sind bedeutsame Zusammenhänge zwischen dem Klima der letzten Jahrhunderte und der Anzahl der Sonnenflecken belegt. Die so genannte "Kleine Eiszeit" fand in einem Stadium der Sonne statt, als diese viele Jahrzehnte lang ohne Flecken war.
 
Erde
 
Ihre Bahn ist gleich mehreren Änderungen unterworfen.
 
Die Bahn der Erde um die Sonne unterliegt einem Zyklus, bei dem diese zwischen einer Ellipse und (fast) einem Kreis schwankt. Dies vollzieht sich allerdings in dem großen Zeitraum von 100 000 Jahren. Je größer die Exzentrizität, umso größer ist der Unterschied der eintreffenden Sonnenstrahlung zwischen dem sonnenfernsten und sonnennächsten Punkt. Zurzeit ist die Exzentrizität gering.
Der zweite Zyklus entsteht bei der Rotation der Erde um ihre Achse wie ein taumelnder Kreisel, "Präzession" genannt. Jene Periode dauert etwa 23 000 Jahre. In ca. 11 000 Jahren wird unsere Erde der Sonne wieder im Juli am nächsten sein, wenn auf der Nordhalbkugel Sommer ist. Dadurch werden die Gegensätze zwischen Sommer und Winter zunehmen, da die Nordhalbkugel die größeren Landmassen besitzt. (Zurzeit ist die Erde der Sonne im Januar am nächsten.)
 
Der 3. Zyklus von ca. 41 000 Jahren wird durch die Änderung des Neigungswinkels der Erdachse gegenüber der Ekliptik, also der Erdbahn um die Sonne, hervorgerufen. Zurzeit beträgt jener Winkel 23,5°. Er schwankt zwischen 22° und 24,5°. Je kleiner der Winkel, umso geringer gestalten sich die jahreszeitlichen Schwankungen in mittleren und höheren Breiten.     
Was ich hier angeführt habe, ist die Grundannahme der "Melankovitch- Theorie". Milutin Melankovitch, ein serbischer Mathematiker, hat diese Theorie um 1930 entwickelt. Danach wird durch die geschilderten Änderungen des Laufes der Erde um die Sonne das globale Klima beeinflusst. Ablagerungen in den Ozeanen und Untersuchungen von Eisbohrkernen haben eine sehr gute Übereinstimmung zwischen Eisausbreitung und der Melankovitch- Theorie ergeben. Jedoch kann der Verlauf der verschiedenen Eiszeiten auf unserem Planeten damit nicht vollständig erklärt werden. Hierbei könnten z.B. auch gewaltige Vulkanausbrüche und Meteoriteneinschläge ursächlich mitgewirkt haben.
 
Welch dramatische Auswirkungen ein großer Vulkanausbruch auf das Wetter haben kann, zeigt das Jahr 1816, als in Teilen Nordamerikas und in Westeuropa der Sommer "ausfiel". Im Juni gab es Schneestürme, und Fröste traten noch im Juli und August auf. Ursache: Zwischen 1810 und 1815 stieg die Vulkanaktivität weltweit an und erreichte im April 1815 mit der Explosion des Vulkans "Tambora" im heutigen Indonesien ein Maximum. Aber Vorsicht! Ganz eindeutig ist der Zusammenhang zwischen dem Wetter von 1816 und der Eruption ein Jahr davor nicht, da es in jener Zeit kaum Wetteraufzeichnungen gab. Ziemlich sicher ist jedoch: Vulkangase können den Treibhauseffekt verstärken. Bedeutsamer ist aber wohl der Abkühlungseffekt durch die weltweite Trübung der höheren Atmosphärenschichten durch Vulkanrauch und Vulkanasche- Wolken.
 
 
Kälterückfälle im Mai
 
Aus wettermäßig aktuellem Anlass heute noch ein kleiner Nachschlag zu diesem Thema. Am vergangenen Sonntag bemerkte ich, dass jene Kälterückfälle im Mai nichts Ungewöhnliches darstellen und dass sie in früheren Zeiten fast in jedem Jahr nachgewiesen wurden. In unserer Zeit ist die Wahrscheinlichkeit ihres Auftretens auf etwa 60% herabgesunken. Wenn die Eisheiligen ausbleiben, beschwert sich natürlich niemand, und wenn sie dann so markant wie in diesem Monat auftreten - erst recht nach dem langen kalten Winter dieses Jahres - sind wir auf sie überhaupt nicht gut zu sprechen. Wir sind diese lang anhaltende kalte Witterung einfach leid, zumal diese überhaupt schwer einzuordnen ist in den Erwärmungstrend des angekündigten Klimawandels. Nun wird die Durchschnittstemperatur des Mai sogar um satte fünf Grad unterschritten. Droht vielleicht doch eher eine neue Eiszeit?
 
Ich bleibe bei meinem Nein. Die Kälteperiode Mitte Mai bleibt ein typisches Wetterphänomen, das - wie gesagt - in früheren Jahrhunderten sogar regelmäßig stattfand. Heute bleiben jedoch derartige Kälterückfälle in zwei von fünf Jahren aus. Die Eisheiligen der hinter uns liegenden Woche sind markante Zeugnisse einer historischen, aber schon recht genauen Wetterbeobachtung: So enden die Eisheiligen in Norddeutschland am 13. Mai, im Süden unserer Republik aber erst am 14. oder 15. Mai. Der Grund: Die oftmals aus der Arktis stammende Luft braucht mindestens einen Tag, um von der Küste zu den Alpen zu gelangen.
 
Zum Schluss möchte ich Ihnen heute jene Eisheiligen einmal etwas persönlicher vorstellen.
 
Mamertus († um 477 in Vienne, Gallien) war Bischof und wird in der katholischen Kirche als Heiliger verehrt. Mamertus entstammte einer wohlhabenden gallorömischen Familie aus Lyon. Er wurde 461 Erzbischof von Vienne, wo er auch verstarb. Er führte die Bittprozession vor Himmelfahrt ein.
Während seiner Amtszeit gebot er der Überlieferung nach durch Beten einer furchtbaren Feuersbrunst Einhalt, die die ganze Stadt zu zerstören drohte und soll auch andere Wunder und Heilungen bewirkt haben.
In der Kunst wird er im Ornat eines Bischofs dargestellt, mit einem brennenden Licht zu Füßen des Kreuzes. Er ist der Patron der Hirten und der Feuerwehr und wird bei Dürre, Fieber und Brusterkrankungen angerufen.
 
Sein Gedenktag ist der 11. Mai. In Deutschland (vor allem Norddeutschland) wird er zu den Eisheiligen gezählt.
 
Pankratius, 12. Mai: Um das Jahr 303 kam der verwaiste Sohn eines reichen Römers mit seinem Onkel nach Rom und unterstützte der Legende nach mit seinem Erbe die verfolgten Christen. Der 14-jährige wurde erwischt, vor Kaiser Diokletian gebracht und öffentlich enthauptet. Der Heilige gilt als Schutzpatron der Kommunionkinder sowie gegen Krämpfe und Kopfschmerzen.
 
Servatius, 13.Mai: Er war der erste Bischof von Tongern in den heutigen Niederlanden. Nach unterschiedlichen Legenden wurde er am 13. Mai 384 mit einem Holzschuh erschlagen. Sein Grab befindet sich in Maastricht an der Straße nach Köln. Er war im Übrigen noch entfernt verwandt mit Jesus. Marias Mutter Anna hatte nämlich eine Schwester namens Esmeria, deren Tochter Elisabeth die Mutter von Johannes dem Täufer war - somit die Großtante von Servatius.
 
Bonifatius, 14. Mai:  Es handelt sich nicht um den berühmten Heidenapostel der Deutschen, sondern um einen jungen Römer, der eigentlich gar kein Christ war. Er suchte in Tarsus (Türkei) nach den Reliquien christlicher Märtyrer. Unter dem Druck der Christenverfolgung bekehrte er sich und fiel ihr im Jahre 306 selbst zum Opfer.
 
Sophie, 15. Mai: Sie gilt nur in Süddeutschland als Eisheilige. Man weiß nur wenig über sie. Auch sie soll während der Christenverfolgungen durch Kaiser Diokletian den Märtyrertod erlitten haben. Reliquien der Heiligen werden sowohl in Rom als auch im Elsass verehrt. Nach ihr ist das Sophienkraut benannt, auch als Besenrauke bekannt.
 
Bei den Datumsangaben der Eisheiligentage muss berücksichtigt werden, dass Papst Gregor XIII. den gregorianischen Kalender zwar schon 1582 einführte, dass er jedoch in den nichtkatholischen Gebieten Nord- und Mitteleuropas erst zwischen 1700 und 1752 flächendeckend auf die neue Zeitrechnung umgestellt wurde. Bei dieser Umstellung wurde z. B. in England  der September 1752 um 11 Tage verkürzt (auf den 2. September folgte unmittelbar der 14.). Da die Eisheiligen, wie alle anderen Heiligen, im Kalender unverändert stehen geblieben sind, finden sie nach altem Kalender also eigentlich erst 11-12 Tage später statt, also vom 23. Mai bis 27. Mai. Diese Überlegung trifft natürlich nur zu, wenn die Regel vor Einführung der Kalenderreform aufgestellt wurde. Tatsächlich sind wetterstatistisch die Tage mit häufiger N/NO-Wetterlage, die Kaltluft bringt, vom 21. Mai bis 23. Mai, also 9 Tage später. Das lässt auf eine Entstehung der Wetterregel 2-3 Jahrhunderte vor der Kalenderreform schließen.
 
Ganz zum Schluss noch ein paar Eisheiligen- Regeln:
Pankraz, Servaz, Bonifaz
machen erst dem Sommer Platz.
Vor Bonifaz kein Sommer,
nach der Sophie kein Frost.
Vor Nachtfrost du nie sicher bist,
bis Sophie vorüber ist.
Servaz muss vorüber sein,
will man vor Nachtfrost sicher sein.
Pankrazi, Servazi und Bonifazi, sind drei frostige Bazi.
Und zum Schluss fehlt nie, die Kalte Sophie.
Pankraz und Servaz sind zwei böse Brüder,
was der Frühling gebracht, zerstören sie wieder.
Pflanze nie vor der Kalten Sophie.
Mamerz hat ein kaltes Herz. Die kalte Sophie macht alles hie.
Sie bringt zum Schluss ganz gern noch einen Regenguss.
 
 
Klimaänderungen ? - Hitzesommer 2003
 
Seit Beginn der Industrialisierung in der Mitte des 18. Jahrhunderts ist eine stetige Zunahme der "treibhauseffekt- relevanten Spurengase" zu beobachten. Allein die Kohlendioxid- Konzentration stieg von 2,8 Hundertstel Volumenprozent im Jahre 1750 auf 3,7 Hundertstel Volumenprozent heute und liegt damit 40% über dem damaligen Wert. Eine ähnliche Zunahme der Konzentration ist auch bei anderen Spurengasen zu verzeichnen. Es liegt also nahe, dass es auf der Erde wärmer werden muss. Tatsächlich konnte man nachweisen, dass etwa 0,6 bis 1 Grad der beobachteten Erderwärmung mit Sicherheit auf menschliche Aktivitäten zurückzuführen ist. Damit bewegt uns die Frage sehr, wie es wohl mit den klimarelevanten Spurengasen künftig weitergehen wird. Da man diesbezüglich keine verlässlichen Prognosen erstellen kann, verwendet man verschiedene Denkmodelle, so genannte "Szenarien". Diese enthalten Annahmen über den zukünftigen sozioökonomischen Wandel. Dazu gehören die Entwicklung der Weltbevölkerung, ihr Lebensstandard und ihre Technologien und damit ihr Energiebedarf und insbesondere auch der Einsatz von alternativen Energien.
 
Inzwischen hat sich der IPCC (Intergovernmental Panel on Climate Change) auf vier "Markerszenarien" geeinigt. Das zu ihnen gehörende Szenario A1B zum Beispiel beschreibt eine künftige Welt mit raschem Wirtschaftswachstum, einer Trendumkehr in der Weltbevölkerungszahl, schneller Einführung neuer und effizienter Technologien, einem Ausgleich regionaler Unterschiede in Lebensstandard und Einkommen und ausgeglichener Nutzung aller Energieträger. Ein solches Szenario kann man dann zur Steuerung eines Klimamodells benutzen und damit das Klima  unter den Bedingungen des betreffenden Szenariums berechnen. Ein Klimamodell ist - sehr vereinfacht ausgedrückt - ein System von physikalischen, teilweise auch chemischen und biologischen Gleichungen, mit dessen Hilfe man die klimatischen Vorgänge an den Maschepunkten eines über die Erde gespannten imaginären Gitters berechnen kann. So kommt man zu Aussagen über die künftige Entwicklung von Temperaturen, Niederschlägen, Schneegrenzen, Gletschern und die Höhe des Meeresspiegels. Die Berechnungen deuten zum Beispiel auch darauf hin, dass künftig extreme Wettererscheinungen häufiger auftreten könnten.
 
Zum Schluss möchte ich deshalb an ein solches Extremwetter hier in Deutschland und Europa erinnern, und zwar an den Hitzesommer 2003. Damals begann bereits der Frühsommer mit Wärmerekorden. So lag die Mitteltemperatur des Junis mit 19,1 Grad vier Grad über dem Normalwert. Es war der wärmste Juni seit dem Jahre 1901. Das heiße, sonnige und zu trockene Wetter setzte sich im Juli und August fort. Das Thermometer kletterte im Raume Nürnberg am 8. August auf 40 Grad C. Im Oberrheingebiet wurde 54 Tage mit über 30 Grad registriert und 84 Sommertage mit über 25 Grad. Die Niederschläge erreichten landesweit nur 30% der langjährigen Mittelwerte.
 
Jene Hitzewelle 2003 wütete in fast ganz Europa, am extremsten in Südfrankreich. Frankreich hatte 14 000 Hitzeopfer zu beklagen. In Portugal wurden durch Brände 40% des Waldbestandes vernichtet. Die Donau führte so wenig Wasser, dass Schiffe zum Vorschein kamen, die im 2. Weltkrieg versenkt worden waren. Damals wurden uns weitere derartige Hitzesommer prophezeit, die jedoch bislang ausblieben. Vielleicht war diese extreme Witterung ja doch nur ein Einzelfall, ein sog. Ausreißer, also noch kein Hinweis auf eine bevorstehende Klimaänderung in Deutschland.
 
 
Der  Schmetterlings-Effekt
 
Als wir über die fehlenden Kondensstreifen anlässlich des Flugverbots und die damit verbundenen Auswirkungen auf unser Wetter diskutierten, wies ich darauf hin, dass bereits eine kleine Änderung in der Ausgangslage der Wetterbedingungen, wie zum Beispiel die sich bisweilen zu Wolken auswachsenden Kondensstreifen von Flugzeugen, zu großräumigen Änderungen einer vorhergesagten Wetterlage führen können. Man kennt jenes Phänomen unter dem Begriff "Schmetterlingseffekt", der 1963 von dem Meteorologen Edward Lorenz geprägt wurde. Der stellte nämlich fest, dass in einer damals noch sehr einfachen Wettersimulation das Geschehen einen völlig anderen Verlauf nahm, wenn man die Ausgangsbedingungen auch nur ein winziges Bisschen veränderte. Um eine möglichst extrem kleine Veränderung im realen Wettergeschehen zu benennen, wählte er den Flügelschlag einer Möwe als Beispiel. Das war die Geburtsstunde der so genannten "Chaostheorie". Später bürgerte sich dann der Schmetterling als Vergleich ein, vielleicht auch deshalb, weil die mathematische Struktur, die dieses Chaos beschreibt, ein so genannter Attraktor, entfernt an einen Schmetterling erinnert.
 
Inzwischen sind die Wettersimulationen erheblich komplexer, aber dass das Wetter ein chaotisches System ist, bestätigt sich immer wieder. In Simulationen und Prognosen gehen wir immer nur von einzelnen Daten an endlich vielen Punkten auf der Erde aus - und mit denen ist das Wetter nicht mehr als rund fünf Tage im Voraus zu bestimmen. Die kleinste Abweichung beim Ausgangszustand potenziert sich, je weiter man in die Zukunft rechnet, was eine große Auswirkung auf das Vorhersageergebnis hat.
 
Die Vorgänge beim Wetter laufen bekanntlich nach physikalischen Gesetzen ab. Nur deshalb ist es überhaupt möglich, Wetterentwicklungen vorherzusagen.  Das Wetter unterliegt jedoch dem Gesetz der Strömungen. Turbulenzen darin werden zu einem Stück unberechenbarer Natur. Sie entwickeln sich wie gesagt "chaotisch". Somit sind bis heute Wetterprognosen über vier Tage hinaus noch immer relativ unsicher, da jede Ausgangswetterlage in ihrem Anfangszustand datenmäßig nicht genau genug bekannt ist, also angefüllt ist mit sog. "sensi-tiven Bereichen", in denen kleinste Veränderungen zu völlig anderen Endresultaten führen können. Und das Vertrackte bei Chaoseffekten ist, dass man für eine Verdopplung der Vorhersagezeit nicht die doppelte Anzahl von Vorhersagepunkten benötigt, sondern ein Vielfaches davon.
 
Die chaotische Entwicklung bei Wetterphänomenen ist zwar bis heute unumstritten, doch auch die Turbulenz weist - soviel wurde inzwischen erkannt - Gesetzmäßigkeiten auf, die sie dem Chaos verdankt. In Experimenten hat sich gezeigt, dass die so unregelmäßig erscheinenden Wirbel einer turbulenten Strömung dennoch bestimmte Formen überraschend deutlich bevorzugen und dass man ihre Eigenschaften durch geeignete Mittelwerte kennzeichnen kann. Gerade die chaotischen Bahnen sind es, auf deren Mittelwerte Verlass ist.
 
Es sind also immer die Anfangszustände, die den Verlauf einer chaotischen Entwicklung bestimmen, die - zum Glück - in ihrer weiteren Entwicklung dennoch zu recht verlässlichen Mittelwerten führen. Aber diese helfen bei einer Wetterprognose für mehrere Tage wenig. Hier will man ja wissen, wie sich das Wetter an einem bestimmten Ort zu einer bestimmten Zeit entwickelt. Um dies genau vorher zu sagen, müsste man den Anfangszustand der Atmosphäre vor der Prognose so genau kennen, dass die weitere Entwicklung nach drei Tagen nicht mehr aus dem Ruder läuft. Denn der noch so kleinste nicht berücksichtigte Parameter im Anfangszustand kann eine Computervorhersage zu ganz anderen Ergebnissen führen.
 
Man sollte den Schmetterlingseffekt allerdings nicht allzu wörtlich nehmen und eher als eine Metapher begreifen. Bei den Auswirkungen der Kondensstreifen, die bei den Anfangsparametern einer Wetterprognose wohl nicht berücksichtigt werden können, bin ich mir da nicht so sicher, weil diese mit Sicherheit größere wettermäßige Effektivität besitzen, wenn sie sich zu Wolkenformationen auswachsen. Jedoch könnte wohl kein Meteorologe eine Kausalkette angeben, wie sich dieser Effekt so vergrößert, dass er tatsächlich einen Sturm auslöst- noch dazu mehrere tausend Kilometer entfernt. So wird wohl jeder Kondensstreifen mehr vom Wetter beeinflusst als das Wetter von einem Kondensstreifen.
 
 
Stopp für unsere Hochgeschwindigkeitsgesellschaft
 
Kein Jet mehr am Himmel! Keine Kondensstreifen
 
Hat dies Auswirkungen auf unser Wetter? Ja, vor allem bei klarem Himmel. Die Kondensstreifen hindern als künstlich generierte Wolken tagsüber die Sonne daran, ihre volle Strahlungskraft zum Boden durchzusetzen. Bei klarem Himmel wird es somit etwas wärmer. In der klaren Nacht ist es umgekehrt: Die fehlenden Kondensstreifen sorgen dafür, dass der Erdboden seine Wärme ungehindert abstrahlen kann. Es wird somit nachts etwas kälter als bei vorhandenen Kondensstreifen.
 
Bei der Diskussion um den vom Menschen mit verursachten Klimawandel kommt meines Erachtens der weltweit zunehmende Flugverkehr stets zu kurz. Ich will jetzt gar nicht auf die immensen Mengen von CO² in den Abgasen eingehen, die in wenigen Tagen durch die Jetstreams um den gesamten Globus verfrachtet werden. Bleiben wir bei den erwähnten Kondensstreifen.  Diese können sich ausweiten und zu regelrechten Wolken werden und das Sonnenlicht abschwächen, denn Kondensstreifen sind ja im Prinzip Wolken. Sie gleichen in ihrer Struktur den Zirruswolken, die sich in Höhen zwischen 6 und 10 Kilometern bilden. Dort oben herrschen Temperaturen um minus 40 Grad, so dass der Wasserdampf in den Abgasen von Düsenflugzeugen unmittelbar zu Eiskristallen gefriert. Die dazu nötigen Kondensationskeime liefert der Jet in Gestalt von feinen Russpartikeln gleich mit.
 
Dadurch wird ein Flugzeug für uns erst sichtbar, das sonst nur ein winziger Punkt am Himmel wäre. Normalerweise lösen sich Kondensstreifen schnell wieder auf - ihre Lebensdauer beträgt meist nicht mehr als ein paar Minuten. Wenn allerdings die Luft in dieser Höhe mit Feuchtigkeit schon fast gesättigt ist, bleiben die Kondensstreifen länger bestehen. Sie gehen in die Breite und sind als feine Schlieren am Himmel sichtbar. Langlebige Streifen sind also ein Zeichen für hohe Luftfeuchtigkeit und damit in gewisser Weise auch ein Zeichen für eine bevorstehende Wetterverschlechterung.
 
Die Wasserdampfmenge, die ein Flugzeug ausstößt, ist allerdings gering im Vergleich zu dem, was eine normale Wolke an Wasser enthält. Trotzdem können die Flugzeugabgase zur Wolkenbildung beitragen. Die Partikel, die aus dem Triebwerk strömen, können nämlich auch den schon vorhandenen Wasserdampf zum Kondensieren bringen. So kann aus einem schmalen Kondensstreifen eine regelrechte Wolke entstehen, die eine recht große Fläche überstreicht. Inzwischen ist längst nachgewiesen worden, dass es in den großen Flugkorridoren tatsächlich einen höheren Grad an Bewölkung gibt. Der Mensch verändert somit gebietsweise die Strahlungsbilanz der Sonne durch den Flugverkehr, was Auswirkungen auf Wettererscheinungen haben kann. Manchmal nimmt das Wettergeschehen nämlich einen ganz anderen Verlauf, wenn die Ausgangsbedingungen nur ein bisschen verändert werden. Wenn dies nach der "Chaostheorie" bereits durch den Flügelschlag einer Möwe oder sogar vielleicht bereits durch den eines Schmetterlings bewirkt werden kann, dann doch wohl erst recht durch einen sich zur Wolke auswachsenden Kondensstreifen.
 
 
Galileo -  Thermometer
 
Der Physiker Galileo Galilei (1564-1642) stellte fest, dass sich bei verschiedenen Temperaturen die Dichte von Flüssigkeiten verändert. Auf diesem Prinzip sind die ihm zu Ehren benannten Galileo-Thermometer aufgebaut.
 
Das Thermometer besteht aus einem mit einer Flüssigkeit gefüllten Glaszylinder. In der Flüssigkeit schwimmen oder schweben mehrere kugelförmige Glaskörper. Die Flüssigkeit des Glaszylinders reagiert auf Änderungen der Temperatur  mit Änderung der Dichte. Steigt die Temperatur, verringert sich die Dichte der Flüssigkeit. Somit nimmt der Auftrieb  der Glaskörper ab. Schwebende Glaskörper sinken herab, schwimmende Glaskörper beginnen zu schweben. Ein Glaskörper schwebt, wenn sein Gewicht genau so groß ist wie das der durch ihn verdrängten Flüssigkeitsmenge. Die Gewichte der Glaskörper sind auf die temperaturabhängigen Dichteänderungen der Flüssigkeit so abgestimmt, dass jeweils die untere der oben schwimmenden Glaskugeln die aktuelle Temperatur anzeigt. Die Herstellung dieses Instrumentes ist äußerst aufwendig. Jede Glaskugel wird genau kalibriert. Die Gewichtsdifferenz von Kugel zu Kugel beträgt normalerweise etwa 1 bis 2 tausendstel Gramm.
 
Für gewöhnlich befinden sich fünf bis zehn Glaskörper in Kugelform im Zylinder. Der Messbereich beträgt üblicherweise 18 °C bis 28 °C. Die Kugeln teilen den Messbereich entweder in Abstände von 1 °C oder 2 °C auf. Damit lassen sich Temperaturänderungen zwischen 0,5 und 1 Grad ablesen.
 
Nochmals: Die Temperatur wird von jener Kugel abgelesen, die von der oben schwimmenden Gruppe die unterste ist. Wenn sich zum Beispiel drei Glaskörper, 28 ºC (obere Kugel), 26 ºC (mittlere) und 24 ºC (untere Kugel) oben befinden, ist es 24 ºC warm. Würde aber die Kugel mit z.B. 24 ºC zwischen der oberen und unteren Gruppe berührungslos schweben, wären es etwa 25 ºC. Würde die Kugel mit 26 ºC schweben, wären es etwa 27 ºC, usw. Die Temperaturangaben - so meine langjährige Erfahrungen mit einem XL* Galileo Thermometer - sind äußerst präzise und können sich mit jedem herkömmlichen Qualitäts- Thermometer messen. Es kann auch vorkommen, dass Kugeln sich untereinander verhängen und nicht aufsteigen oder (seltener) absteigen können. In diesem Fall muss das Thermometer nur etwas mit den Fingern angeklopft werden.
 
Die Zusammensetzung der Flüssigkeit wird in der Regel nicht bekannt gegeben, besteht aber im Allgemeinen aus verschiedenen Ölen, also Kohlenwasserstoffen. Sie ist weder giftig noch aggressiv. Wenn ein solches Thermometer zerbricht, reinigen Sie sofort die betreffenden Stellen mit Wasser, da sonst Flecken zurück bleiben können. Falls die Flüssigkeit mit der Haut in Kontakt kommt, spülen Sie diese einfach mit Wasser und Seife ab. Die Flüssigkeit innerhalb einer Glaskugel kann gefärbtes Wasser sein oder Alkohol enthalten.
 
Das Thermometer ist natürlich leicht träge, weil die Flüssigkeitstemperatur nur langsam den Änderungen der Lufttemperatur folgt. Verschiedene Hersteller bieten diese Thermometer als Zimmerdekoration an.
 
* Ein XL Galileo- Thermometer mit einer Länge von 65 cm besitzt 11 Glaskugeln für den Messbereich von 18 bis 28 Grad C. Damit lassen sich Temperaturänderungen von 0,5 Grad beobachten.
 
Unser großer Luft- Ozean (1)
 
Wetter ist das, was wir jeden Tag erleben. Klima ist die Summe aller Witterungsverläufe über eine bestimmte Zeitspanne, und zwar entweder für eine bestimmte Region oder für unseren Planeten als ganzes. Dies alles wird in unserer Erdatmosphäre hervorgerufen.
 
DIE ATMOSPHÄRE UNTERGLIEDERT SICH in vier verschiedene Schichten. Jene unterscheiden sich durch ihre jeweilige Temperatur und die Richtung ihres Temperaturverlaufs. Der unterste Bereich der Atmosphäre  heißt Troposphäre. Ihr Name bedeutet "Sphäre, in der umgewendet wird". Sie hat diesen Namen erhalten, weil die vertikale Durchmischung der Luft für sie charakteristisch ist. Die Troposphäre reicht durchschnittlich bis in 12 km über der Erdoberfläche. Sie enthält bereits 80 % aller atmosphärischen Gase. Dabei ist nur ihr unteres Drittel, das schon die Hälfte aller Gase in der Atmosphäre enthält, der Teil, den wir atmen können.
Das Entscheidende an der Troposphäre ist, dass ihr Temperaturverlauf "auf dem Kopf steht": An der Erdoberfläche ist sie am wärmsten und nach oben kühlt sie sich um 6,5°C pro Kilometer Höhenunterschied ab. Man könnte ja erwarten, dass die Luft dort am wärmsten ist, wo sie der Sonne am nächsten kommt. Aber so ist es nun mal nicht, und gerade deswegen wird die gründliche Durchmischung der Troposphäre hervorgerufen. Schließlich steigt warme Luft nach oben.
Die Troposphäre besitzt noch eine Besonderheit, deren sich viele Menschen gar nicht bewusst sind: Sie ist der einzige Bereich der Atmosphäre, dessen durch den Äquator getrennte nördliche und südliche Hälften sich kaum durchmischen. Die Bewohner der Südhalbkugel leiden somit unter weniger Luftverschmutzung als die Menschen auf der stärker bevölkerten Nordhalbkugel. Der Blick zum Horizont und zum Sternenhimmel ist auf der Südhalbkugel weniger eingeschränkt als in der nördlichen Hemisphäre. (!)
 
Die Tropopause trennt die Troposphäre von der darüber liegenden Stratosphäre. Im Gegensatz zur Troposphäre wird die Stratosphäre mit zunehmender Höhe immer wärmer. Das liegt am Ozongehalt der oberen Stratosphäre. Ozon fängt die Energie des ultravioletten Lichtes ein und strahlt sie als Hitze wieder ab. Da sie nicht von aufsteigender warmer Luft durchmischt wird, ist die Stratosphäre deutlich geschichtet und starke Winde zirkulieren darin.
 
Etwa 50 km über der Erdoberfläche folgt die Mesosphäre. Sie ist mit - 90° C der kälteste Bereich der Gesamtatmosphäre. Darüber schließt sich noch die letzte Schicht der Atmosphäre an, bestehend aus einem sehr dünnen Gas. Man nennt sie Thermosphäre. Dort können Temperaturen von 1000°C erreicht werden, aber weil die Gase so hauchfein verteilt sind, ist jene Temperatur nicht echt fühlbar.
 
UNSER GROßER LUFTOZEAN setzt sich zu 78 % aus Stickstoff, zu 20,9 % aus Sauerstoff und zu 0,9 % aus Argon zusammen. Diese drei Gase machen über 99,95 % der Luft aus, die wir atmen. Hinzu kommt, dass diese Luft Wasserdampf aufnehmen kann. Aber diese Fähigkeit hängt von ihrer Temperatur ab. Je höher sie ist, desto mehr Wasserdampf kann darin enthalten sein. Im Durchschnitt besteht das, was wir bei 25 Grad einatmen, zu 3 % aus Wasserdampf.
Dürfen wir nun das verbleibende Zwanzigstel von einem Prozent, das sich noch in den erwähnten Gasen der Atmosphäre befindet, vernachlässigen oder einfach unter den Tisch fallen lassen? Nehmen wir zum Beispiel das Ozon. Seine Moleküle setzen sich aus drei Sauerstoffatomen zusammen. Diese sind selbst im Rahmen dieser winzigen Minderheit von "Spurengasen" ziemlich selten. Ozon macht nur zehn von einer Million Molekülen aus, die in den Strömungen unseres Luftozeans umgewälzt werden. Jedoch ohne den Schutzeffekt jener zehn Moleküle pro Million würden wir bald erblinden, an Krebs sterben oder eine ganze Reihe anderer Probleme bekommen.
Ebenso wichtig für unser Fortbestehen sind die Treibhausgase, von denen CO2 das häufigste ist. Weniger als vier von 10.000 Molekülen in unserer Atmosphäre sind davon vorhanden, doch spielt dieses Gas eine entscheidende Rolle dabei, uns vor dem Erfrieren zu schützen, und gerade weil es so rar ist, genauso vor einer Überhitzung zu bewahren. (623 Wörter)
 
Unser großer Luft- Ozean (2)
 
TREIBHAUSGASE haben eine große Macht über die Temperaturverhältnisse auf einem Planeten. Die Atmosphäre der Venus besteht zu 98 % aus CO2. Ihre Oberflächentemperatur beträgt ca. 470° C. Sollte Kohlendioxid einmal einen Anteil von nur 1 % in unserer Atmosphäre erreichen, würde die Oberflächentemperatur der Erde nahe an den Siedepunkt kommen. CO2 ist das häufigste der Spuren- oder Treibhausgase auf unserem Planeten. Es entsteht, wenn wir etwas verbrennen oder wenn etwas sich zersetzt.
 
Seit den fünfziger Jahren des vorigen Jahrhunderts hat der Wissenschaftler Charles Keeling regelmäßig den Mount Mauna Loa auf Hawaii bestiegen, um dort möglichst ohne irgendeine Verfälschung die CO2- Konzentration in der Atmosphäre zu messen. Aus seinen Werten entwickelte er eine grafische Darstellung, die Keeling -Kurve. In ihr kann man entdecken, dass unser Planet "atmet". In jedem Frühling auf der Nordhalbkugel, wenn die sprießenden Pflanzen unserer Lufthülle CO2 entziehen, beginnt das große Einatmen unserer Erde. Die CO2 - Konzentration geht zurück. Wenn dann im Herbst die Zersetzung CO2 erzeugt, kommt es zum "Ausatmen", das die Luft wieder mit CO2 anreichert.
 
KEELING ENTDECKTE aber noch etwas anderes: dass nach jedem Ausatmen ein bisschen mehr CO2 in der Erdatmosphäre war als bei dem davor. Jene kleinen Spitzen in der Keeling -Kurve sind ein Hinweis darauf, dass der CO2 - Gehalt unserer Atmosphäre langsam, aber stetig und regelmäßig ansteigt. Wenn man den Verlauf der stetig ansteigenden Kurve in die Zukunft verlängert, könnten wir im 21. Jahrhundert eine Verdopplung des bisherigen CO2- Gehalts erleben. Wir hätten dann einen Anstieg von drei Molekülen pro 10.000 Moleküle zu Beginn dieses Jahrhunderts auf sechs pro 10.000 Moleküle am Ende des Jahrhunderts. Darin steckt das Potenzial der Erwärmung unseres Planeten um drei Grad, evtl. auch noch darüber.
 
Als den Wissenschaftlern erstmals klar wurde, dass der CO2- Gehalt der Atmosphäre etwas mit einer Klimabeeinflussung zu tun hat, entstand zunächst einmal eine große Verwirrung.
 
(Zitat) "Sie wussten, dass CO2 nur Strahlung mit einer Wellenlänge von mehr als rund zwölf Mikrometern (ein menschliches Haar ist rund 70 Mikrometer dick) und dass schon eine kleine Menge des Gases sämtliche Strahlung in diesem Bereich einfängt. (…) Darüber hinaus ist das Gas so selten, dass es unscheinbar schien, es könne das Klima eines ganzen Planeten ändern.
 
VIELE WISSENSCHAFTLER MACHTEN SICH DAMALS NICHT KLAR, dass, bei sehr niedrigen Temperaturen - beispielsweise über den Polen und weit oben in der Atmosphäre -, mehr Energie jener Wellenlängen unterwegs ist, die CO2 am effizientesten absorbiert. Noch wichtiger war die Entdeckung, dass CO2 allein weniger für den Klimawandel verantwortlich ist, sondern als Auslöser für das potenteste Treibhausgas, Wasserdampf, dient. Und zwar, indem es die Atmosphäre nur ein wenig erwärmt, was es dieser aber ermöglicht, mehr Feuchtigkeit aufzunehmen und zu speichern, die in der Folge die Atmosphäre weiter aufheizt. So kommt es zu einer positiven Rückkopplungsschleife, die die Temperatur unseres Planeten immer weiter in die Höhe schraubt. Wasserdampf ist zwar ein Treibhausgas, zugleich ist er aber auch, was den Klimawandel angeht, ein großes Rätsel, denn er bildet Wolken, und Wolken können sowohl Licht reflektieren als auch Wärme festhalten. Indem sie mehr Wärme einsammeln als sie Licht reflektieren, tendieren hohe, dünne Wolken dazu, den Planeten aufzuheizen, während tiefe, dicke Wolken das Gegenteil bewirken. Kein anderer einzelner Faktor birgt mehr Unsicherheiten, was Vorhersagen des künftigen Klimawandels angeht". ("Wir Wettermacher", Tim Flannery, S. 49/50). Zitat Ende
 
DAS CO2 IN UNSERER ATMOSPHÄRE hat zwar noch einen verschwindend kleinen Anteil und seine Kapazität, Wärmeenergie zu binden, ist nur gering, aber es hält sich sehr lange dort oben. Rund 56 % von allem CO2, das Menschen durch Verbrennungsprozesse je freigesetzt haben, sind  noch über uns vorhanden, und sie sind direkt wie indirekt - die Ursache für rund 80 % aller globalen Erwärmung. Ein uns stets bekannter Anteil von CO2 verbleibt somit sehr langfristig in unserer Atmosphäre. Wir kennen ihn und sind damit in der Lage, wenn auch mit gerundeten Werten, ein Kohlenstoff-Budget für die Menschheit zu berechnen. (647 Wörter)
       
 
Unser großer Luft- Ozean (3)
 
Die Temperaturen im Weltraum sind mit rund -270°C recht frisch. Unsere Sonne sorgt mit ihrer Strahlung als Energielieferant jedoch dafür, dass auf unserer Erde keine eisigen Weltraumtemperaturen herrschen. Sehr wichtig für unsere Lebensmöglichkeiten hier ist jedoch die Tatsache, dass ein Gleichgewicht von Ein- und Ausstrahlung herrscht, denn ansonsten  würde unser Planet entweder immer heißer, bis er sich auflöst, oder immer kälter, bis er als ein riesiger Schneeball enden würde.
 
WENN ES BEI UNS AN DER ERDOBERFLÄCHE ein reines Strahlungsgleichgewicht gäbe, dann lässt sich theoretisch errechnen, dass unsere Erde eine durchschnittliche Oberflächentemperatur von -18°C haben müsste. Das wäre für uns ein ziemlich lebensfeindlicher Umstand. Die durchschnittliche Erdoberflächentemperatur beträgt jedoch glücklicherweise +15°C und liegt damit 33 Grad  über dem Wert des reinen Strahlungsgleichgewichts. Es sind genau diese 33 Grad, die man als den natürlichen Treibhauseffekt bezeichnet. Und dieser schafft erst die Voraussetzungen für Leben, wie wir es kennen. Über die dafür verantwortlichen Treibhausgase habe ich Ihnen bereits an dieser Stelle berichtet. Zu CO2 und Ozon kommen aber noch andere hinzu: Das wichtigste ist der Wasserdampf (damit hörte mein voriger Beitrag auf), dann noch das Lachgas oder Di- Stickstoffoxid (N2O), das Methan (CH4) und die ausschließlich von uns Menschen produzierten Fluorchlorkohlenwasserstoffe (FCKW). Sie alle haben die Eigenschaft, die eingehende kurzwellige Sonnenstrahlung relativ ungehindert passieren zu lassen, langwellige Strahlung, die von der Erde her kommt, jedoch zu absorbieren. Dabei erwärmen sie sich und senden ihrerseits wieder langwellige Wärmestrahlung aus. Auf diese Weise kommen die vorhin genannten 33 Grad zustande.
Für 21 der 33 Grad ist allein der Wasserdampf verantwortlich, für 7 Grad das Kohlendioxyd und für die restlichen 5 Grad alle übrigen Gase. Wenn man sich in Erinnerung ruft, dass unsere Atmosphäre zu über 99 % aus Stickstoff und Sauerstoff besteht, bleibt für die restlichen Gase kein großer Anteil mehr übrig. Deshalb nennt man sie ja auch "Spurengase". Trotz ihrer geringen Konzentration besitzen aber gerade jene Gase im energetisch wichtigen Bereich des Spektrums eine große Emission und Absorption und sind deshalb für Temperaturänderungen sehr von Bedeutung. Sie sind es, welche den Wärmestau von 33 Grad auf unserer Erde bewirken. Man vergleicht ihn oft mit einem gläsernen Treibhaus, bei dem das Glas die kurzwellige Sonneneinstrahlung zwar durchlässt, die langwellige Wärmestrahlung aber  zurückhält. Den Begriff "Treibhaus" sollte man jedoch nur als Metapher verwenden, denn unsere Lufthülle hat schließlich kein Glasdach und ein Lufttransport aus dem "Treibhaus" ist jederzeit möglich.
 
DER MENSCH - und das nennt man den anthropogenen Treibhauseffekt - verstärkt den natürlichen Treibhauseffekt vor allem durch das Freisetzen großer CO2 - Mengen. Den Beginn kann man etwa um 1800 zurzeit der Industriellen Revolution ansetzen. Dieses Kohlendioxid hält sich über Jahrzehnte in der Atmosphäre. So hat sich seine Konzentration von  0,028 % in der vorindustriellen Zeit auf 0,038 % heute erhöht. Die Ozeane haben glücklicherweise gut 30 % unseres Kohlendioxids aufgenommen und damit verhindert, dass die Konzentration in der Atmosphäre noch schneller steigt. Nachteil: Unsere Ozeane werden dadurch immer sauerer (Kohlensäure), was z.B. die Korallen schädigt. Die Vegetation nimmt ebenfalls eine Menge dieses Gases auf, denn die Pflanzen benötigen es zur Photosynthese, ohne die wir keinen Sauerstoff zum Atmen hätten.
       
CO2 ist für das Leben auf der Erde also enorm wichtig. In den letzten 100 Jahren kann man einen deutlichen Temperaturanstieg auf der Erde feststellen. Er deckt sich übrigens gut mit einer Zunahme der Sonnenaktivität in jener Zeit. Zwischen 1940 und 1970 gingen die Temperaturen wieder etwas zurück, vornehmlich durch den vermehrten Aerosoleintrag (Staub oder Ruß) in unserer Atmosphäre. Danach stiegen die Temperaturen durch industrielle Maßnahmen der Luftreinigung wieder an. Eine neuerliche Änderung der Sonnenintensität konnte jedoch nicht nachgewiesen werden, und so gilt der Mensch für die Änderungen des Klimas der letzten 30 Jahre als in erheblichem Maße (mit)verantwortlich. Die Wissenschaft geht inzwischen von einer Wahrscheinlichkeit von  über 90 % aus und derzeitige Klimaprojektionen  bestätigen den Fortgang dieser Entwicklung. (638 Wörter)
 
Ende des Dreiteilers (1.915 Wörter)
 
 
Wird weiter fortgesetzt. Letzte Aktualisierung: 1. Mai 2013
 
 
Bitte bestätigen Sie den Besuch dieser Webseite! hier
 
 
 
Hier geht es zu meiner eigenen Wetterbibliothek