RL-Rational

Gott hat uns den Verstand gegeben, aber nicht verboten ihn zu benutzen!

Der Golfstrom (AMOC) versiegt bald! – Wirklich?

Man wird immer wieder überrascht, auch wenn man sich seit über 20 Jahren intensiv mit dem Klimawandel beschäftigt hat.

Bisher waren Kipp-Punkte im Klimageschehen als unwahrscheinlich oder zumindest nicht in nächster Zukunft von einigen Klimaforschern angekündigt worden.

Dazu gehörte auch der Kipp-Punkt der Atlantischen Oszillation (AMOC Atlantic Meridional Overturning Circuit, siehe Abbildung 1). Ein Teil dieser Meeresströmung bei uns im Norden ist auch als Golfstrom bekannt und beschert uns das relativ milde Klima. Ein Abebben desselben würde unser Klima extrem beeinflussen und zu erheblichen niedrigeren mittleren Temperaturen bei uns in der Größenordnung um -10° führen.

Abbildung 1 AMOC (rote Linie nach Norden, Europa)

https://science.nasa.gov/earth/earth-atmosphere/slowdown-of-the-motion-of-the-ocean

Der „Golfstrom“ wird erhalten durch das sehr salzhaltige Wasser an der Oberfläche, das beim Abkühlen im Norden noch einen höheren Salzgehalt erhält und dann auf Grund des höheren Gewichts als das darunter liegende Tiefenwasser absinkt. Dieses kalte Wasser fließt dann zurück nach Süden und erhält den Kreislauf.

Durch Süßwasser Einträge durch im wesentlichen Abschmelzen des Eisschildes Grönlands, so ist die Meinung, wird der Salzgehalt verdünnt bis im Extremfall der AMOC unterbrochen wird!

Im Spiegel Online vom 10.02.2024 (ähnliches auch im Guardian und einer Vielzahl anderer Medien) steht:

Mithilfe komplexer und teurer Computersysteme hätten die Wissenschaftler erstmals ein Frühwarnsignal entwickelt, heißt es in den Berichten, um einen möglichen Zusammenbruch dieses Systems zu erkennen. Und: Es gebe bereits Anzeichen dafür, dass es genau dazu in kürzerer Zeit kommen werde.

Unklar ist noch der genaue Zeitpunkt. Aber wir können zumindest sagen, dass wir uns auf den Kipppunkt des Klimawandels zubewegen, wird Hauptautor René van Westen, Meeresforscher an der Universität Utrecht, zitiert. Was uns überrascht hat, war die Geschwindigkeit, mit der der Umschwung eintritt, sagt er. Es wird verheerend sein.“  

Im Fokus online vom 14.02.2024 steht: „Ein neues Klimamodell sagt voraus, dass der Klimawandel schon bald zum Zusammenbruch bestimmter Meeresströmungen im Atlantik führen könnte. Niederländische Forscher haben in diesem Zusammenhang die Auswirkungen der globalen Erwärmung auf die Atlantische Meridionale Umwälzströmung (AMOC) untersucht.“

Diese Aussage hat mich nun wirklich sehr überrascht! Aber was soll man hier zunächst entgegenhalten? Es waren schließlich Berechnungen durch Modelle mit „komplexen und teuren Computersystemen“.

Wenn dann noch ein bekannter Klimaforscher vom Potsdamer Institut für Klimafolgenforschung dazu sagt, diese Veröffentlichung ist ein großer Fortschritt (gleicher Artikel im Spiegel), dann wird es schwierig, dem Ergebnis etwas entgegenzuhalten:

Stefan Rahmstorf, physikalischer Ozeanograf an der Universität Potsdam in Deutschland, der nicht an der Studie beteiligt war, bezeichnete die Forschungsergebnisse als großen Fortschritt. » Sie bestätigt, dass die AMOC einen Kipppunkt hat, über den hinaus sie zusammenbricht, wenn der Nordatlantik mit Süßwasser verdünnt wird «, bei CNN zitiert. “

Frühere Studien, in denen der Kipppunkt der AMOC gefunden wurde, hätten viel einfachere Modelle verwendet, sagte Rahmstorf. Dies habe einige Wissenschaftler zu der Hoffnung veranlasst, dass dieser Kipppunkt in komplexeren Modellen nicht gefunden werden könnte. Die neue Studie aus den Niederlanden mache diese Hoffnungen zunichte.“

Dieser Artikel sollte uns alle wieder einmal gewaltig ängstigen, damit wir ja nicht am Alarmistische Klimawandel zweifeln.

Nun wollte ich es doch nicht so einfach akzeptieren, und das machen, was ich immer bei dieser Art Alarmistischen Artikeln mache, ich frage mich, gibt es hierzu Messungen, die diese Modelle bestätigen und vor Allem unter welchen Voraussetzungen wurden die Modelle berechnet, welche Parameter wurden eingesetzt.

Abbildung 2: Messung der AMOC bei 26 Grad Nord in Sv=10^6 m^3 / sec als Funktion der Zeit von 2004 bis 2022

Zunächst einmal: Aussagekräftige Messungen zur Unterstützung der Ergebnisse dieser neuen Veröffentlichung gibt es nicht!! Abbildung 2! Offensichtlich gab es seit 2010 keine Abnahme dieser Meeresströmung.

Der Parameter im Modell für die Bestimmung des Kipping Punktes war die Eintragung der Menge an Süßwasser in den Atlantik in der nördlichen Hemisphäre, im Wesentlichen durch hypothetisch angenommenes Schmelzwasser pro Jahr des Grönländischen Eisschildes, ohne weitere Klimabetrachtungen.

Bei diesen Überlegungen bin ich im Internet auf den Artikel von Willis Eschenbach gestoßen, der eine überzeugende, leicht satirische Abhandlung geschrieben hat, die ich gerne aufgenommen habe.

(https://wattsupwiththat.com/2024/02/11/tipping-is-optional/)

Im Folgenden gebe ich seine Überlegungen, denen ich mich anschließe, hier wieder.

Beginnen wir mit der Definition der Einheit Sverdrup für Volumenströme bei Ozeanströmungen

1 Sverdrup = 1 Sv = 10^6 m^3 / sec = 1 Million Kubikmeter pro Sekunde.

Sie ist die im Folgenden gebrauchte Einheit!

Als nächstes analysieren wir in der nächsten Abbildung 3 aus der Veröffentlichung von Van Westen et al deren Ergebnis.

Abbildung 3: Volumentransport der AMOC als Funktion der Modelljahre (Abszisse unten) und Eintrag an Süßwasser (Abszisse oben) in Sverdrup Sv

Man sieht, dass im Modelljahr 1758, entspricht gemäß unserer Zeitrechnung

AD 1758 + 2024 = AD 3782,

ein Kipppunkt erreicht wird, ab dem dann innerhalb kurzer Zeit von ca. 50 Jahren der AMOC zusammenbricht und versiegt.

Soweit so richtig und keine guten Zukunftsperspektiven. Immerhin, ein Zusammenbruch nicht in den nächsten Jahrzehnten wie Spiegel und die anderen Zeitschriften behaupten, sondern in 17 Jahrhunderten!

Hat denn keiner der Redakteure den Artikel in ScienceAdvances überhaupt gelesen oder verstanden!?

Aber wir sind mit der Berichterstattung noch nicht fertig!

Wie realistisch ist denn der Parameter des Süßwasser Eintrags in den Modellrechnungen!?

Nun eine einfache Überlegung und Rechnung zeigt:

In den 1758 Modelljahren bis zum Kipppunkt wurden von 0,1 Sv zu Beginn gesteigert auf

ca. 0,56 Sv, also im Mittel die Hälfte 0,28 Sv Süßwasser im AMOC eingetragen, also

0,28*10^6 m^3/sec über alle 1758 Modelljahre.

Das ergibt also, da 1 Jahr 31,536 Millionen Sekunden hat, die gewaltige Summe von

0,28*10^6/sec*31,536*10^6 sec*1758m^3*10^ (-9) km^3/m^3

Das sind 15,523 Millionen km^3 an Süßwasser Eintrag!!

Womit könnte man das vergleichen?

Das Süßwasser muss im Wesentlichen durch das Schmelzwasser des grönländischen Eisschildes kommen. Dieses beträgt 2,8 Millionen km^3!!

Die Autoren haben also das 5 1/2 – fache an Süßwasser Eintrag in ihren Modellen angenommen, um zu ihrem Ergebnis zu kommen! Mehr als überhaupt vorhanden ist!!!

Das nordpolare Meereis beträgt übrigens nur 23.000 km^3, kann also auch nicht merklich zum Süßwasser Eintrag beitragen.

Und das alles sollen die Autoren oder die Wissenschaftler – auch die vom PIK – oder die Wissenschaftsredakteure nicht bemerkt oder schlimmer nicht verstanden haben!

Aber Hauptsache man hat wieder eine Alarmistische Klimameldung!

Artikel als PDF:

Filed under: Klima, Meeresspiegel, Wissenschaft, , , , ,

Folgt der Wissenschaft, aber mit Realitätssinn – Drei einfache Überlegungen zur Klimazukunft

Dr. Rainer Link, Physiker

Im Februar 2023

In diesem Artikel sollen 3 Aspekte zur zukünftigen Entwicklung des Klimas vorgestellt werden:

Dies unter dem Motto KISS, Keep it Short, Simple, also kurz und bündig, verständlich.

Es werden natürlich keine aufwändigen Klimamodelle berechnet. Sie sind in diesem Zusammenhang viel zu kompliziert, Außerdem stehen mir keine entsprechenden Computer zur Verfügung. Selbst die größten brauchen Wochen – oder monatelang für nur eine Klimawandelberechnung.

Klimamodelle liefern wegen der zugrundeliegenden Gleichungen – gekoppelte nichtlineare Gleichungen – wie beim Wetter zu sehen chaotische Ergebnisse.

Siehe auch Klimawandel – Eine rationale Bewertung | RL-Rational (wordpress.com)

Deshalb werden diese auch nicht mehr als Prognosen, sondern als Möglichkeiten bezeichnet. Insofern können sie auch sehr nützlich sein, kann man durch Variation der Anfangsparameter durchaus erkennen wie das Klima darauf reagieren könnte. Die Klimamodelle können jedoch keineswegs als direkte Handlungsanweisungen für die Politik gelten.

Trotzdem gibt es für plausible Überlegungen einfache grundlegende naturwissenschaftlich anerkannte Beschreibungen. Man ist durchaus den Ergebnissen der alarmistischen Klimawissenschaftler und ihren Modellen nicht hilflos ausgeliefert!!

Um das Ergebnis vorweg zu nehmen, das Ergebnis wird sein:

Es gibt keinen Anlass für eine Klimapanik!!!

Natürlich ist mir bewusst, dass der Mensch durch seine Emission von Kohlendioxid CO2, Methan CH4, durch Abholzung, Bodenversiegelung zur globalen Erwärmung beiträgt und das Klima verändert. Welcher Physiker bei Verstand würde dies bestreiten!

Und selbstverständlich müssen wir die anthropogene Emission von CO2 dauerhaft reduzieren, aber dies doch ohne panikartige Aktionen binnen kürzester Zeit, ohne neue Energieoptionen technisch zuverlässig installiert zu haben. Panik war noch nie ein guter Ratgeber!!

Die Frage ist, ob die von vielen Klimatologen proklamierte Prophezeiung eines zu erwartenden Klimaalarms mit derzeitigen panikartigen Reaktionen von Politik und Bevölkerung mit der Wirklichkeit realistisch übereinstimmen kann – was in der Tat leider nicht der Fall ist, nicht sein kann!!

Folgt der Wissenschaft, aber man beachte auch das Kleingedruckte, nicht sauber veröffentlichte, was verschwiegen wird, die Bandbreite der Ergebnisse und die Annahmen zur Berechnung!!

Im ersten Kapitel (1) soll der Frage nachgegangen werden, wie lange hält sich das von den Menschen (anthropogen) heute emittierte Kohlendioxid CO2 in der Atmosphäre. Wie groß ist seine sogenannte Lebensdauer (tau) bis es um einen Faktor 1/e = 0,368 abgenommen hat.

Im zweiten Kapitel (2) wird mit ebenso einfachen Überlegungen die Frage beantwortet wie groß die Konzentration von CO2 in der Atmosphäre werden kann, wenn man die gemessene anthropogene Emission fossiler Brennstoffe für die Energiegewinnung als Basis nimmt.

Und im dritten Kapitel (3) soll mit den Werten der in den beiden bisherigen Kapiteln gewonnenen Erkenntnisse anhand einer ebenso einfachen naturwissenschaftlich anerkannten Relation die zu erwartende zukünftige globale Temperaturentwicklung berechnet werden.

Anschließend werden diese Ergebnisse jeweils mit den aufwändigen Klimamodellen verglichen.

Zu (1):

Die Änderung einer Konzentration C von CO2 in der Atmosphäre durch anthropogene Emission hängt vom Zeitintervall dt und der Zeit t ab, dC(t)/dt, und zwar insofern als etwas in dieser Zeit hinzugefügt wird z. B. durch Emission pro Zeitintervall dE(t)/dt. Weiterhin nimmt die Konzentration C(t) in der Atmosphäre wieder ab durch Aufnahmen im Meer und Flora an Land mit der oben erwähnten Lebensdauer tau, nämlich -C(t)/tau. Insgesamt lautet die Bilanz also:

dC(t)/dt = -C(t)/tau + dE/dt           Gleichung (1)

Nun kann man mit den gemessenen Werten gemittelt über 10 Jahre von 2012 bis 2021 tau durch einsetzen berechnen:

Änderung von dC(t)/dt pro Jahr durch anthropogene Emissionen beträgt dC(t)/dt = 1,9  ppm/Jahr, 

C(t)= 123 = (403 -280) ppm  in der Atmosphäre (ppm=Anzahl CO2 Moleküle in 1 Million Luftmoleküle, 280 ppm ist der Gleichgewichts-Wert für die Konzentration von CO2 ohne anthropogene Emission),

Emission an CO2 dE(t)/dt = 34 Gigatonnen (Gt),

Die Lebensdauer tau für 2019 erhält man, wenn man noch den Umrechnungsfaktor von Gt CO2 in ppm CO2 einsetzt. 1Gt CO2 entspricht 0,128 ppm CO2 in der Atmosphäre. Somit:

1,9 ppm/Jahr = – 123 ppm/tau +34 Gt x 0,128/ Jahr= -123 ppm/tau + 4,35 ppm/Jahr

Auflösen nach tau ergibt

tau = 50 Jahre

Nach 50 Jahren ist also die anthropogen erzeugte Konzentration von CO2 in der Atmosphäre um den Faktor 0,368 reduziert worden, und dies um alle 52 Jahre entsprechend weiter, sofern nicht weiter emittiert wird.

Wie es bei konstanter CO2 Emission wie 2021 weitergeht wird im nächsten Abschnitt dargelegt.

Zu (2):

Gleichung (1) kann für die CO2 Konzentration als Funktion der Zeit C(t) mit dem konstanten in Kapitel (1) bestimmten tau und bei Annahme einer konstanten anthropogenen Emission dE(t)/dt = constant = Ec leicht gelöst werden. Das Ergebnis lautet:

C(t) = tau x Ec x (1 – exp(-t/tau))           Gleichung (2)

Dies ist in der folgenden Abbildung mittels Wolfram Algebra graphisch dargestellt (x=t in Jahren, y = CO2 Konzentration in ppm).

Der Grenzwert für die anthropogene CO2 Konzentration beträgt ca. 210 ppm. Addiert man noch den heutigen Wert von 403 ppm von dem wir ausgegangen sind, so erhält man 613 ppm als Grenzwert für die CO2 Konzentration der Atmosphäre bei derzeitiger und weiterhin konstanter anthropogener Emission von 34 Gt und Lebensdauer tau = 50 Jahre!

Dieses Ergebnis führt nun in der Tat nicht zu einem beunruhigenden Ergebnis.

Denn es führt uns zum sogenannten RCP 4.5 (RCP Representative Concentration Pathway, ICCP 5. Sachstandsbericht) Emissionsszenarium.

Dieses Bild hat ein leeres alt-Attribut; sein Dateiname ist folgt-der-wissenschaft-rcp.jpg

Es ist unter allen Emissionsszenarien wohl das wahrscheinlichste und führt etwa ab Mitte dieses Jahrhunderts zu einem Gleichgewicht der CO2 Konzentration. Die Bezeichnung RCP 4.5 bedeutet,  die Globale Erwärmung durch Treibhausgase entspricht 4.5 W/qm. Dabei wird angenommen, dass man bis Mitte 2060 eine deutliche Reduzierung der Emission an CO2 erreicht hat, allerdings durchaus noch nicht Netto Null!

Die extrem alarmistischen Modelle einiger Klimaforscher nehmen RCP 8.5 als Grundlage für ihre Rechnungen. Dieses RCP ist und wird im Allgemeinen als zu extrem und wegen der begrenzten Reserven an fossilen Brennstoffen als nicht erreichbar bezeichnet.

Auch RCP 6.0 wird in der Klimaforschung heute bereits als unwahrscheinliche Entwicklung angesehen, da dabei keine Reduktion der Emissionen in diesem Jahrhundert mehr erfolgt.

RCP 4.5 mit 550 ppm ist hingegen auch mit den Reserven an fossilen Brennstoffen von ca. 1250 Gt Kohlenstoff verträglich!

Deshalb sollten, nein müssen, die Klimaforscher bei ihren Ergebnissen unbedingt auch angeben, welche RCP sie für ihre Klimaberechnungen und Vorhersagen in ihren Modellen angenommen haben, was sie meistens nicht tun!!

Zu (3):

Nun kommen wir zu unserem dritten Kapitel. Was bedeuten unsere Ergebnisse aus den beiden ersten für die globale Temperaturentwicklung.

Hierbei beziehen wir uns als Grundlage auf eine Gleichung, die bereits Svante Arrhenius vor über 100 Jahren entwickelt hatte, die allgemein anerkannt ist. Selbst Hans-Joachim Schellnhuber vom PIK (Potsdamer Institut für Klimafolgenforschung) – bekannt als alarmistischer Klimaforscher – hat diese Gleichung in seinem Buch „Selbstverbrennung“ korrekterweise als richtig anerkannt.

Diese Gleichung lautet, die Klimawirksamkeit, d.h. der Treibhauseffekt von CO2 auf die Temperatur T ist proportional zum natürlichen Logarithmus seiner Konzentration C(t) in der Atmosphäre bezogen auf einen Referenzwert Co.

Delta T(t) = f x ln(C(t)/Co)               Gleichung (3)

Dabei ist f eine noch zu bestimmende Proportionalitätskonstante.

Nun wissen wir, dass die globale mittlere Temperatur seit der kleinen Eiszeit von 1900 bis 2021 um Delta T = 1,1°C gestiegen ist, gleichzeitig mit der CO2 Konzentration in der Atmosphäre von 280 ppm auf 400 ppm.

Nimmt man an, dass diese Temperatur zu 80% -entspricht ca. 0,9 °C- auf Grund der anthropogenen Emission von CO2 mit 20% natürlichen Beitrag zustande kam, was sehr wahrscheinlich und im Allgemeinen anerkannt ist, so kann man den maximalen Wert für die Proportionalitätskonstante f leicht bestimmen. f enthält auch sämtliche Ruckkopplungen durch die steigenden CO2 Konzentrationen, wie Wasserdampf, Wolken, etc….

f= 0,9°C/ln(400/280) = 2,52 °C

somit ergibt sich:

Delta T(t) = 2,52 x ln(tau x Ec (1- exp(-t/tau))+400)/280) °C

Die nächste Abbildung zeigt die zeitliche Entwicklung (x=t in Jahren, y=T in °C).

Die maximale sich einstellende Temperatur beträgt

Delta T(max, t>150 Jahre) = 2,0 °C

Also noch 1,1 Grad C von heute aus gerechnet (2.0-0.9) °C.

Wir werden dabei nicht „Selbstverbrennen“ oder verglühen!!

Auch sogenannte Kipppunkte, so sie denn überhaupt existieren, können dabei nicht erreicht werden. Allerdings sollte man ruhig und überlegt ohne Hast, die anthropogenen CO2 Emissionen bis Ende dieses Jahrhunderts deutlich verringern.

Dazu ist auch mit Techniken wie CCS (Carbon Capture and Storage), einfangen und sicheres Speichern von CO2 in tiefen Gesteinsformationen die weitere Nutzung auch fossiler Brennstoffe durchaus technisch bereits nachgewiesen möglich.

Es gibt keinen Klimaalarm! Keinen Grund für Panik! Aber durchaus Anlass für rationales Handeln!

Der geneigte Leser kann auch für einen anderen Anteil als 80% anthropogene Erwärmung den Faktor f bestimmen und wird dann eine entsprechende Erwärmung durch CO2 rechnerisch erhalten (siehe weiter unten).

Zum Abschluss soll auch der jetzt abgeleitete Wert von DeltaT(max) = 2.0 °C als Folge der anthropogenen Emission von CO2 für die zu erwartende globale mittlere Temperatur in 100 Jahren mit dem Wert des IPCC für RCP 4.5 verglichen werden:

Delta T(ICCP, RCP 4.5, t=Jahr 2100) = 1,8 °C (wahrscheinlichster Wert) mit einer Varianz von

Delta T (max) = (1,1 – 2,6) °C im Jahr 2100.

Die Übereinstimmung mit unseren einfachen Überlegungen auf der Basis der heutigen gemessenen Daten ist überzeugend!!

Geht man davon aus, dass von dem bisher seit dem Ende der Kleinen Eiszeit gemessenen Temperaturanstieg nur 50% statt 80% anthropogenen Ursprungs sind, was durchaus realistisch ist, die andere Hälfte natürlichen Ursprungs, so erhält man wie man leicht erkennt eine Grenztemperatur von nur noch

2,0 Grad C x 50%/80% = 1,25 Grad C,

also deutlich unter den im Pariser Vertrag geforderten 1,5 Grad C und dies bei gleichbleibenden Emissionen von 34 Gt CO2 pro Jahr wie heute. Annahme ist natürlich wie zuvor, dass die Lebensdauer tau bei 50 Jahren bleibt und nicht länger wird. Derzeit spricht jedoch nichts dagegen. Es gibt sogar physikalische und biologische Gründe, die in Zukunft für eine Verkürzung der Lebensdauer sprechen.

In diesen Überlegungen sind Veränderungen der Sonnenstrahlung und Sonnenaktivitäten, Sonnenflecken, nicht eingeschlossen. Viele Sonnenforscher gehen davon aus, dass die Anzahl der Sonnenflecken in den nächsten Fleckenmaxima in diesem Jahrhundert zurückgehen werden, was eine Reduktion der globalen Erdtemperaturen um zusätzlich ca. -0,5 °C bedeuten würde. Somit in jedem Fall also insgesamt eine Temperaturerhöhung in diesem Jahrhundert von unter 1,5 °C seit dem Ende der Kleinen Eiszeit um 1900.

Damit die letzte Generation wirklich die letzte sein wird, ist den Menschen eine wahrscheinlichere Möglichkeit als das Klima gegeben: z.B. ein Atomkrieg oder eine nicht beherrschbare Virusinfektion aus welchem Labor oder von welchem Tier auch immer.

Die Umweltverschmutzung z.B. mit Plastik, die Überfischung der Meere, die Ausbeutung aller Ressourcen, die unsere Erde bietet, sind Themen denen wir uns intensiv widmen müssen. Wir haben schließlich nur diese eine Erde! Der Mars ist mit Sicherheit keine Alternative für die Erdbevölkerung!

Damit zeigen auch diese einfachen Überlegungen:

ES GIBT KEINEN KLIMAALARM!!!

PDF hier:

Filed under: CO2 Emission, CO2 Konzentration, Klima, Kohlendioxid Konzentration, Wissenschaft, , , , , , ,

Klimawandel – Eine rationale Bewertung

Es ist üblich jegliche Wetterphänomene von zu kalt, zu warm, zu trocken, zu nass der bisher eingetretenen Klimaveränderung seit der Kleinen Eiszeit ab 1850 der anthropogenen, also der vom Menschen erzeugten Emission von Kohlendioxid zuzuschreiben.

Der trockene heiße Sommer 2022 und das fürchterlichen Hochwasser 2021 mit den dramatischen Zerstörungen und den mehr als 150 Toten in Deutschland tragen dazu bei, hierfür alleine den menschengemachten anthropogenen Klimawandel verantwortlich zu machen. Das ist angenehm, um anderweitige Versäumnisse im menschlichen Verhalten zu kaschieren, aber so einfach ist es denn doch nicht.

Mir ist natürlich bewusst, dass ich mich mit diesem Artikel einem gewaltigen Shitstorm im Internet, den Klimaalarmisten unter den Klimatologen sowie deren Anhänger aussetze.

Aber es ist ja derzeit noch nicht verboten, die sicher bisher vorhandenen klimatischen Veränderungen, vor Allem jedoch den zukünftig durch die Emission von CO2 zu erwartenden Klimawandel einer rationalen skeptischen naturwissenschaftlichen Bewertung zu unterziehen.

Unser Klima verändert sich seit es die Erde gibt. Normalerweise ist dies im Gegensatz zum Wetter nicht der Rede wert.

Klimawandel (Climate Change) ist heute hingegen in aller Munde: Gemeint ist ein vom Menschen im Wesentlichen durch den Verbrauch fossiler Brennstoffe hervorgerufener Klimawandel. Hierzu hat natürlich der heiße Sommer 2018 und 2022 beigetragen, der allerdings vom Sommer 2003 übertroffen wurde, sowie die Hochwasserkatastrophe 2021. Auch zuvor noch und zukünftig wird es heiße und auch heißere, trockenere und auch nassere Sommer geben. Auf der Erde wechseln sich seit Millionen Jahren Eiszeitalter und Warmzeitalter ab. Von Eiszeitalter spricht man, wenn wenigstens ein Erdpol mit Eis überzogen ist. Wir befinden uns also in einem Eiszeitalter. Innerhalb dessen gibt es Warm- und Eiszeiten, die sich in den letzten 800.000 Jahren mit einer Frequenz von 100.00 Jahren abwechselten (Milankovic Zyklen). Dabei betrugen die Warmzeiten innerhalb einer Periode nur 10.000-20.000 Jahren. Wir befinden uns seit 10.000 Jahren in der Holozän-Warmzeit.

Aus Eisbohrkernen auf Grönland (GISP 2) konnte man die Temperaturänderungen seit der letzten Eiszeit, die vor 10.000 Jahren zu Ende ging, nachvollziehen. Das Ergebnis ist in folgender Abbildung zu sehen. Im mittelalterlichen Klimaoptimum war es etwa so warm wie heute, dagegen wärmer im römischen Klimaoptimum oder gar im minoischen oder im Klima Optimum des Holozän vor 7.500 Jahren. Das Klima ist bei all diesen dramatischen Änderungen nicht gekippt.

Natürlich hat sich das Klima seit der Kleinen Eiszeit, die etwa 1850 zu Ende ging, geändert! Es ist um 1,1 Grad C wärmer geworden. Naturkatastrophen wie 2021 erlebte, könnten in Zukunft durchaus häufiger vorkommen. Aber aus diesem Jahrhundertereignis, die letzten dramatischen Überschwemmungen dieser Art an der Ahr fanden in Deutschland 1804 und 1910 statt, jetzt definitiv daraus zu folgern, dass derartige Ereignisse zum normalen Sommer gehören, ist zweifellos verfrüht und nicht begründet. Klima ist laut Definition die statistischen Wetterereignisse in einem Zeitraum von mindestens 30 Jahren!

https://de.wikipedia.org/wiki/Liste_der_Hochwasserereignisse_an_der_Ahr

Welchen Anteil natürliche Prozesse im Klima und welche menschlichen Einflusses sind, ist die Diskussion unter den Klimawissenschaftlern. Allgemein anerkannt wird, dass zwischen 50% bis 80% des Temperaturanstiegs von 1,1 Grad C anthropogen, also vom Menschen durch Treibhausgasemission von Kohlendioxid hervorgerufen wurde, der andere Anteil natürlichen Ursprungs ist. Klar ist, dass der Anstieg von 0,5 °C bis 1940 im Wesentlichen nicht durch menschliche Aktivitäten, Emission von CO2 durch Nutzung fossiler Brennstoffe, erzeugt worden sein kann. Genau so wenig wie die Abkühlung von 1950 bis 1979 durch den Anstieg von CO2 verantwortlich sein konnte. Damals haben die Klimatologen eine neue Eiszeit vorausgesagt. Auch die relative Stabilität der globalen Temperatur zwischen 2000 und 2015 erzeugte bei den Klimatologen Verwirrung.

Durch die Emission von CO2 wird die Konzentration des Treibhausgases CO2 in der Atmosphäre erhöht, die Erde wird wärmer, mehr Wasserdampf steigt in die Atmosphäre, der als stärkeres Treibhausgas den Effekt des CO2 Anstieges vervielfachen könnte. Atmosphärischer Treibhauseffekt eben!

Weiterlesen: PDF

Klicke, um auf klimawandel-eine-rationale-bewertung.pdf zuzugreifen

Filed under: CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , ,

CO2 Grenzwert in der Atmosphäre in Abhängigkeit von seiner Lebensdauer

Dr. Rainer Link, Physiker

Das von den Menschen anthropogen in die Atmosphäre im Wesentlichen durch Verbrennung fossiler Rohstoffe emittierte CO2 wird nach einer bestimmten Zeit durch Vegetation und Ozeane wiederaufgenommen. Die typische Angabe für die Verweilzeit ist die Lebensdauer, die Zeit in der die Konzentration um einen Faktor 1/e=0,3679 abgenommen hat.

Die Veränderung der Konzentration von CO2 wird beschrieben einmal durch diese Abnahme, die wie bei all diesen Vorgängen exponentiell verläuft und zum anderen der Emission pro Zeiteinheit in die Atmosphäre.

 dC(t)/dt = – C(t)/tau + dE/dt                                                                    (1)

Dabei ist tau die Lebensdauer von CO2 in der Atmosphäre und C(t) die von den Menschen (anthropogen) hervorgerufene zeitabhängige Konzentration. dC(t)/dt ist ihre zeitliche Veränderung.

-C(t)/tau ist die Abnahme der anthropogen verursachten Konzentrationsänderung von CO2 und dE(t)/dt der pro Zeiteinheit in die Atmosphäre emittierte Betrag.

Es werden hier nur die durch den Menschen verursachten Anteile berücksichtigt, die sich zusätzlich zur vorindustriellen Konzentration in Höhe von ca. 280 ppmV CO2 addieren. Dabei ist davonausgegangen, dass die vorindustrielle Konzentration einem Gleichgewichtszustand entsprach, in dem der natürliche Austausch von CO2 in der Atmosphäre im Wesentlichen mit der Vegetation und den Ozeanen erfolgte.

Die Lösung der Differentialgleichung (1) wird vereinfacht, wenn man annimmt,

dass die anthropogene Emission pro Zeiteinheit konstant gleich dE/dt=Ec ist, ebenso wie die Lebensdauer tau. Natürlich ist dies eine Näherung, die jedoch das Verhalten der Konzentration und wie man sehen wird, den Grenzwert qualitativ gut beschreibt.

Die Lösung der Gleichung (1) lautet:

C(t)=tau*Ec*(1-e-t/tau)                                                                                (2)

Die Emission Ec(t) von CO2 in die Atmosphäre beträgt seit Jahren 4,4 ppmV/Jahr.

Das IPCC gibt in seinem fünften Sachstandsbericht Werte für tau zwischen 30 und 100 Jahren an.

Der wahrscheinlichste Wert für Tau beträgt 50 Jahre.

In den folgenden Graphiken ist die Situation C(t) in ppmV als Funktion der Zeit t in Jahren ab 2020 für die Werte Ec=4,4 ppmV/Jahr, tau =50 und 80 Jahre dargestellt, ausgehend von der Konzentration 400 ppmV, die bis 2020 gemessen wurde.

Der zugehörige Grenzwert beträgt 500 ppmV (630 ppmV) an Konzentration von CO2 in der Atmosphäre, wenn die Lebensdauer bei 50 (80) Jahren bleibt und die anthropogene Emission von 4,4 ppmV/Jahr nicht vergrößert wird.

Dieser Zustand 500 (630) ppmV wird nicht einmal erreicht. Die fossilen Reserven an Brennstoffen betragen nur etwa 1.250 Gt Kohlenstoff, die umgerechnet in ppmV CO2 Emission in 133 Jahren bei 4,4 ppmV/Jahr verbraucht sind.

Umrechnung: 1 ppmV CO2 entspricht 2,131 Gt C

Entsprechende Grenzwerte lassen sich mit einer einfachen Excel Tabelle auch für andere Lebensdauern z. B. tau = 30 und 80 Jahre berechnen.

Lebensdauer in Jahren305080
Ca. Grenzwert in ppmV420500630

In der nächsten Tabelle wird für den wahrscheinlichsten Wert der Lebensdauer von 50 Jahren mit dem Grenzwert 500 ppmV, gemäß der von allen Klimawissenschaftlern anerkannten Gleichung (3) für die global gemittelte Temperaturänderung dT als Funktion der Konzentration von CO2 in der Atmosphäre angegeben. Den bei Verdopplung der Konzentration erreichten Temperaturwert nennt man die Sensitivität von CO2. Damit können die damit verbundenen heutigen Temperaturwerte und die bei Erreichen des Grenzwertes einfach berechnet.

dT=f*ln(C(t) /280)                                                                                     (3)

Dazu wird zunächst der Wert für f aus der heutigen globalen Temperaturänderung dT(2018) seit vorindustriellem Wert und der heutigen Konzentration C(2018) bestimmt. Dabei beinhaltet f sowohl den direkten Einfluss von CO2 in der Atmosphäre als auch alle Rückkopplungen durch Wasserdampf etc.

Die heutige globale Temperaturänderung (Temperaturanomalie) beträgt gemessen 1,16 °C. Man geht jedoch davon aus, dass nur ca. 50 % durch anthropogen emittiertes CO2 verursacht wurden, 50% natürlichen Ursprungs sind. In der Tabelle sind die folgenden Werte für 0,58, 0,8 und 1,16 °C durch CO2 verursacht angegeben

Damit erhält man die Sensitivität für CO2 bei Verdopplung seiner Konzentration von 280 auf 560 ppmV.

dT (CO2 – Sensitivität) = f * ln(560/280))

Ebenso ergibt sich die Temperaturänderung, die von 280 ppmV bis zum Erreichen des Grenzwertes zu erwarten ist.

dT(Grenzwert) = f* ln(Grenzwert/280)

dT(t=2018)/°C0,580,81,16
C(t=2018)/ppmV400400400
f/°C1,632,243,25
CO2 –Sensitivität/°C1,131,552,25
dT(Grenzwert)/°C0,941,31,88
dT(2118)- dT(2018)/°C0,360,50,72

Die global gemittelte Temperaturerhöhung bleibt bis zum Erreichen des Grenzwertes von 500 ppmV bei einer angenommenen Lebensdauer von 50 Jahren allemal unter der im Übereinkommen von Paris 2015 (COP21) angestrebten 2°C Ziel – selbst wenn man annimmt, dass die bis heute gemessenen 1,16 °C nur auf die Erhöhung der CO2 Konzentration zurückzuführen ist.

Selbst das IPCC geht davon aus, dass mindestens 30% der Temperaturerhöhung natürlichen Ursprungs sein müssen (ergibt ca. 0,8°C).

Damit bleibt man auch beim weiter so emittieren unter dem 1,5° C Ziel von COP24 in Katowice 2018.

Rechnung:

dC(t)/dt = – C(t)/tau + dE/dt                                                            (1)

C(t): Anthropogen erzeugte CO2 Konzentration in der Atmosphäre

C(t=0) = 0

Lebensdauer anthropogenes CO2 in der Atmosphäre tau = const. 

Anthropogene CO2 Emission dE(t)/dt = Ec =const.

Gleichgewichtskonzentration vorindustriell Ceq(t) = 280 ppmV = const.

Gleichung (1) wird zu:

dC(t)/dt = – (C(t) – tau* Ec)/tau

Einführung einer neuen Variablen:

A(t) = C(t)-tau*Ec

Mit:

dA(t)/dt = dC(t)/dt

Folgt für Gleichung (1)

dA(t)/A(t) = -dt/tau

Integriert von 0 bis t ergibt:

ln[(C(t) – tau* Ec)/(C(t=0) – tau*Ec)] = – t/tau

Exponiert mit natürlichem Logarithmus e^lnx=x

C(t) = tau*Ec*[(1-e^(-(t/tau))]

qed

PDF Version

Filed under: CO2 Absorption, CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Temperaturmessung, Wissenschaft, , , , ,

Die Windkraft – ein Windei !?

Dr. Rainer Link, 15.11.2021

Ein wichtiger, oder sogar der wichtigste der Energieträger der Zukunft soll die Windkraft werden, die Photovoltaik spielt nur eine untergeordnete Rolle, alles andere Kernenergie, Kohle, Gas werden ja schließlich abgestellt.

Nun sollte man annehmen, dass die Befürworter derselben sich einmal überlegt haben, was das eigentlich bedeutet.

Ein gewisses Vorwissen ist dabei Voraussetzung. Das verlange ich nicht von jedem Menschen, aber zumindest von denen, die die Windkraft propagieren (also von Windkraftlobbyisten, Politikern und ja, auch von den Friday For Future und sonstige Klima-Aktivisten).

Nun die Voraussetzungen für diese Überlegungen, sonst kann man die Statistiken nicht verstehen, sind:

a) Man kennt den Unterschied zwischen Primärenergieverbrauch (also jeglicher Energieverbrauch) und Stromerzeugung (wie der Name sagt).

b) Weiterhin muss man wissen, was sind Peta, Mega für Zahlengrößen.

    Peta    (P)      10^15 = 1 000 000 000 000 000

    Mega (M)      10^6  = 1 000 000

c) Die Kenntnis der Prozent- und Dreisatz-Rechnung sind dabei nicht schädlich.

d) Dann benötigt man noch die Umrechnung 1Joule = 1 Wsec.

Nun kann man mit den folgenden Statistiken für 2020 und der Tatsache rechnen, dass es 2020 bereits 29.815 Onshore Windkraftanlagen gab.

Die Ergebnisse sind unterstrichen, sodass man die Rechnung nicht nachvollziehen muss.

 

Die Primärenergie beträgt

11.691 Peta Joule = 11.691 *10^15 Joule

Davon sind ca. 17% erneuerbare Energien, also inklusive Windenergie.

Mit der Statistik der Aufteilung der erneuerbaren in der Nettostromerzeugung ergibt sich:

 

Erneuerbare 50,5%; Davon Windenergie 27%

488,7 TerraWh = 488,7*60*60*10^12 Wsec = 1.756 * 10^15 Joule.

Das Verhältnis der Stromerzeugung zum Primärverbrauch ergibt sich zu:

1.756/11.691 = 15%

Die Windenergie hat hiervon einen Anteil von 27%.

Insgesamt am Primärenergieverbrauch

27%*15% = 4,1%.

Dafür wurden 29.815 Onshore Windkraftanlagen (WKA) benötigt.

Will man alle anderen Energieformen des Primärenergieverbrauchs – außer den anderen erneuerbaren – durch Windkraftanlagen ersetzen, das sind zusammen (100-17) % = 83%, die ja abgestellt werden müssen, so muss man hochrechnen

29.815*83/4,1 WKA ~ 604.000 WKA !!!

604 Tausend Windkraftanlagen sind eine ganze Menge, insbesondere, wenn man bedenkt, dass diese bis 2050, also in 30 Jahren errichtet werden müssen

604.000 WKA/30y ~ 20.000 WKA pro Jahr!!! 

Nebenbei: Im Jahr 2021 wurden bisher 240 neue Onshore WKA errichtet.

Auf geht’s!!!

Ach ja, noch etwas:

Die Bundesrepublik Deutschland umfasst 360.000 km^2.

Damit folgt gemäß voriger Rechnung:

604.000 WKA/ 360.000 km^2

somit

1WKA / 0,596 km^2 oder 1WKA alle 772 m!!

Praktisch in jedem Vorgarten eine WKA in jeder Richtung !!!

 

Achtung:

Diese Überlegung zeigt auf, dass der Energieverbrauch in Deutschland bis zur Jahrhundertmitte erheblich reduziert werden muss, will man mit Windenergie den Energiebedarf Deutschlands decken.  Oder neue Energiequellen tun sich auf und werden genutzt, z. B. moderne Kernkraftwerke oder Fusionskraftwerke. Anderes ist momentan nicht wirklich in Sicht! Die Photovoltaik wird keinen essentiellen Beitrag leisten können.

Bei Windkraft und Photovoltaik ist auch das Problem der Dunkelflaute nicht gelöst. Denn üblicherweise scheint bei uns in Deutschland nachts keine Sonne und der Wind weht nicht immer.

Und in den Stromleitungen wird leider keine Energie gespeichert, sondern Energie verbraucht, liebe Frau Baerbock! Auch Ihr Vorschlag, die in den Batterien der E-Autos gespeicherten Energie für die Allgemeinheit zu nutzen, kann man sich abschminken, denn wer möchte nach abendlicher Aufladung morgens feststellen, dass er leider nicht fahren kann, da seine Auto Batterie geleert wurde.

Heute, 14.11.2021 in den Nachrichten:

Die Grünen bestehen bislang vergeblich darauf, dass im Koalitionsvertrag der Ampel festgeschrieben wird, dass der Anteil der erneuerbaren Energien bis 2030 80 Prozent betragen müsse. Keine Einigung bisher! Grünen Unterhändler Trittin verlässt wutentbrannt den Raum (Fokus online).

Kurz hochgerechnet, „erneuerbar“ heißt ja wohl Wind, bis 2030 also 80% der Primärenergie durch WKA d.h.

604.000 WKA * 80% / 10 Jahren sind etwa 48.000 WKA pro Jahr.

48 Tausend WKA pro Jahr zu errichten !!

Es tut mir leid, aber das ist einfach irre!!

Oder ist gemeint, man weiß ja nicht, ob Trittin (1) der Unterschied bewusst ist, auf 80% der Nettostromproduktion – nicht der Primärenergie – in 10 Jahren, dann sind es:

29.815 WKA * 80% * 50%/27% ~ 44.000 WKA, also in 10 Jahren 4.400 WKA pro Jahr!!

Dabei, wie gesagt, wurden bisher in 2021 240 WKA errichtet. Vielleicht werden es 500 in diesem Jahr?!

(1) War Trittin nicht der mit der Behauptung die Mehrkosten für die erneuerbaren Energien pro Monat betragen pro Familie nur den Wert einer Eis Kugel!?

4.400 WKA/Jahr dies ist unter den derzeitigen Bedingungen utopisch und hilft uns auf Grund der Wankelmütigkeit des Windes überhaupt nicht!

Nun, die Windkraftlobby, ein eifriger Förderer der Grünen Partei, hingegen würde es freuen, die Bürger weniger, wie man am bisherigen Widerstand sieht.

Aber gegen den Willen der Bürger mit Gesetzesänderungen im Sinne des Verfassungsgerichtsurteils zum Klimagesetz könnte eine Regierung diesen Unsinn umsetzen, ohne Rücksicht auf die finanziellen Belastungen die Investitionen und den Strompreis betreffend.

Wenn kein Wind weht, müssen wir Strom aus dem Ausland zukaufen, falls dieses überschüssigen Strom produziert und bereit ist zu liefern.

Stromausfälle auch über mehrere Tage infolge Dunkelflaute werden nicht ausbleiben mit allen Folgen im industriellen und privaten Bereich!!

Die ernsthaften Folgen eines mehrtägigen Stromausfalls im privaten Umfeld wird sich jeder selbst leicht ausmalen können!

 

PDF hier:

 

Filed under: Energie, Energiewende, Erneuerbare Energien, Klima, Klima und Umwelt, Windenergie, Wissenschaft, , , , , , , ,

Der Klimawandel ist an allem schuld!!

Der Klimawandel ist an allem schuld!!

Das mag nun bei vielen Veränderungen in unserem Leben durchaus der Fall sein.

Aber jegliche Wetterphänomene von zu kalt, zu warm, zu trocken, zu nass der bisher eingetretenen Klimaveränderung seit der Kleinen Eiszeit ab 1850 der anthropogenen, also vom Menschen erzeugten, Emission von Kohlendioxid zuzuschreiben, entbehrt jeder Grundlage.

Jetzt im Sommer 2021 tragen die fürchterlichen Hochwasser mit den dramatischen Zerstörungen und den mehr als 150 Toten in Deutschland dazu bei, für diese Katastrophe alleine den Klimawandel verantwortlich zu machen. Das ist angenehm für anderweitige Versäumnisse in Verwaltung und der Politik!

Mir ist natürlich bewusst, dass ich mich mit diesem Artikel einem gewaltigen Shitstorm im Internet, den Klimaalarmisten unter den Klimatologen sowie deren Anhänger aussetze.

Aber es ist ja derzeit noch nicht verboten, die sicher bisher vorhandenen klimatischen Veränderungen, vor Allem jedoch den zukünftig durch die Emission von CO2 zu erwartenden Klimawandel einer rationalen skeptischen naturwissenschaftlichen Beurteilung zu unterziehen.

Das kann sich durchaus mit dem in der Verfassung festgeschriebenen Klimagesetz ändern.

Klimawandel (Climate Change) ist heute in aller Munde: Gemeint ist ein vom Menschen im Wesentlichen durch den Verbrauch fossiler Brennstoffe hervorgerufener Klimawandel. Hierzu hat natürlich der heiße Sommer 2018 beigetragen, der allerdings vom Sommer 2003 übertroffen wurde, sowie die Hochwasserkatastrophe 2021. Auch zuvor noch und zukünftig wird es heiße und auch heißere, trockenere und auch nassere Sommer geben.

Natürlich hat sich das Klima seit der Kleinen Eiszeit, die etwa 1850 zu Ende ging, geändert! Es ist um 1,1 Grad C wärmer geworden. Naturkatastrophen, wie die derzeit erlebte, könnten in Zukunft durchaus häufiger vorkommen. Aber aus diesem Jahrhundertereignis, die letzten dramatischen Überschwemmungen dieser Art an der Ahr fanden 1804 und 1910 statt, jetzt definitif daraus zu folgern, dass  derartige Ereignisse zum normalen Sommer gehören, ist zweifellos verfrüht und nicht begründet. Klima ist laut Definition die statistischen Wetterereignisse in einem Zeitraum von mindestens 30 Jahren!

Eine Liste von Hochwasser Ereignissen findet man auch auf Wikipedia

https://de.wikipedia.org/wiki/Liste_von_Hochwasser-Ereignissen#cite_note-5

Welchen Anteil natürliche Prozesse im Klima und welche menschlichen Einflusses sind, ist die Diskussion unter den Klimawissenschaftlern. Allgemein anerkannt wird, dass zwischen 50% bis 80% des Tempertuanstiegs von 1,1 Grad C anthropogen, also vom Menschen durch Treibhausgasemission von Kohlendioxid hervorgerufen wurde, der andere Anteil natürlichen Ursprungs ist. Klar ist, dass der Anstieg von 0,5 °C bis 1940 im Wesentlichen nicht durch menschliche Aktivitäten, Emission von CO2 durch Nutzung fossiler Brennstoffe, erzeugt worden sein kann. Genau so wenig wie die Abkühlung von 1960 bis 1979 durch den Anstieg von CO2 verantwortlich sein konnte. Damals haben die Klimatologen eine neue Eiszeit vorausgesagt.

Damit kein Missverständnis aufkommt:

Natürlich trägt der Mensch durch die Verbrennung fossiler Brennstoffe und der damit verbundenen Emission von CO2 zu einer Erhöhung der globalen Temperatur auf der Erde bei.

Einen Artikel zum atmosphärischen Treibhauseffekt sowie weitere Beiträge zur globalen Temperaturänderung finden Sie auch auf meiner Homepage zum Klima:

www.rlrational.wordpress.com

Die öffentliche Auseinandersetzung wird inzwischen hauptsächlich von den Alarmisten unwissenschaftlich und aggressiv geführt, hat sich doch Klimaalarmismus inzwischen zu einer Religion entwickelt, die eine sachliche Diskussion nicht mehr zulässt.

Politik und Medien haben sich der alarmistischen Meinung größtenteils angeschlossen, geht es hier doch um hunderte Milliarden €, die im Spiel sind.

Bei vielen Aktivisten – auch Klimatologen – wird jedoch eine Transformation der Gesellschaft mit dem Vehikel anthropogener Klimawandel angestrebt.

Die Frage aller Fragen, die unter Physikern und Klimatologen diskutiert wird, ist die Sensitivität von CO2, d. h. die globale Temperaturerhöhung, die durch eine Verdopplung der CO2 Konzentration in der Atmosphäre hervorgerufen wird. Sie bestimmt die zukünftige Veränderung des Klimas, den Anstieg der globalen Temperatur, das Abschmelzen der Eisschilde in Grönland und der Antarktis, den Meeresspiegelanstieg.

Und hier unterscheide ich mich mit vielen Physikerkollegen – wir sind nicht in der Minderheit wie man oft glauben lassen will – die sich mit der Klimaveränderung befassen und von einer maximalen Sensitivität des CO2 bei Verdopplung seiner Konzentration in der Atmosphäre von unter 1,5 °C ausgehen, von denjenigen Klimatologen, die eine Sensitivität von 1,5 bis 4,5 °C annehmen, die sie aus ihren Modellen (!!) berechneten.

Wir Skeptiker/Realisten halten uns mehr an die Messungen.

Es werden von uns nur offizielle Messungen benutzt, die allen zur Verfügung stehen, den Alarmisten und den Skeptikern. Alle Messungen sind per Mausklick im Internet zu erhalten.

Naturwissenschaft beruht darauf, dass Hypothesen, Theorien, Modelle mit den Messungen kompatibel sein müssen. Falls nicht, sind sie einfach nur falsch und gehen zurück an den Absender.

Die Modelle der Klimatologen beruhen auf gekoppelten nichtlinearen Differentialgleichungen, die nur numerisch gelöst werden können und chaotische Ergebnisse liefern, ähnlich den Wettermodellen, die nur wenige Tage das Wetter vorhersagen können.

Das bestätigt sogar das IPCC in seinem dritten Zustandsbericht (IPCC TAR, Seite 774).

Dort steht, dass man aus diesem Grund eine langfristige Voraussage des zukünftigen Klimazustandes nicht machen kann!

Steht natürlich nicht in der Zusammenfassung für Politiker (Summary for Policy Makers).

Inzwischen werden die Voraussagen Klimaalarmisten mit den Klimamodellen auch nicht mehr als solche, sondern als mögliche Szenarien bezeichnet.

Dies klingt zunächst als kleine semantische Umformulierung, rettet jedoch die Klimatologen, die sich auf Modelle beziehen davor, sich rechtfertigen zu müssen. Man hätte es schließlich nicht so wörtlich nehmen müssen, es waren eben nur Möglichkeiten.

Liest man heute eine Publikation der alarmistischen Szene, dann wimmelt es nur so von „könnte, würde, falls, …“.

Bemerkung nebenbei:

Vielleicht sollte hier auch einmal eine weitere Angelegenheit thematisiert werden, dass nämlich seitens der Alarmisten eine sinnvolle Auseinandersetzung, Diskussion der unterschiedlichen Standpunkte wie üblich in der Wissenschaft nicht gewünscht ist.

Sie, die Klimatologen, lehnen eine öffentliche Diskussion mit den Skeptikern kategorisch ab. Es scheint, als ob sie den Argumenten der Skeptiker nicht wirklich ihre Sicht der Dinge glaubhaft entgegenhalten könnten.

Eigentlich schon ein wenig armselig.

Skeptiker werden auch Leugner genannt, wie idiotisch!

Welcher Physiker bei Verstand wird einen Atmosphärischen Treibhauseffekt oder den Klimawandel leugnen. Die Alarmisten/Aktivisten nutzen diese Bezeichnung, um die Skeptiker in die Nähe der Holocaust-Leugner zu rücken.

Aber wie sagte der Chefökonom des Potsdamer Instituts für Klimafolgenforschung in einem Interview zur Neuen Züricher Zeitung (NZZ) – das Internet vergisst nicht!

IPCC Leitautor Prof. Otmar Edenhofer in einem

NZZ Interview vom 14.11.2010:

„… Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“

Es geht also schon lange nicht mehr um Klimaschutz, sondern um die Umverteilung des Reichtums in der Welt (Gesellschaftliche Transformation) und um unseren Lebensstandard.

Politische Aktivisten, die sich als Wissenschaftler verkleidet haben, missbrauchen oft die Wissenschaft für politische gesellschaftsanschauliche Veränderungen.

Das gilt ebenso für Al Gore, seine Jünger, die meisten Journalisten ohne wissenschaftliche Ausbildung und ganz zu schweigen von Schauspielern, z. B. DiCaprio, die sich als großartige Verkünder sehen.

Diese zuletzt genannten Protagonisten des Klimawandels haben von Klimawissenschaft, der Physik der Atmosphäre, überhaupt keine Ahnung, aber sind große Meinungsführer.

Das gilt auch für Greta Thunberg oder Luise Neubauer, für Extinction Rebellion und die Friday for Future Bewegung.

Warum die Politik sich den Klimaalarmismus zu eigen gemacht hat, ist bei der derzeitigen Einstellung der Medien, auch des Öffentlichen Rundfunks, leicht nachzuvollziehen.

Man kann es nicht oft genug wiederholen:

  • Die Behauptung, 97% der Wissenschaftler sind sich bezüglich des Klimawandels einig, ist zwar richtig, aber sie bezieht sich nur auf die Aussage in begutachteten Veröffentlichungen, in denen die Meinung vertreten wird, dass der Mensch zum Klimawandel beiträgt, also nicht, ob dies zu einem Klimaalarm führt. Insofern gehöre ich mit meinen Veröffentlichungen auch zu diesen 97%! Die alarmistische Meinung wird nur von etwa 30% in begutachteten Veröffentlichungen vertreten!
  • Alleine die Bezeichnung CO2 sei ein umweltschädliches Gas zeugt vom mentalen Defizit (=Dummheit) vieler Protagonisten. CO2 dient über die Photosynthese der Ernährung der Pflanzen und produziert gleichzeitig dabei den Sauerstoff in unserer Atmosphäre: Ohne CO2, ohne Wasser und Sonnenlicht keine Pflanzen, keine Menschen!!
  • Satellitenmessungen der NASA haben ergeben, dass die Erde zwischen 1982 bis 2009 um 25-50 % grüner geworden ist, davon 70 % durch die erhöhte Konzentration von CO2 in der Atmosphäre. Bis zu einer Konzentration von 1200 ppmV (derzeit 420 pppmV) wachsen und gedeihen grüne Pflanzen nahezu proportional! Unter 150 ppmV sterben diese Pflanzen ab und wir mit ihnen.
  • Eine Kosten-Nutzen-Analyse zeigt, dass die Reduzierung der CO2 Emissionen bis 2030 zu der sich die Länder freiwillig in Paris verpflichtet haben (ohne Folgen bei Nichteinhaltung) nur zu einer Reduzierung der globalen Temperatur von 0,05 °C führt! Dafür verpflichteten sich die Industriestaaten 1.000 Milliarden US $ zur Verfügung zu stellen, um Entwicklungsländer beim Klimaschutz behilflich zu sein.
  • Die Sonne schwächelt! Das wird dazu führen, dass zusätzlich zur Erhöhung der bisherigen globalen Temperatur von 1,1 Grad C seit 1850 und bis Ende dieses Jahrhunderts noch maximal 1,2 Grad C (gemäss heutigem Anstieg der globalen Temperaturen in  Satelliten Messungen), eine Abkühlung durch die bevorstehende Abnahme der Sonnenflecken zu erwarten ist. Diese wird in diesem Jahrhundert zwischen -0,3 bis – 0,5 °C betragen. In Summe führt dies zu einer globalen Temperaturerhöhung in diesem Jahrhundert von maximal noch ungefähr 0,7-0,9 °C. Das heißt sie bleibt insgesamt seit 1850 unter den ursprünglich vom PIK geforderten 2 Grad C und dies auch ohne Reduktion der anthropogenen CO2 Emissionen!
  • Von Klimaalarm zu reden ist unwissenschaftlich und unzutreffend!! Statt mit aller Macht die CO2 Emissionen, koste es was es wolle, zu reduzieren, sollten wir unser Geld für die erforderlichen Anpassungen an unvermeidliche Klimaveränderungen und echte Umweltprobleme ausgeben!

Und eines sollte doch uns allen klar und bewusst sein:
Eine Reduktion der CO2 Emissionen reduziert die bereits eingetretenen Klimaveränderungen keineswegs! Geld kann man nur einmal ausgeben, und anstatt einer nicht erforderlichen weit überzogenen Reduktion der CO2 Emissionen, sollte man sein Vermögen sinnvollerweise auf eine Vermeidungsstrategie der Folgen eines natürlichen oder anthropogen verursachten Klimawandels verwenden! Überschwemmungen oder Feuerbrünste und deren tragische dramatische Folgen müssen in wohlhabenden, zivilisierten und technisch gut ausgerüsteten Gesellschaften doch auf jeden Fall vermeidbar sein.

Filed under: C4 Pflanzen, CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Wissenschaft, , , , , , , , ,

Zur Auslegung des Bundesverfassungsgerichts zum Klimaschutzgesetz, Mai 2021

Das Bundesverfassungsgericht unter Vorsitz von Prof. Dr. Stephan Harbarth hat entschieden, dass auch die Planungen zum Klimaalarm über das Jahr 2030 hinaus Verfassungsrang besitzen, im Sinne des #20a Grundgesetz.

Es hat in seiner Begründung entschieden, dass dem Klimaschutzgesetz – mit seinem durch nichts gerechtfertigten Klimaalarm – Verfassungsrang zugebilligt wird.

Nun bin ich kein Jurist, aber wahrscheinlich gehört dazu auch bald das Verbot, eine Meinung zu vertreten, die diesen Klimaalarm unter wissenschaftlichen Aspekten als nicht existent betrachtet.

Das Bundesverfassungsgericht hat mit diesem Urteil unserer Verfassung einen schlechten Dienst erwiesen, indem es der Exekutive in Angelegenheiten des Klimaalarms die Möglichkeit gegeben hat, von der Verfassung garantierte Freiheitsrechte, z. B. der freien Meinungsäußerung, dramatisch einzuschränken.

Aber das Bundesverfassungsgericht hat auch einen Sargnagel in unser Verständnis von Wissenschaft geschlagen, dass nämlich eine Theorie/Hypothese durch Beobachtungen/Messungen/Experimente verifiziert werden muss.

Das Bundesverfasungsgericht hat es nicht einmal für nötig befunden, Wissenschaftler, die einen Klimaalarm auf Grund der Messungen nicht als realistisch betrachten, überhaupt anzuhören!

Das Bundesverfassungsgericht ist auf die Aussagen der Klimaalarmisten, des Potsdamer Instituts für Klimafolgenforschung, PIK, des Bundesumweltministeriums und des IPCC hereingefallen und hat sie als absolute Grundlage für seine Entscheidungen erkoren.

Auf Institute und Einrichtungen hat es also seine Entscheidung gegründet deren Existenz maßgeblich von einem propagierten Klimaalarm abhängt. Obwohl das IPCC durchaus eine Bandbreite in den Vorhersagen zulässt, die eben nicht zu erheblichen, alarmistischen Klimaveränderungen führt.

Der Klimaalarm beruht derzeit nur auf theoretischen Modellen, die einmal aus mathematisch/physikalischen Gründen auf Grund der die Atmosphäre beschreibenden Gleichungen (gekoppelte nichlineare Differentialgleichungen) ein zukünftiges Klima nicht vorhersagen können (ähnlich den chaotischen Aspekten der Wettervorhersage), zum anderen die Messungen der derzeitigen globalen oder regionalen Temperaturen nicht reproduzieren können!

Abbildung Climate Etc., Judith Curry

(Siehe auch meine Homepage

https://rlrational.wordpress.com/2021/05/03/klimawandel-eine-rationale-diskussion/)

Das Bundesverfassungsgericht hat nicht einmal in Erwägung gezogen, dass die global gemittelten Temperaturen abnehmen oder nicht wesentlich steigen könnten, z. B. bedingt durch Abnahme der Sonnenaktivität (NASA) in den nächsten Jahrzehnten und dies trotz Zunahme der Kohlendioxid- (CO2-)Konzentration in der Atmosphäre.

Genauso wenig hat es brücksichtigt, dass höhere CO2 Werte die Erde erheblich grüner werden lassen, wie die NASA mit Satellitenmessungen nachgewiesen hat (Photosynthese).

Eine Erhöhung der derzeitigen Konzentration des CO2 von ca. 410 ppmV (410 CO2 Moleküle pro 1 Million Luftmolekülen) um den Faktor 3 erhöht das Wachstum der grünen Pflanzen gleichermaßen (Photosynthese).

Klimaalarm auf Grund der anthropogenen CO2 Emission ist inzwischen eine Religion!!

Wie wird das Bundesverfassungsgericht eigentlich darauf reagieren, wenn zutrifft, dass meine skeptischen Kollegen Physiker und Naturwissenschaftler, die wir finanziell nicht von einem propagierten Klimaalarm abhängen, recht behalten?!

Wir stellen den hysterischen Klimaalarm und die politisch ökonomischen Folgen in Frage, die zweifellos zu einer Vernichtung unseres Wohlstandes mit allen soziologischen Folgen in den nächsten Generationen führen werden. Aber wir leugnen weder, dass sich das Klima ändert (welch idiotische Unterstellung), noch dass der Mensch derzeit neben den natürlichen Einflüssen in etwa gleichem Masse zum Klimawandel beiträgt.

Und wir befinden uns nicht in der Minderzahl!

Nun, das Verfassungsgericht befindet sich im Gleichklang mit dem Oberhaupt der katholischen Kirche, das ebenfalls das Klima zum Alarm erhoben hat.

Dann wird man ja wohl auch davon ausgehen können, dass dieser Klimaalarm wissenschaftlich nicht zu halten ist!

Denn wenn die katholische Kirche ein wissenschaftliches Statement abgegeben hat, stellte sich stets das Gegenteil als Wahrheit heraus.

Erinnern wir uns an die Auseinandersetzung der katholischen Kirche im Jahre 1633 mit dem heliozentrischen Weltbild von Kopernikus und Galileo, dem Beginn der modernen Wissenschaften.

Galileo Galilei wurde von der Inquisition verurteilt, sein durch Beobachtungen bestätigtes Weltbild zu widerrufen.

Nur durch die Milde des Papstes Urban endete er nicht im Kerker, sondern erhielt nur Hausarrest.

Immerhin: Galieleo ist nach fast 400 Jahren von der katholischen Kirche unter Papst Johannes Paul II. rehabilitiert worden.

Schade, dass Galileo Galilei das nicht mehr erleben durfte.

Dr. Rainer Link, Physiker

Filed under: Klima, Klima und Umwelt, Kohlendioxid Konzentration, Wissenschaft, , , , , , , , , , ,

Klimawandel – Eine rationale Diskussion

In diesem Beitrag möchte ich auf Anregung einiger Kollegen aus dem skeptischen Klimalager noch einmal die wesentlichen Aspekte der Diskussion um den menschengemachten Klimawandel zusammenfassen.

Der Beitrag ist in folgende Abschnitte und Kapitel gegliedert:

Faktencheck

Übersicht

Themen

A) Klimarevolte in Afrika

B) Kosten-Nutzen-Analyse der Vereinbarung von Paris, 2015 COP21

C) Klimamodelle und ihre Relation zu Messungen

D) Spezielle Themen

a) Die Erhöhung der globalen Temperatur

b) Das Ansteigen des Meeresspiegels.

c) Der Beitrag der Sonne zur Klimaerwärmung

Faktencheck

In diesem Abschnitt sind alarmistischen Vorhersagen einem Faktencheck zusammengefasst gegenübergestellt. In den Kapiteln A-D werden diese Aspekte ausführlich diskutiert.

  • Alarmistische Aussage: Klimamodelle sind realistische Beschreibungen zukünftigen Verhaltens des Klimas bis 2100 und darüber hinaus!
  • Faktencheck: Klimamodelle können eine Voraussage auf Grund der Struktur der zu lösenden Gleichungen nicht leisten. Sie sind nicht in der Lage die Wolkenbildung oder andere wichtige Klimaerscheinungen wie El Nino, La Nina, sonstige Meeresströmungen, die einen starken Einfluss auf das globale Klima haben, vorausschauend zu erklären.
  • Alarmistische Aussage: In diesem Jahrhundert (1°C haben wir bereits erreicht) wird die Temperatur zwischen 0,5-3,5°C ansteigen!
  • Faktencheck: Es werden deutlich unter 0,5°C sein unter Verbrauch aller Reserven an fossilen Brennstoffen
  • Alarmistische Aussage: Der Meeresspiegel wird in diesem Jahrhundert um 1,2-6,0 m ansteigen.
  • Faktencheck: Der Meeresspiegel steigt seit hunderten Jahren beständig mit ca. 30-35 cm /Jahrhundert an. Ein verstärkter Anstieg ist derzeit nicht zu erkennen. Es ist extrem unwahrscheinlich, dass der Meeresspiegel in den vor uns liegenden 80 Jahren bis 2100 über 50 cm ansteigen könnte.

Und einige weitere Fakten zum Klimawandel:

  • Die Bezeichnung CO2 sei ein umweltschädliches Gas zeugt vom mentalen Defizit (=Dummheit) vieler Protagonisten. CO2 dient über die Photosynthese der Ernährung der Pflanzen und produziert gleichzeitig dabei den Sauerstoff in unserer Atmosphäre: Lebenswichtig?! Oder?!
  • Satellitenmessungen der NASA haben ergeben, dass die Erde zwischen 1982 bis 2009 um 25-50 % grüner geworden ist, davon 70 % durch die erhöhte Konzentration von CO2 in der Atmosphäre.
  • Eine Kosten-Nutzen-Analyse zeigt, dass die Reduzierung der CO2 Emissionen, zu der sich die Länder in der Pariser Vereinbarung COP21 2015 freiwillig verpflichtet haben (ohne Folgen bei Nichteinhaltung), bis 2030 nur zu einer Reduzierung der globalen Temperatur von 0,05 °C führt! Dafür verpflichteten sich die Industriestaaten 1.000 Milliarden US $ zur Verfügung zu stellen, um Entwicklungsländer beim Klimaschutz behilflich zu sein.
  • Die Sonne schwächelt! Das wird dazu führen, dass zur Erhöhung der globalen Temperatur durch anthropogenes CO2 von weniger als 1,5 °C seit 1850 – davon sind bereits 1°C erreicht – eine Abkühlung der Sonne zu erwarten ist. Dies kann ab heute zwischen -0,3 bis – 0,5 °C betragen. In Summe führt dies zu einer Temperaturerhöhung in diesem Jahrhundert von deutlich unter 0,5 °C.

Und dies soll zu einem Klimaalarm führen??!!

Die Bevölkerung allerdings scheint langsam zu ahnen, welchem Irrsinn sie hier aufsitzt.

Weiterlesen PDF:

Klimawandel eine rationale Diskussion neu 190118

 

 

Filed under: C3 Pflanzen, C4 Pflanzen, CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , , , , ,

Wenn die Sonne schweigt!

Die global gemittelten Temperaturen sind seit 1850 bis 2020 um ca. 1,1 Grad C gestiegen. Vom IPCC, Intergovernmental Panel on Climate Change, wurde im letzten Zustandsbericht AR 5, 2014, dieser Anstieg mit mindestens 50% Wahrscheinlichkeit der menschlichen Emission von Kohlendioxid, CO2, durch Nutzung fossiler Brennstoffe zugeschrieben.

Bis Ende des Jahrhunderts 2100 sollte die globale Temperaturerhöhung unter 2 Grad C bleiben, besser unter 1,5 Grad C durch drastisches Reduzieren der CO2 Emissionen.

Satelliten-Messungen seit 1979 bis 2020 zeigen einen Anstieg von 0,13 Grad C pro Jahrzehnt, also in den 80 Jahren bis 2100 noch ca. 1 Grad C.

Diese Forderung beruht auf Grund der Berechnungen mit Modellen, die allerdings den Einfluss einer veränderlichen Sonnenaktivität, markiert durch die Sonnenflecken, nicht beinhalten.

In diesem Artikel soll gezeigt werden, dass dies eine unzulässige Annahme ist.

In diesem Jahrhundert wird die Zahl der Sonnenflecken stark zurückgehen, mit ihnen einher ein Beitrag zur Verringerung der global gemittelten Temperatur um -0,5 bis – 0,7 Grad C.

Das bedeutet aber, dass selbst bei gleichbleibender Emission von CO2 durch den Menschen, die globale Temperatur deutlich unter 2 Grad C bleiben wird!

Weiterlesen PDF:

Filed under: Klima, Sonnenflecken, Temperaturanomalie, Wissenschaft, , ,

KISS, keep it simple and stupid!

Behandle es einfach und begreifbar!

Globale Temperaturen und Klimaalarm

In diesem Artikel will ich beschreiben, wie eine einfache Relation, von allen Klimaforschern anerkannt – auch den Klimaalarmisten (*) – den Einfluss der Kohlenstoffdioxid (CO2) Konzentration in der Atmosphäre auf die globale Temperaturentwicklung bewirkt.

(*) Hans Joachim Schellnhuber, Selbstverbrennung, 2015, C. Bertelsmann Verlag, S. 56-57;

(*) IPCC Third Assessment Report, The Physical Basis, 2001, S 358

Der Klimawandel hat erstens natürliche (größer 20%) und zweitens vom Menschen verursachte Einflüsse (kleiner 80%).

Der menschliche/anthropogene wird gemäß weitgehend übereinstimmender Meinung der Klimaforscher durch die Emission von CO2 in die Atmosphäre durch Energiegewinnung aus fossilen Kraftstoffen hervorgerufen. Die Frage ist, wie groß ist der Anteil der menschlichen Aktivität und welcher Anteil ist auf natürliche Prozesse zurückzuführen, Sonne, Wolken, Ozeanströme.

Und hier unterscheiden sich die Klimaalarmisten und die Klimarealisten (zu denen ich gehöre).

Mit Klimamodellen, sogenannten Atmosphäre/Ozean gekoppelten Rechenmodellen versucht man eine Vorhersage oder zumindest die Möglichkeiten der zukünftigen Klimaentwicklung vorherzusagen. Und dies nicht nur auf eine Veränderung zu berechnen z. B. die Temperatur, sondern auf alle klimarelevanten Größen wie Meeresströmungen, Eisbedeckungen, etc., und dies dazu noch auf wenige 100 km2 regional. Das bedeutet eine unglaublich komplexe mathematische Berechnung, die nur numerisch gelöst werden kann.

Das versagt aus ganz einfachem Grund, da die zugrundeliegenden mathematischen Relationen dies ähnlich wie bei der Wettervorhersage nicht zulassen.

(Sie sind sogenannte quadratische Differentialgleichungen 2.Ordnung, die zu chaotischen Ergebnissen führen, ist jedoch für unsere Überlegungen hier nicht wichtig).

Darüber sind sich ebenfalls alle Klimaforscher prinzipiell im Klaren.

Das Ergebnis der Modelle in Bezug auf die Temperaturentwicklung stimmt schon heute nicht mit den Messungen überein.

Des Weiteren streuen die Modelle in den Vorhersagen bei der Verdopplung der CO2 Konzentration in der Atmosphäre so ungemein – zwischen 1,5 bis 5 °Celsius Temperaturerhöhung – dass eine politische Aktion hierauf schon gar nicht bauen sollte, was allerdings trotzdem mit Vehemenz gemacht wird und unglaubliche Folgerungen für die menschliche Lebensweise, Ökonomie, nach sich zieht.

Dabei gibt es wirkliche Umweltprobleme, die angegangen werden müssten. Klimawandel gehört nicht dazu, wie ich im Folgenden auch ausführen werde!

Die Modelle erfordern derart hohe Rechenleistungen, dass nur die großen Rechenzentren dies überhaupt bereitstellen können. Und selbst auf diesen dauern die Rechnungen Monate.

Kein Physikinstitut kann diese Modelle so einfach mal nachrechnen, geschweige denn ein kritischer Physiker, ausgestattet mit neuestem PC. Vor Allem ist zu hinterfragen, was waren die Annahmen, die den Rechnungen zugrunde lagen?

Einer der bedeutendsten Physiker des vergangenen Jahrhunderts war Richard Feynman.

Eine seiner wichtigen Aussagen war:

Wenn Du etwas nicht einfach beschreiben kannst, hast Du es nicht verstanden!

Nun will ich also versuchen, mit Feynman und KISS den globalen Temperaturanstieg dT, d. h. die Änderung der globalen Temperatur dT in Abhängigkeit von der CO2 Konzentration K (CO2) im Verhältnis zur vorindustriellen Zeit in der Atmosphäre zu beschreiben.

Die Rechnung dazu bleibt einfach – soweit es geht.

Wenn man sich nämlich darauf beschränkt, nur den Effekt des anthropogen emittierten CO2 und nur in Bezug auf die global gemittelte Temperaturerhöhung zu berechnen, so kann man hierfür eine einfache allgemein anerkannte Gleichung benutzen,

Diese allgemein anerkannte Relation lautet:

dT= f*ln (K(Zeitpunkt)/K(vorindustriell))

(Bemerkung: Die logarithmische (ln) Abhängigkeit resultiert aus der bereits nahezu gesättigten Absorption der Schwingungsbanden von CO2. Jeder neu hinzukommende CO2 Anteil hat eine geringere Wirkung als der vorherige.)

f ist ein noch zu bestimmender, im betrachteten Temperaturbereich konstanter Faktor.

Zeitpunkt ist z. B.  heute, K(heute), oder

wenn die Konzentration K von CO2 um das Doppelte K(2*CO2) = 560 ppmV gestiegen ist, relativ zur vorindustriellen Zeit K(vorindustriell)=280 ppmV (280 CO2 Moleküle pro 1 Million Moleküle in der Atmosphäre).

dT ist die durch CO2 Emission bewirkte Temperaturänderung.

Der Faktor f beschreibt nicht nur die alleinige Wirkung von CO2, sondern auch alle Verstärkungs- oder Abschwächungsfaktoren infolge der von CO2 hervorgerufenen Temperaturänderungen!

Der natürliche Logarithmus (ln) ist im Rechner auf jedem Handy im mitgelieferten App auf der „loge“ Taste zu finden.

Nun zurück zur Relation der globalen Temperaturerhöhung dT als Funktion der CO2 Konzentration:

Die zwischen 1850 seit Aufzeichnungen bis heute 2020 gemessene mittlere globale Temperaturerhöhung (dT) seit Ende der „Kleinen Eiszeit“ um 1850 beträgt ca. 1,1 °Celsius.

Die heutige gemessene CO2 Konzentration in der Atmosphäre beträgt 410 ppmV.

Also:

dT=1,1°C=f*ln (410/280) = f*0,381, damit f = 2,88 °C

Dabei wurde angenommen, dass die gesamte Temperaturerhöhung durch anthropogene Emission von CO2 hervorgerufen wurde, was sicherlich nicht stimmt, denn ein nicht unbeträchtlicher Anteil ist natürlichen Ursprungs. Man ist allgemein der Meinung, dass der anthropogene Anteil (a) weniger als 80% davon beträgt, also a kleiner als 0,8 ist.

Insofern muss die vorherige Gleichung für den Beitrag von CO2 etwas modifiziert werden:

dT= a*1,1 °C = f*0,381 oder

f= a*1,1/0,381=2,88*a in °C

Sehr wichtig ist die Beantwortung der Frage, wie hoch steigt die Temperatur, wenn man die Konzentration von CO2 in der Atmosphäre verdoppelt, die sogenannte Transiente Climate Sensitivity TCS. Diese wird bei etwa gleicher Emission von CO2 wie gegenwärtig gegen Ende dieses Jahrhunderts erreicht.

dT (2*CO2) = 2,88*a*ln (560/280) = 2,88*a*ln (2),

dT (2*CO2) = 2,0*a in °C

Also z. B.:

a=1

die gesamte globale Temperaturerhöhung wird durch die menschliche CO2 Emission erzeugt.

dT (2*CO2) = 2,0 °C

davon bis heute 1,1 °C erreicht, also noch 0,9 °C bis zur Verdopplung der CO2 Konzentration in der Atmosphäre auf 560 ppmV, etwa Ende dieses Jahrhunderts.

a=0,8

80% der globalen Temperaturerhöhung wird durch den Menschen erzeugt, 20% sind natürlichen Ursprungs, bis heute 1,1 °C mal 0,8 gleich 0,88 °C durch Emission von CO2 durch den Menschen.

dT (2*CO2) = 1,6 °C

also noch 0,72 °C vor uns bis zum Ende dieses Jahrhunderts.

a=0,4

40% der globalen Temperatur, also bis heute 1,1*0,4 °C = 0,44 °C vom Menschen erzeugt:

dT (2*CO2) = 0,8 °C

das wären dann nur noch 0,8-0,44 °C = 0,36 °C bis zum Ende dieses Jahrhunderts.

Je geringer der noch zu bestimmende menschliche Einfluss sein wird, umso geringer somit die vor uns liegende globale Temperaturerhöhung bis zur Verdopplung der atmosphärischen CO2 Konzentration.

Natürlich wird eine noch ausstehende Erhöhung von 0,9 °C globaler Temperaturerhöhung (a=1.0) zu einer deutlichen Veränderung unseres Klimas beitragen.

Bei 0,72 °C Erhöhung (a=0,8) wird der Effekt gegenüber heutigen Klimazuständen nur zu erträglichen Änderungen führen.

Bei a=0,4 mit noch 0,36 °C bis zum Ende dieses Jahrhunderts gehen die Klimaveränderungen mehr oder weniger im allgemeinen natürlichen Klima-Rauschen unter.

In allen Fällen muss man sich jedoch fragen: Worin besteht eigentlich der von den Alarmisten beschworene Klimaalarm?

Die Antwort lautet: Aus heutiger Sicht gibt es ihn, den Klimaalarm, nicht!!!

PDF Druck:

Auch veröffentlicht unter:

https://kaltesonne.de/kiss-keep-it-simple-and-stupid

Filed under: CO2 Absorption, CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , ,

Warum die Klimamodelle des IPCC fundamental falsch sind!

Filed under: Klima, Wissenschaft, , , , , ,

Warum die Klimamodelle des IPCC fundamental falsch sind!


Die alarmistischen Vorhersagen des Klimawandels mit katastrophalen Auswirkungen auf die Menschheit auf Grund der anthropogenen (von Menschen verursachten) Emissionen von Treibhausgasen, insbesondere Kohlendioxid CO2, basieren ausschließlich auf Klimamodellen.

Zu diesen schreibt das IPCC in seinem dritten Bericht 2001:

“In climate research and modeling,
we should recognize that
we are dealing with
a coupled non-linear chaotic system,
and therefore that the long-term prediction
of future climate states is not possible.”

Frei übersetzt:
“In der Klimaforschung und Modellierung sollte man anerkennen, dass wir es hier mit einem gekoppelten nicht linearen System zu tun haben und deshalb langfristige Vorhersagen des zukünftigen Klimazustandes nicht möglich sind.“

Dieser Satz wurde natürlich in der „Summary for Policy Makers“ weder 2001 noch 2007 erwähnt.
Obwohl er physikalisch wissenschaftlich absolut korrekt ist.

Moment mal! Haben wir richtig gehört? Man kann das Klima nicht voraussagen, schon gar nicht langfristig, aber wir sollen auf Grund von Klimamodellen dem ausgerufenen Alarm mit Temperaturerhöhungen bis über 5°C in diesem Jahrhundert und der künftig zu erwartenden Katastrophe glauben schenken?!
In diesem Artikel wird die Basis der alarmistischen Klimamodelle des IPCC analysiert, mit dem Ergebnis:

Die IPCC Klimamodelle sind fundamental falsch und können auf keinen Fall als Grundlage für eine Klimavorhersage der nächsten 100 Jahre dienen.

RL

Artikel PDF:
Warum die Klimamodelle des IPCC falsch sind

Filed under: Klima, Wissenschaft, , , ,

CO2: Der Stoff von dem wir leben – eine Lobeshymne

Patrick Moore, Mitbegründer von Greenpeace, inzwischen aus diesem Verein ausgetreten, hat in eindringlichen Worten seinen Werdegang bei Greenpeace beschrieben, warum er diese Organisation verlassen hat und warum wir froh sein sollten, dass es CO2 gibt und zwar mindestens in den Mengen, die wir heute als Konzentration in der Erdatmosphäre vorfinden.

Vortrag auf GWPF, URL siehe in den PDF Dateien.

Es lohnt sich seinen Artikel  von 2015 zu lesen, er ist interessant und hilfreich, die Bedeutung von CO2 richtig einzuschätzen. Er hat nichts von seiner Relevanz verloren.

Die deutsche Übersetzung wurde mir von A. G. Mertz freundlicherweise für den Abdruck zur Verfügung gestellt.

Artikel Patrick Moore Deutsch PDF: Patrick Moore 2015 deutsche Übersetzung

Article Patrick Moore original English PDF: Patrick Moore 2015 Celebration of CO2

 

Filed under: CO2 Emission, CO2 Konzentration, Klima, Kohlendioxid Konzentration, Wissenschaft, , , , ,

Der Deutsche Weg oder der CO2 Wahn

Im Folgenden habe ich mit freundlicher Genehmigung des Autors Prof. Hermann Harde den Artikel
„Der Deutsche Weg oder der CO2 Wahn und seine Folgen“ abgedruckt.
Mit größerer Deutlichkeit und größerem Sachverstand kann man diesen Irrweg der sog. Erneuerbaren Wind-Energie, diesen Irrsinn, nicht beschreiben.
Oder glauben Sie, dass der tägliche!! Neubau von 180 Windkraftanlagen, je 2 Megawatt, in den nächsten 30 Jahren eine machbare Alternative zu den fossilen Energien oder der Kernkraft ist!!??
(Erneuerbar ist diese erneuerbare Energie natürlich nicht, das wäre ja ein Perpetuum Mobile.)
Diesem Artikel ist nichts hinzuzufügen!!
Er gibt meine eigene Position zu 100% wieder.
Auf insgesamt 11 Seiten ist die Situation beschrieben! Das Lesen lohnt sich!!
Nicht nur wegen des technisch sauber beschriebenen Inhalts, man profitiert davon diesen Irrsinn der De-Karbonisierung einer modernen Gesellschaft durch Forderungen der Politik, NGOs wie z. B. Extinction Rebellion, Friday for Future, zu durchschauen und Ad Absurdum zu führen, als Irrweg zu erkennen.

Hermann Harde
harde@hsu-hh.de
http://hharde.de

„Der Deutsche Weg oder der CO2 Wahn und seine Folgen“
Gliederung:
• Vorbemerkung
• Wissen diese Politiker eigentlich, was Klima ist und wovon es abhängt?
• Der schrittweise Ausstieg aus den fossilen Brennstoffen
• Energie Verbrauch in Deutschland: Primär Energie Verbrauch (PEV) und Elektrischer Energieverbrauch in Deutschland (EEV), ein Riesenunterschied
• Erhöhte Installationen und ansteigende Energiekosten
• Eine einfache Überschlagsrechnung
• Bleibt also die viel gepriesene Windkraft?
• Zu erwartende Kosten der Energiewende
• Der Klima Wahn
• Weitere aktuelle Referenzen

Artikel als PDF hier:

Deutscher_Weg_Der CO2-Wahn

Filed under: Energie, Energiewende, Erneuerbare Energien, Klima, Klima und Umwelt, Windenergie, Wissenschaft

Offener Brief an Greta Thunberg

Liebe Greta,

dies ist ein offener Brief, den ich Dir leider nicht persönlich zustellen kann, da ich keine entsprechende Kontaktadresse besitze und auch nicht gefunden habe, trotz intensiven googelns. Er ist auch als kritischer Beitrag für alle gedacht, die sich wie Du um eine alarmistische Entwicklung unseres zukünftigen Klimas und unserer Erde Sorgen machen.

Du – ich darf mit meinen betagten Jahren von über 70 noch Du sagen – bist nun eine Galionsfigur des Klimaalarms geworden, ausgezeichnet mit der Goldenen Kamera und vorgeschlagen für den Friedensnobelpreis. Eine riesige Schar begeisterter Schüler folgt Deiner Friday for Future Mobilisierung. Das gönne ich Dir von Herzen, zumal Du – wie Du sagst gar nicht anders kannst, als bei einer Dir berichteten Gefahr in Panik zu geraten und Dein ganzes Streben auf die Vermeidung dieser Gefahr zu richten.

Schade finde ich, dass Du die Auszeichnung mit der Goldenen Kamera den Ökoterroristen – anders kann man sie nicht bezeichnen – des Hambacher Forstes gewidmet hast. Wer auch immer Dir dies eingeredet hat, das war keine gute Idee.

Du bezeichnest Dich als Realistin. Insoweit wären wir eigentlich Verwandte im Geiste.

Aber Dem ist nicht so. Panik und Realismus vertragen sich nicht. Was ich als Realismus bezeichne unterscheidet sich doch sehr von Deiner eigenen Einschätzung.

Ich bin promovierter Physiker und habe mich seit 20 Jahren mit dem Klima und seinem Wandel intensiv beschäftigt. Als Naturwissenschaftler muss man Skeptiker sein, sonst hat man seinen Beruf verfehlt.

Realistisch sein heißt, Hypothesen, Theorien und Modelle mit den Messungen zu vergleichen. Stimmen die Modelle nicht mit den Messungen überein, so sind die Modelle falsch, unabhängig davon wieviele Anhänger die Modelle haben und wer sie gemacht hat, unabhängig von seiner Stellung oder offizieller Bedeutung.

Das ist die Basis jeder Naturwissenschaft.

Ich bin also Realist, Skeptiker und werde oft als Leugner beschimpft.

Wie idiotisch! Welcher Physiker bei Verstand würde leugnen, dass das Klima sich ändert und dass der Mensch zur Klimaveränderung durch Emission des Treibhausgases zur globalen Erwärmung beiträgt.

Aber fast alle Physiker, die finanziell nicht abhängig sind vom alarmistischen Klima, sind Skeptiker desselben.

Wir sind der Meinung, dass die Messungen der globalen Temperaturen oder der Meeresspiegelerhöhung keinen Anlass zur Panik bieten. Alle Messungen lassen sich im Internet abrufen.

Es sind nur die physikalisch prinzipiell unvollständigen Modelle, auf die sich Klimaalarmisten berufen. Aber sie bezeichnen ihre Modelle wohlweislich nicht als Voraussagen, sondern als mögliche Szenarien. Sonst könnte man sie in Zukunft ja darauf festnageln. Sie haben eben nur Möglichkeiten aufgezeigt!

Und hier sind wir beim ersten falsch interpretierten Slogan der Klimaaktivisten:

97 % der Klimawissenschaftler würden die alarmistische Version der zukünftigen Klimaentwicklung vertreten. Das ist so etwas von falsch, denn zu diesen 97 % gehöre ich auch.

Denn die Umfrage lautet basierend auf Veröffentlichungen in etwa so: Wer glaubt, dass der Mensch zur globalen Erwärmung beiträgt?

Sie lautete nicht, wer glaubt, dass dieser Beitrag zum Klimaalarm führt. Letztere waren in der Umfrage wie man leicht googeln kann weniger als 30 %!

Liebe Greta, glaube mir, auch mir liegt unsere Umwelt sehr am Herzen, Umweltverschmutzung z. B. durch Plastik in den Weltmeeren.

Es gibt in den Ozeanen Riesige Wirbel in denen sich über 100te von Quadratkilometern tonnenweise dieser Müll ansammelt.

Als begeisterter Segler muss ich leider häufig auch in Küstennähe Plastik und Müllstrassen kreuzen.

Sauberes Trinkwasser für die Menschheit ist ein weiteres riesiges Problem vor das sich die Menschheit gestellt sieht.

Hunger und Krankheit in den ärmsten Ländern, vor Allem in Afrika sind tragisch.

Das kannst Du alles im gerade erschienenen Bericht der UN „Geo6“ nachlesen.

Unser Hauptproblem jedoch ist die wahnsinnig wachsende Weltbevölkerung von derzeit ca. 7 Milliarden Menschen auf 10 Milliarden im Jahre 2100 gerade in den ärmsten Ländern.

Komisch, dass dies nicht thematisiert wird!

Um diesen Brief nicht zu weit ausufern zu lassen, noch zwei kurze Abschnitte zum Meeresspiegelanstieg a) und zur Entwicklung der globalen Temperatur b) jeweils bis 2100.

Weiterlesen und PDF:

Offener Brief an Greta Thunberg

Filed under: C3 Pflanzen, Klima, Klima und Umwelt, Meeresspiegel, Temperaturanomalie, Temperaturmessung, Wissenschaft, , , , , , ,

Brief an die Leser meiner Home Page

27.12.2018

Liebe Leser meiner Home Page,

Wir haben nur die eine ERDE!

Natürlich sollten wir deshalb alle an unserer Umwelt interessiert sein und alles Mögliche tun, um sie zu erhalten.

Es geht mir auch und gerade um unsere Kinder und Enkelkinder. Auch sie sollen mit einem Leben in einem Rechtsstaat, einer Demokratie, mit vielleicht auch bescheidenem Wohlstand leben können, und nicht wie von manchen angestrebt in einer Ökodiktatur.

Nun, ich bin ein Skeptiker des alarmistischen Klimawandels. Damit kein Missverständnis aufkommt. Natürlich trägt der Mensch durch die Verbrennung fossiler Brennstoffe und der damit verbundenen Emission von CO2 zu einer Erhöhung der globalen Temperatur auf der Erde bei.

Einen Artikel zum atmosphärischen Treibhauseffekt sowie weitere Beiträge zur globalen Temperaturänderung finden Sie auch auf meiner Homepage zum Klima.

Übrigens für meine Aktivitäten im Bereich Klima habe ich keinen Penny von irgendeiner Institution, Industrie oder sonst jemandem erhalten, abgesehen von Reisekosten für Vorträge.

Die offene Frage, die unter Physikern und Klimatologen diskutiert wird, ist die Sensitivität von CO2, d. h. die globale Temperaturerhöhung, die durch eine Verdopplung der CO2 Konzentration in der Atmosphäre hervorgerufen wird.

Und hier unterscheide ich mich mit vielen Physikerkollegen – wir sind nicht in der Minderheit wie man oft glauben lassen will – die sich mit der Klimaveränderung befassen und von einer maximalen Sensitivität des CO2 bei Verdopplung seiner Konzentration in der Atmosphäre von kleiner 1,5 Grad C ausgehen, von denjenigen Klimatologen, die eine Sensitivität von 3 Grad C (2,0-4,5 Grad C) annehmen, die sie aus ihren Modellen (!!) berechneten.

Wir, Physiker und Naturwissenschaftler, halten uns mehr an die Messungen, die auf eine globale Temperaturerhöhung in diesem Jahrhundert von unter 1,5 Grad C hinweisen, sogar bei der bisherigen ungebremsten und immer stärkeren CO2 Emission.

Naturwissenschaft beruht darauf, dass Hypothesen, Theorien, Modelle mit den Messungen kompatibel sein müssen. Falls nicht, sind sie einfach nur falsch und gehen zurück an den Absender.

Die Modelle der Klimatologen beruhen auf nichtlinearen Differentialgleichungen, die nur numerisch gelöst werden können und chaotische Ergebnisse liefern, ähnlich den Wettermodellen, die nur wenige Tage das Wetter vorhersagen können.

Das bestätigt sogar das IPCC in seinem Dritten Zustandsbericht (IPCC TAR, Seite 774).

Auch hierzu habe ich auf meiner Homepage einen Artikel geschrieben.

Als Beispiele für die offiziellen Messungen, andere gibt es nicht, weise ich auf die letzten Beiträge auf meiner Homepage hin.

Vor kurzem ist die alarmistische Position durch den Papst „heilig“ gesprochen worden, der nun auch den Klimawandel als größte Gefahr für die Menschheit postuliert.

Meiner Meinung nach will die katholische Kirche dabei nur von dem größeren Problem der Bevölkerungsexplosion ablenken, da eine Geburtenkontrolle nicht zugelassen wird.

Allerdings spricht dabei für die skeptische Meinung, dass immer, wenn die Kirche eine wissenschaftliche Wahrheit verkündete, das Gegenteil der Fall war!

Ich werde mich nun aus den Klimadiskussionen heraushalten, denn wer möchte schon gerne auf dem Scheiterhaufen enden?! (grins!!)

Übrigens: Man wird als Skeptiker auch Leugner genannt wie idiotisch: welcher Physiker bei Verstand wird einen Atmosphärischen Treibhauseffekt und den Klimawandel leugnen! In der Tat von Umweltverbänden und einzelnen Aktivisten („wir wissen, wo ihr wohnt“, Greenpeace Indien) wird man sogar bedroht mit Gefängnis und Todesstrafe (ein Professor von der Universität Graz), sollte man diese skeptische Meinung weiterhin vertreten.

Auf das Büro eines skeptischen amerikanischen Kollegen wurde sogar schon geschossen.

Ich leide bestimmt nicht unter Verfolgungswahn, aber die meinen es ernst, wenn sie denn könnten!

So ist es eben, wenn Meinungen zu Religionen werden.

Andererseits muss man natürlich auch feststellen, dass wissenschaftlich eigentlich alles Wesentliche bereits gesagt wurde. Es ist auch nahezu unmöglich auf jeden verzapften Unsinn mit einer Richtigstellung zu reagieren.

Wer sich weiterhin objektiv über die globalen Temperaturen, Meeresspiegel-Anstiege oder sonstige Daten zum Klima aktuell informieren will, dem schlage ich die folgende URL vor:

http://climate4you.com/

Andere Internetadressen können meiner Home Page entnommen werden.

Meine Home Page werde ich natürlich weiterhin öffentlich halten!!

Es geht beim Klimawandel inzwischen nicht mehr um die wissenschaftliche Wahrheit den Anstieg der globalen Temperatur durch Emissionen von CO2 betreffend, sondern nachweislich um hunderte Milliarden Euro, die mit den alarmistischen Klimawandel-Prognosen verdient werden. Und es geht gesellschaftlich um die Einführung einer Ökodiktatur.

Eine konsequente Verfolgung dieser bedeutet dauerhafte Verarmung der Bevölkerung mit all ihren auch gesundheitlichen Konsequenzen in Afrika, Indien, selbst in China. Die letzten beiden kümmern sich allerdings nicht um die auferlegte Begrenzung an Nutzung fossiler Brennstoffe.

Im Übrigen halte ich die Vermeidungsstrategie der Klimaalarmisten gegenüber den sich entwickelnden Ländern für unethisch.

(Siehe auch Artikel „Revolte in Afrika“).

Bei allen Kollegen mit denen ich zusammengearbeitet, Artikel zum Klima verfasst und Beiträge geschrieben habe und die mich wissenschaftlich und philosophisch bei vielen intensiven Diskussionen in meinen Erkenntnissen weitergebracht und mich unterstützt haben, bedanke ich mich herzlich und hoffe, dass wir uns weiterhin gewogen bleiben.

Herzlichen Dank auch an meine Leser, dass Sie sich für meine Home Page interessiert haben!

Mit den Besten Grüßen

Rainer Link

Dezember 2018

 

Im Folgenden habe ich noch einmal einige Überlegungen zur globalen Klimaentwicklung in 5 Beiträgen zusammengefasst.

 

1) Klimarevolte in Afrika! Die wahre Klimakrise von Afrika

Die Präsidentin der ugandische Menschenrechts- und Entwicklungs-Organisation CORE Fiona Kobusingye empört sich gegen die westliche Klimapolitik. Die reichen Länder wollten mit der Verteuerung und Verknappung von Energie, bewusst den gesamten afrikanischen Kontinent in Armut halten. Ihre Kernaussage ist, dass die heutige Katastrophe in Afrika Vorrang hat vor einer hypothetischen Klimakatastrophe in 100 Jahren. Wie Recht sie hat!

Weiterlesen, PDF:

Klimarevolte in Afrika

 

2) IPCC1.5, COP24 und vorgegebener Zeitrahmen zur CO2 Emissions-Reduktion – Eine Realitätsbetrachtung

Rechtzeitig zur COP24 in Kattowitz stellte das IPCC (IPCC: Intergouvernmental Panel on Climate Change) seinen Bericht IPCC1.5 fertig.

https://report.ipcc.ch/sr15/pdf/sr15_spm_final.pdf

Er war als Sonderbericht des IPCC zu dem im Pariser Abkommen vorgesehenen 1,5-Grad-Ziel vorgesehen.

Der Bericht kommt zu dem Schluss, dass:

jede noch so geringe Erwärmung von Bedeutung sei, wie Vertreter des Weltklimarats IPCC bei der Konferenz erklärten.

Ob die globale Erwärmung unter 1,5°C oder nur unter 2°C gehalten wird, mache für Mensch und Ökosystem einen gewaltigen Unterschied.

Darüber hinaus bewertet der Bericht auch die Emissionspfade zur Erreichung dieser Temperaturgrenzen. Damit gute Chancen bestehen, unter 1,5°C zu bleiben, müssen die weltweiten Emissionen bis 2030 halbiert und bis 2050 auf netto null reduziert werden.

Dieser Bericht sollte auf der COP24 „begrüßt“ werden.

Jedoch verursachten die USA, Saudi-Arabien, Russland und Kuwait erhebliche Verzögerungen und Irritationen in den Verhandlungen in Katowice, indem sie sich einem solchen Beschluss verweigerten. Saudi-Arabien argumentierte, es könne den Bericht nicht begrüßen, da er wesentliche offene Fragen und Unklarheiten enthalte. Letztlich einigten sich die Vertragsparteien darauf, die „rechtzeitige Fertigstellung“ des Berichts zu begrüßen und luden die Länder ein, den Bericht bei ihrer künftigen Arbeit zu berücksichtigen. Der Beschluss „erkennt jedoch die Rolle des IPCC bei der Bereitstellung des wissenschaftlichen Inputs an, um die Vertragsparteien hinsichtlich der Stärkung der globalen Reaktion angesichts der Bedrohung durch den Klimawandel zu informieren“ und verweist darauf, dass der Sonderbericht „den neuesten Kenntnisstand widerspiegelt“.

Der 1,5-Grad-IPCC-Berich, enthält hochinteressante Aussagen.

Weiterlesen PDF:

IPCC1.5 und COP24

 

3) Die Angst vor dem Anstieg des Meeresspiegels

 Da ist man in der alarmistischen Welt nicht kleinlich 10-60 m Meeresanstieg sollen es schon sein.

Das ist richtig!

Aber nur, wenn das Grönlandeis und/oder das Eis der Antarktis vollständig abschmelzen!

Aber wie realistisch ist dies, vor allem in welchem Zeitraum?

 Weiterlesen, PDF:

Die Angst vor dem Anstieg des Meerespiegels

 

4) Die Sonne schwächelt

 Die veränderlichen Aktivitäten der Sonne, die Anzahl, Verteilung der Sonnenflecken und die Zeitdauer eines Sonnenfleckenzyklus, können deutlich mit Klimaveränderungen korreliert werden. Dies trifft insbesondere auch auf die besonders kalten Zeiten während der Kleinen Eiszeit 1300 bis Ende des 19. Jahrhundert zu, in denen die Zahl der Sonnenflecken gering war oder in denen überhaupt keine Sonnenflecken zu sehen waren.

Es bezweifelt heute kaum noch jemand, dass diese Korrelation auch Ursache und Wirkung miteinander verbindet.

Weiterlesen, PDF:

Die Sonne schwächelt

 

5) Die CO2 Sensitivität – eine Übersicht

Die CO2 Klimasensitivität ist definiert als Beitrag des Treibhausgases CO2 inklusive aller Verstärkungs- und Abschwächungsfaktoren, wenn man seine Konzentration in der Atmosphäre verdoppelt.

Ich gehe hier nur auf so genannte die Transiente Klima Sensitivität TCS des CO2 ein, mit der wir unmittelbar in diesem Jahrhundert zu rechnen haben.

Über noch längere Zeithorizonte zu spekulieren, die Gleichgewichts-Sensitivität ECS betreffend, ist ein anderes Thema.

Weiterlesen PDF:

Die CO2 Sensitivität

 

 

Filed under: CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Meeresspiegel, Temperaturanomalie, Wissenschaft, , , , , , , , , ,

Der verlorene Kampf gegen den Irrsinn des Klimaalarmismus

Liebe Freunde,

mit meinen letzten Beiträgen „An meine Leser“, „Deutsche Braunkohle und globale Temperaturerhöhung“ und „Klimawandel-eine rationale Diskusssion“ auf meiner Home Page habe ich mich aus der Klimadiskussion verabschiedet!

Herzliche Grüße

Rainer

 

Antworten, Beispiele von einigen Freunden und Kollegen:

Lieber Rainer,

auch an Dich meine besten Wünsche für 2019. Was Deinen Rückzug aus unserem Kampf für die wissenschaftliche Wahrheit angeht, kann ich Dir allerdings nicht folgen. Aus Deiner Begründung spricht die Befürchtung, dass wir bereits verloren hätten. Mag sein. Wer aber nicht kämpft, hat schon verloren. Es ist schade, dass wir Dich verlieren, überlege es Dir vielleicht noch einmal!

Wir gehen vermutlich schrecklichen Zeiten entgegen. Zwei kommunistische Diktaturen erobern zur Zeit die Welt. Die chinesische, die auf mehr Wohlstand und die westliche, die auf Verzicht und Rückkehr zu mittelalterlichen Zuständen setzt. Die Freiheit des Individuums vernichten beide Diktaturen konsequent. Wer auf Dauer die Oberhand behalten wird, ist nicht schwer zu erraten. Afrika ist bereits in den Klauen des gelben Drachen. Die Demokratie wird es nicht mehr schaffen gegenzuhalten.

Viele Grüße

….

 

Liebe Freunde,

allen Argumenten kann ich nur vollkommen zustimmen.

Ja, ich denke der Kampf ist im Moment verloren. 

Im Grunde seid Ihr, liebe. Freunde, ja auch dieser Meinung.

Hinzu kommt, dass mich diese Arroganz und Dummheit der Alarmisten, aber auch der unkritischen Journalisten, einfach zu sehr aufregt.

Heute Morgen wieder im Focus online

https://www.focus.de/wissen/klima/klima-kaskade-mit-30-kipp-punkten-wir-stehen-am-rande-des-kollapses_id_10115283.html

 

Der Autor, Ökologieprofessor, war Mitglied im WWF!

Ich wusste gar nicht, dass es die Berufsbezeichnung Ökologe gibt. Veröffentlicht in Science!!!

Inzwischen findet eine Instrumentalisierung von Jugendlichen und Kindern statt, die gegen den Klimawandel auf die Strasse gehen, getrieben von links-grünen Eltern und Lehrern oder Organisationen (NGO) wie German Watch, die in den Schulen agitieren-und dies auch dürfen! Mit Sicherheit haben diese Aktivisten nicht die geringste Ahnung von Klimatologie oder der Physik der Atmosphäre!

Denn die Jugendlichen/Kinder können gar nicht wissen, was sie tun, wozu sie benutzt werden. Warum fanden die Demonstrationen eigentlich nicht an schulfreien Tagen, samstags oder sonntags statt?

Ich halte es einfach nicht mehr aus!

Meine Home Page bleibt natürlich erhalten und vielleicht überkommt es mich ja irgendwann wieder, Kommentare zum größten Irrsinn abzugeben.

Noch eine Bemerkung zum Kampf gegen den Klima-Irsinn:

Vor wenigen Jahren nach meinem Vortrag in HH über Klimafakten beim Deutschen Steuerzahlerbund in der Hanse Lounge, bei dem auch die damalige Grüne Senatorin für Umwelt anwesend war, fragte mich der Vorsitzende, ob ich bereit sei, mit einem oder zwei Vertretern des PIK (Potsdamer Institut für Klimafolgenforschung) öffentlich zu diskutieren. Ich bejahte dies sofort, sagte ihm aber auch, dass er diese Diskussion nicht zustande bringen werde, weil sich das PIK dies nicht traut. (Es gab ja bereits mehrfache Versuche!)

So war es auch! Eine Diskussion konnte auch der Deutsche Steuerzahlerbund nicht zustande bringen.

Armselig !!!

Seid herzlich gegrüßt

Rainer

 

Lieber Freund Rainer,

Zur „Klima-Sache“ :

Ich bewundere seit Jahren den Optimismus, die Geduld und den Fleiß von ….

Jüngst sogar in Katowicze !!

DAS möchte ich hier ausdrücklich mal sagen!

Ich habe Euch gegenüber einen „Vorteil“ :

Ich habe in der DDR gelebt!

Faschismus in Rotem Gewand.

Das, was wir hier erleben, ist  genau das Gleiche – der Faschismus nur GRÜN angezogen.

Ich habe viel erlebt,

ich habe sehr viel Geschichte gelesen, es ist immer dasselbe:

Es geht bei der Spezi’es anthropus erectus immer(!) bis zum bitteren Ende !

… (nahezu) NIE über Einsicht+Erkenntnis !

Ich habe zu keiner Zeit geglaubt, daß wir diesen Irrsinn  stoppen.

Ich habe nur dagegen agiert, weil ich es sonst nicht ertrage!

Ich möchte jeden Morgen weiterhin in den Rasier-Spiegel schauen , und sagen können  „Du hast es nicht hingenommen!“

Ich möchte, daß meine Kinder später mal sagen dürfen/können: „Unser Vater hat sich dagegen gewehrt!“

(zumindest hoffe ich das, d a s   ist meine „Vision“ („Illusion“ ?)

Ich habe aber auch Verständnis für Deine Resignation – lieber Rainer, wirklich.

So geht es HUNDERTEN Kollegen von uns, ich kenne Dutzende.

Wenn man die alle mitzählt,

dann haben nicht die „Alarmisten“ 97%,

sondern die Skeptiker !

Na – genug !

Machts gut, jeder auf seine Art.

Dein …

 

Im Folgenden kann mein Beitrag „Klimawandel – eine rationale Diskussion“ aufgerufen werden!

Klimawandel eine rationale Diskussion neu 190118

Filed under: Klima, Klima und Umwelt, Kohlendioxid Konzentration, Wissenschaft, , ,

97% = 66% falsch

Alarmistische Klimawissenschaftler berufen sich mit Arroganz und Aggressivität den Skeptikern gegenüber auf das Ergebnis einer Analyse von 2013.

Climate Science is settled: 97% der Klimawissenschaftler stimmen überein. Die Klimawissenschaft ist entschieden!!

Genaueres Hinsehen ergibt jedoch:

Diese 97% Übereinstimmung sind sowas von falsch, 66% falsch, 66% zu hoch!

Nebenbei: Falls die Klimawissenschaft mit ihren alarmistischen Folgerungen wirklich „Settled“ wäre, wozu benötigt man weitere 100 te Millionen € für Forschung und neue Supercomputer?! Wozu benötigt man dann z. B. noch das PIK, Potsdamer Institut für Klimafolgenforschung, gefördert im Wesentlichen mit Millionen Steuermitteln/Jahr?!

Wie entstand nun das Märchen von den 97% Konsens, die Wissenschaft ist entschieden, auf welchen Untersuchungen basiert diese Aussage?

Ein Team unter der Leitung des australischen Kognitionswissenschaftlers John Cook wertete Abstracts, es wurden nicht die vollständigen Artikel begutachtet, von 11.944 Peer-Review-Studien zur globalen Erwärmung aus, die zwischen 1991 und 2011 veröffentlicht wurden, um zu sehen, welche Position sie in Bezug auf menschlichen Einfluss auf das Klima einnahmen [1,2,3].

Von diesen Abstracts nahm knapp über 66 Prozent oder 7.930, keine Position in Bezug auf die von Menschen verursachte globale Erwärmung ein. Nur 32,6 Prozent oder 3.896 von Peer-Review-Papieren, befürworteten den „Konsens“, dass die Menschen zur globalen Erwärmung beitragen, während nur 1 Prozent der Papiere entweder diese Position ablehnten oder unsicher waren.
Cook geht davon aus, dass von diesen Studien, die eine Position zur globalen Erwärmung einnehmen (entweder explizit oder implizit), sich 97,1 Prozent einig waren, das die Menschen zur globalen Erwärmung beitragen.

Doch worauf basiert dieser angebliche Konsens denn genauer?

Die von „Hilfskräften“, keine Klimawissenschaftler, erfassten

Abstracts wurden von diesen in acht Kategorien unterteilt:

  1. Die Klimaerwärmung ist hauptsächlich durch Menschen verursacht.
  2. Der Mensch ist an der Klimaerwärmung beteiligt.
  3. Die Studie nimmt Bezug auf eine menschenverursachte Erwärmung.
  4. Es wird keine Aussage zur menschengemachten Klimaerwärmung gemacht.
  5. Die Rolle des Menschen wird erwähnt, es werden aber keine Schlüsse gezogen.
  6. Der Mensch hat einen unbedeutenden Einfluss auf die Klimaerwärmung.
  7. Der Einfluss des Menschen auf die Klimaerwärmung ist nicht nachweisbar.
  8. Die menschengemachten CO2-Emissionen sind vernachlässigbar.

In der Auswertung wurden die Abstracts der Kategorien 1 bis 3 als positiv gewertet, 6 bis 8 galten als Ablehnung des menschengemachten Klimawandels. Die Kategorien 4 und 5, denen man zwei Drittel der Arbeiten zuordnete, wurden als unbedeutend ausgesondert.

Damit wurden aus den 32,6 %, die den Kategorien 1 bis 3 entsprachen, 97 Prozent zur menschengemachten Klimaerwärmung, da man die 66% ausgesondert hatte.

Gleichzeitig könnte dies jedoch auch bedeuten, dass sich 66% der Klimawissenschaftler bezüglich des Einflusses des Menschen auf das Klima nicht festlegten.

Zumindest problematisch ist sodann, dass aus Cooks Erhebung nicht hervorgeht, ob der erfasste Fachartikel den menschlichen Einfluss einfach als Prämisse voraussetzt und nur zitiert, um darauf aufbauend weitere Schlüsse zu ziehen, oder aber aufgrund eigener Untersuchungen zu diesem Schluss kommt.

Doch selbst wenn man die nunmehr nur noch 32,6% akzeptiert, und daraus 97% macht, die einen menschengemachten Einfluss auf das Klima bestätigen, ergibt sich daraus lediglich der Konsens, dass sich das Klima in den letzten 150 Jahren erwärmt und dass das menschengemachte CO2 darauf einen Einfluss hat.

Doch das stellen fast alle Skeptiker gar nicht in Abrede.

Als Skeptiker des alarmistischen von Menschen gemachten Klimawandels gehöre ich auch zu den 32,6% (alias 97%).

Siehe z.B. mein 2011 mit Horst-Joachim Lüdecke veröffentlichter Artikel, unter Peer Review, der auch den Einfluss des von Menschen emittierten CO2 quantifiziert [4].

Quellen:

[1] Quantifying the consensus on anthropogenic global warming in the

scientific literature, John Cook, Dana Nuccitelli, Sarah A Green, Mark Richardson,

Bärbel Winkler. Rob Painting, Robert Way, Peter Jacobs and Andrew Skuce

[2] WELTWOCHE Zürich: Der 97-Prozent-Mythos, Die Weltwoche, Nr. 12 (2019)

[3] Missglückter Forscher-Aufruf zum Uno-Klimagipfel, Die 97-Prozent-Falle, Axel Bojanowski, 23.09.2014

[4] International Journal of Modern Physics C

Vol. 22, No. 05, pp. 449-455 (2011)

A NEW BASIC ONEDIMENSIONAL ONE-LAYER MODEL OBTAINS EXCELLENT AGREEMENT WITH THE OBSERVED EARTH TEMPERATURE

Rainer Link, Horst-Joachim Lüdecke

Abstract

A manifold of rather complex Global Circulation Models calculates the Earth radiation and energy budget. Their outcome mostly cannot identify integral radiation or energy budget relations. Therefore, it is reasonable to look at more basic models to identify the main aspects of the model results. The simplest one of all of those is a one-dimensional one-layer model. However, most of these models — two are discussed here — suffer the drawback that they do not include essential contributions and relations between the atmospheric layer and the Earth. The one-dimensional one-layer model presented here integrates sensible and latent heat, the absorption of solar radiation and the direct emission of the long wave radiation to space in addition to the standard correlations.

It is shown that this basic model is in excellent agreement with the observed integrated global energy budget.

PDF:

97% = 66% falsch

Filed under: CO2 Emission, Energie, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Wissenschaft

CO2 Grenzwert in der Atmosphäre in Abhängigkeit von seiner Lebensdauer

Das von den Menschen anthropogen in die Atmosphäre im Wesentlichen durch Verbrennung fossiler Rohstoffe emittierte CO2 wird nach einer bestimmten Zeit durch Vegetation und Ozeane wieder aufgenommen. Die typische Angabe für die Verweilzeit ist die Lebensdauer, die Zeit in der die Konzentration um einen Faktor 1/e=0,3679 abgenommen hat.

Die Veränderung der Konzentration von CO2 wird beschrieben einmal durch diese Abnahme, die wie bei all diesen Vorgängen exponentiell verläuft und zum anderen der anthropogenen Emission pro Zeiteinheit in die Atmosphäre.

dC(t)/dt = – C(t)/tau +dE/dt                                                              (1)

Dabei ist tau die Lebensdauer von CO2 in der Atmosphäre und C(t) die von den Menschen (anthropogen) hervorgerufene zeitabhängige Konzentration. dC(t)/dt ist ihre zeitliche Veränderung.

-C(t)/tau ist die Abnahme der anthropogen verursachten Konzentrationsänderung von CO2 und dE(t)/dt der pro Zeiteinheit in die Atmosphäre emittierte Betrag.

Es werden hier nur die durch den Menschen verursachten Anteile berücksichtigt, die sich zusätzlich zur vorindustriellen Konzentration in Höhe von ca. 280 ppmV CO2 addieren. Dabei ist davon ausgegangen, dass die vorindustrielle Konzentration einem Gleichgewichtszustand entsprach, in dem der natürliche Austausch von CO2 in der Atmosphäre im Wesentlichen mit der Vegetation und den Ozeanen erfolgte.

Die Lösung der Differentialgleichung (1) wird vereinfacht, wenn man annimmt,

dass die anthropogene Emission pro Zeiteinheit konstant gleich dE/dt=Ec ist, ebenso wie die Lebensdauer tau. Natürlich ist dies eine Näherung, die jedoch das Verhalten der Konzentration und wie man sehen wird, den Grenzwert qualitativ gut beschreibt.

Die Lösung der Gleichung (1) lautet:

C(t)=tau*Ec(1-e-t/tau)                                                                        (2)

 

Die Emission Ec(t) von CO2 in die Atmosphäre beträgt seit Jahren 4,4 ppmV/Jahr.

Das IPCC gibt in seinem fünften Sachstandsbericht Werte für tau zwischen 30 und 100 Jahren an.

Der wahrscheinlichste Wert für Tau beträgt 50 Jahre.

In der folgenden Graphik ist die Situation C(t) in ppmV als Funktion der Zeit t in Einheiten der Lebensdauer tau für die Werte Ec=4,4 ppmV/Jahr, tau =50 Jahre dargestellt, ausgehend von der Konzentration 400 ppmV, die bis 2018 gemessen wurde.

Der zugehörige Grenzwert beträgt 500 ppmV an Konzentration von CO2, wenn die Lebensdauer bei 50 Jahren bleibt und die anthropogene Emission von 4,4 ppmV/Jahr nicht vergrößert wird.

Dieser Zustand 500 ppmV wird voraussichtlich nicht einmal erreicht. Die fossilen Reserven an Brennstoffen betragen nur etwa 1250 Gt Kohlenstoff, die allemal bis zur Erreichung des Grenzwertes verbraucht sind.

Entsprechende Grenzwerte lassen sich mit einer einfachen Excel Tabelle auch für andere Lebensdauern z. B. tau = 30 und 80 Jahre berechnen.

Lebensdauer in Jahren 30 50 80
Grenzwert in ppmV 420 500 630

 

Bei einer Lebensdauer von 80 Jahren wird der Grenzwert von 630 ppmV, auf Grund der endlichen fossilen Reserven nicht erreicht werden können.

In der nächsten Tabelle wird für den wahrscheinlichsten Wert der Lebensdauer von 50 Jahren mit dem Grenzwert 500 ppmV, gemäß der von allen Klimawissenschaftlern anerkannten Gleichung (3) für die global gemittelte Temperaturänderung dT als Funktion der Konzentration von CO2 in der Atmosphäre angegeben. Den bei Verdopplung der Konzentration erreichten Temperaturwert nennt man die Sensitivität von CO2. Damit können die damit verbundenen heutigen Temperaturwerte und die bei Erreichen des Grenzwertes einfach berechnet.

dT=f*ln((t) /280)                                                                                (3)

Dazu wird zunächst der Wert für f aus der heutigen globalen Temperaturänderung dT(2018) seit vorindustriellem Wert und der heutigen Konzentration C(2018) bestimmt. Der so ermittelte Wert für f beinhaltet auch alle Rückkopplungen, die durch CO2 erfolgten, wie die Wasserdampfverstärkung und andere Veränderungen durch die Erhöhung der Co2 Konzentration.

Die heutige globale Temperaturänderung (Temperaturanomalie) beträgt gemessen 1,16 °C. Man geht jedoch davon aus (auch das IPCC), dass nur ca. 50% durch anthropogen emittiertes CO2 verursacht wurden, 50% natürlichen Ursprungs sind. In der Tabelle sind die folgenden Werte für 0,58, 0,8 und 1,16°C durch CO2 verursacht bei einer Lebensdauer von 50 Jahren angegeben.

Damit erhält man die Sensitivität für CO2 bei Verdopplung seiner Konzentration von 280 auf 560 ppmV.

dT (CO2 – Sensitivität) = f * ln(560/280))

Ebenso ergibt sich die Temperaturänderung, die von 280 ppmV bis zum Erreichen des Grenzwertes zu erwarten ist.

dT(Grenzwert) = f* ln(Grenzwert/280)

dT(t=2018)/°C 0,58 0,8 1,16
C(t=2018)/ppmV 400 400 400
f/°C 1,63 2,24 3,25
CO2 –Sensitivität/°C 1,13 1,55 2,25
dT(Grenzwert)/°C 0,94 1,3 1,88
dT(2118)- dT(2018)/°C 0,36 0,5 0,72

 

Die global gemittelte Temperaturerhöhung bleibt bis zum Erreichen des Grenzwertes von 500 ppmV bei einer angenommenen Lebensdauer von 50 Jahren allemal unter der im Übereinkommen von Paris 2015 (COP21) angestrebten 2°C Ziel – selbst wenn man annimmt, dass die bis heute gemessenen 1,16 °C nur auf die Erhöhung der CO2 Konzentration zurückzuführen ist.

Selbst das IPCC geht davon aus, dass mindestens 30% der Temperaturerhöhung natürlichen Ursprungs sein müssen (ergibt ca. 0,8°C).

Damit bleibt man auch bei weiter gleichbleibender Emission unter dem 1,5° C Ziel von COP24 in Katowice 2018.

PDF und Rechnung:

CO2 Grenzwert bei Berücksichtigung der Lebensdauer 190301

 

Filed under: CO2 Absorption, CO2 Emission, CO2 Konzentration, Klima, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , , , , , , , , ,

Die Deutsche Energiewende

In einem sehr umfangreichen, physikalisch und technisch korrekten Artikel, der dennoch auch für Nicht-Techniker leicht zu verstehen ist, hat Prof. Hans-Joachim Lüdecke die Wünsche, Grenzen und Möglichkeiten der Deutschen Energiewende zu den „Erneuerbaren“ Energien dargestellt.

https://www.eike-klima-energie.eu/2019/05/10/warum-die-energiewende-ein-totes-pferd-ist-und-der-spiegel-unsinn-schreibt/

(Bemerkung Rainer Link:

In diesem Zusammenhang möchte ich auf ein Essay von Prof. Fritz Vahrenholt in der Weltwoche hinweisen, das ebenso sehr lesenswert ist.

https://www.weltwoche.ch/ausgaben/2019-20/artikel-567117/das-4600-milliarden-fiasko-die-weltwoche-ausgabe-20-2019.html

Dieses Essay bezieht sich auf eine Studie „Energiesysteme der Zukunft“ der Union der Deutschen Akademien der Wissenschaften.

https://energiesysteme-zukunft.de/fileadmin/user–upload/Publikationen/pdf/ESYS–Analyse–Sektorkopplung.pdf

Unter anderem kann man hier nachlesen, dass z. B. eine CO2 Minderung um 85-90% bis 2050 in Deutschland die hübsche Summe von 4.500 Milliarden € kostet oder auf die deutschen Haushalte verteilt für jeden 320 €/Monat.

Für die Rettung der Erde sollte dies allerdings kein Thema sein, sofern nach der Deindustrialisierung Deutschlands noch genügend Menschen hinreichend viel verdienen.)

Zurück zum Artikel von Prof. Lüdecke. Die Abhandlung ist auf 10 Seiten in ebenso viele Kapitel aufgeteilt.

Ein Teil der Überschrift lautet: Warum die Energiewende ein totes Pferd ist…!

Das erinnert mich an den Spruch der Amerikanischen Indianer:

Wenn Du ein totes Pferd reitest, steig ab!

Nach den Ausführungen von Prof. Lüdecke, sollte man dies unbedingt befolgen, denn wie bekannt ist, gilt:

„It´s Physics, Stupid“

Oder frei übersetzt:

„Es ist eben Physik, Du Dummkopf“

Damit man nicht den ganzen Artikel lesen muss, obwohl es sich lohnt, habe ich in einer Zusammenfassung einige Kapitel der Arbeit in auszugsweisen Zitaten mit den entsprechenden Nummerierungen dargestellt.

 

  1. Die deutsche Energiewende

Die Bundesregierung plante ursprünglich, bis zum Jahr 2050 gegenüber 2008 den Stromverbrauch um 25% zu senken, den Anteil an erneuerbaren Energien am Bruttostromverbrauch auf 80% zu erhöhen, die Treibhausgasemissionen um 80 bis 95% zu verringern und die Zahl der Elektroautos auf 6 Millionen zu steigern…. Elektrische Energie machte 2017 etwa 1/6 der deutschen Primärenergie aus. ….Das Stromnetz selber ist kein Speichermedium. Ohne Speicherung muss Strom zum Zeitpunkt seiner Erzeugung sofort verbraucht werden.

Bemerkung Rainer Link:

Annalena Baerbock, Bundesvorsitzender der Partei „Die Grünen“, glaubt, die elektrische Energie wird in den Stromleitungen gespeichert!

It´sPhysics, Stupid!

Die Energiewende hat mit erheblichen Problemen zu kämpfen. Trotz im Jahre 2017 über 28.000 installierter Windturbinen, deren Nennleistung bereits alle ehemaligen deutschen Kernkraftwerke übertrifft, macht verbrauchter Windstrom dennoch nur etwa 3% der deutschen Primärenergie aus, Sonnenstrom und Strom aus Biomasse jeweils etwa 1%….

Deutschland hat heute die höchsten Strompreise Europas.

 

  1. Energie im Verlauf der Menschheitsgeschichte

…..

  1. Der entscheidende Begriff der Leistungsdichte

Der russische Eisbrecher Arktika wird von zwei kleinen Kernreaktoren an Bord mit einer Gesamtleistung von 55 MW angetrieben. Wollte man die Arktika mit Photovoltaik anstatt mit Uran betreiben, wären rechnerisch 5,5 Quadratkilometer Photovoltaik-Fläche erforderlich, die etwa 10 W Leistung pro m2 Solarpanelenfläche liefert. Mit Windstrom an Stelle von Uran wären 42 Windturbinen des Typs Enercon E 126 erforderlich, jede 198 m hoch und mit einer realen Leistung von 1,3 MW…. Die Frage nach den Gründen für den extrem hohen Aufwand der beide „Erneuerbaren“ Wind und Sonne für den Antrieb der Arktika beantwortet die Leistungsdichte

Leistungsdichte = Leistung / Fläche (1) oder

Leistung = Leistungsdichte x Fläche (2)

… Tabelle 1 zeigt Grobwerte von Leistungsdichten….

Tabelle 1: Leistungsdichten unterschiedlicher Methoden zur Erzeugung von elektrischem Strom, angegeben in W/m2 des Endprodukts  elektrische Energie unter Einbeziehung der jeweiligen Methoden-Wirkungsgrade.

…Neben der Leistungsdichte ist auch die Energiedichte als Energie pro Volumen oder pro Gewicht eine maßgebende Größe. Das Reichweiteproblem von Elektroautos wird mit ihr verständlich. Benzin hat nach Abzug der Wirkungsgradverluste eine Energiedichte von rund 4 kWh/kg, ein Lithium-Ionen- Akku dagegen von 0,18 kWh/kg. Ein Elektroauto muss daher grob das 4/0,18 = 22-fache Treibstoffgewicht eines Benzinautos mit sich führen. Da heute etwa 71% der Güter in Deutschland oft über weite Strecken und mit engen Zeitvorgaben auf der Straße transportiert werden, ist zumindest eine Umwandlung von LkW-Antrieben auf Strom unrealistisch. Hier sind nicht nur das zusätzlich zu transportierende Treibstoffgewicht in Form von Akkus sondern auch die langen Ladezeiten der Batterien die maßgeblichen Hinderungsgründe. Elektroautos sind nur für Innenstadt und Golfplatz sinnvoll.

 

  1. Die entscheidenden Nachteile zu kleiner Leistungsdichte

Bei zu kleiner Leistungsdichte sind sehr große Wirkflächen der betreffenden Methoden erforderlich. Dementsprechend steigt der Aufwand an Energie, Material und Kosten bei Bau und Betrieb, denn diese Wirkflächen müssen mit Technik zugebaut werden. Die folgenden Daten der Großwindanlage Enercon E 126 liefern ein stellvertretendes Beispiel: 198 m Gesamthöhe, überstrichene Propellerfläche 12470 m2 = 1,247 ha, Gewicht 3460 t plus 3500 t Stahlbetonfundament. Drei E 126 haben somit das Gesamtgewicht aller  300 Leopard2 – Panzer von je 68 t der deutschen Bundeswehr. Trotz 7,5 MW Nennleistung liefert die E 126 im bundesdeutschen Orts- und Jahres-Mittel aber nur 1,3 MW elektrische Leistung. Dies entspricht grob 7 Automotoren von je 200 kW.

…Neben der geringen Leistungsdichte des Windes gibt es weitere methodenspezifische Gründe für die erstaunlich geringe Leistungsausbeute aus Wind, die im Abschnitt 9. näher erläutert werden. Man müsste schon mehr als100 km Windturbinen  hintereinanderstellen, um die gleiche jahresgemittelte Leistung wie ein einziges großes Kohle- oder Kernkraftwerk zu erzielen. …..

 

  1. Der Erntefaktor als Maß für Energieeffizienz

Der Erntefaktor, englisch ERoEI (Energy Returned to Energy Invested), quantifiziert die bisherigen Ausführungen. Vereinfacht ausgedrückt ist er das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen.

…..

Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert, auf die sich die Aussagen des vorliegenden Beitrags stützen. Neben der Bedingung ERoEI > 1 gibt es noch die Forderung ERoEI > 7, denn unterhalb von 7 ist eine Methode volkswirtschaftlich nicht mehr sinnvoll….

Bild 2: Erntefaktoren für Methoden der Stromerzeugung gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern.

 

  1. Leistungsdichte bezogen auf Landschaftsfläche

Zur Angabe einer Leistungsdichte gehört die Spezifizierung der Fläche. Für Windturbinen im deutschen Jahres- und Ortsschnitt und ihre Installation in Windparks“ beträgt die Leistungsdichte bezogen auf Landschaftsfläche etwa 1 W/m2.… die zur heutigen Installation an Windrädern gehörige rechnerische Fläche entspricht etwa der Fläche Bayerns. In diesem Zusammenhang ist von Interesse, wie weit ein zukünftiger Windradausbau überhaupt noch gesetzlich zulässig ist. Die entscheidende Größe ist hier der minimale zulässige Abstand eines Windrads zur nächsten Wohnsiedlung. Windräder erzeugen Infraschall, dessen gesundheitsschädigende Wirkung durch wissenschaftliche Untersuchungen belegt ist. Die heute gründlichste Studie über gesundheitsschädliche Auswirkungen von Infraschall auf den Menschen wurde in Zusammenarbeit der Charité Berlin mit der Physikalisch Technischen Bundesanstalt PTT Braunschweig und zwei Hamburger Universitätskliniken erstellt. Die Quellenangaben dieser Studie liefern überdies einen guten Überblick zum heutigen wissenschaftlichen Kenntnisstand.

Wegen Infraschall ist inzwischen in Bayern der Mindestabstand 10 H vorgeschrieben, das bedeutet die zehnfache Gesamthöhe des betreffenden Windrads. Aus der Grafik Abb. 12 auf S. 38 einer Studie des Bundesumweltamts geht hervor, dass bei 2000 m Mindestabstand (dies entspricht 10 H bei 200 m hohen Windrädern) nur noch maximal 0,4% der bundesdeutschen Bodenfläche für den weiteren Windradausbau nutzbar ist. Ausgeschlossene Sondergebiete sind dabei nicht berücksichtig, so dass sich der reale Wert noch etwas verringert.

Der Ausbauplan der Bundesregierung für Windenergie erscheint daher unrealistisch.

 

  1. Die Fluktuation von Wind- und Sonnenstrom

Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist besser bekannt und wird bereits von den Medien thematisiert. Er ist seine Wetterabhängigkeit. Zufallsstrom kann ohne weitere Maßnahmen nicht in das Stromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund für Glättung sorgen würde, hat eine ausführliche VGB-Studie widerlegt. Das gemessene Minimum dieser Studie an geliefertem Windstrom beträgt nur 4% der europaweit installierten Windrad-Nennleistung. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zurVersorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nachheutigem Stand der Technik.“ Diese Backup-Systeme sind heute schnell reagierende Gaskraftwerke (GuD). Diskussionswürdige Stromspeicherlösungen sind nicht in Sicht. Man muss daher für Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, welches die Gesamtkosten dieser „Erneuerbaren“ zumindest verdoppelt…

 Man benötigt also für Windräder und Photovoltaik noch einmal etwa die gleiche Leistung an fossilen Ersatz-Kraftwerken, denn schließlich ist die Lücke zu füllen, wenn Wind und Sonne fehlen…

 

  1. Photovoltaik in Ländern starker Insolation

……..

 

  1. Weitere Gründe für die unzureichende Leistung von Wind und Sonne

…….

 

  1. Eine grundsätzliche Sicherheitsgrenze für Wetter-Fluktuationsstrom

Die bisher geschilderten technischen und wirtschaftlichen Begrenzungen für die „Erneuerbaren“ Wind und Sonne sind zwar prinzipiell keine unüberwindbaren Hürden für ihren weiteren Ausbau, falls man auf Kosten, Naturschutz, Landschaftsschutz und den Gesundheitsschutz von Windradanrainern (Infraschall) keine Rücksichten nimmt. Es existiert allerdings eine Grenze seitens der Netzsicherheit. Grund dafür sind Netzschwankungen auf Grund der unsicheren Stromerzeugung  durch die „Erneuerbaren“ im Bereich von Sekundenbruchteilen bis zu wenigen Sekunden, die zum Zusammenbruch des gesamten Netzes führen können.

…Auch eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW geht auf diese Zusammenhänge ein. Der erforderliche Anteil von Grundlastkraftwerken hängt von der aktuellen Netzstruktur und ferner davon ab, welches Blackout-Risiko man noch toleriert. Die vorgenannte Publikation gibt eine Mindestleistung von 20 GW für den Regelblock Deutschland an. Mit den momentan vorhandenen Grundlastkraftwerken wäre damit die erforderliche Sicherheit noch gegeben. Dies wird sich aber mit zunehmendem Windradausbau, dem gesetzlichen Abschalten weiterer Kernkraftwerke sowie durch die aktuell diskutierte Abschaltung von Kohlekraftwerken in Richtung größerer Instabilität und immer höherer Black-Out-Gefahr ändern.

 

Bemerkung Rainer Link:

Stunden, Tage oder gar wochenlanger Ausfall des Stromes (Black Out) in Regionen Deutschlands ergibt Zustände, die man sich bestimmt nicht wünschen oder gar vorstellen möchte.

Wie gesagt:

It´s Physics, Stupid!!!

PDF:

Die Deutsche Energiewende

 

Filed under: CO2 Emission, Energiewende, Klima, Klima und Umwelt, Wissenschaft, , , , , ,

Der 4.500 Milliarden Flop der Energiewende

Reprint mit freundlicher Genehmigung des Autors Prof. Dr. Fritz Vahrenholt.

 https://vahrenholt.net/

Die Forderungen nach dem Ausstieg aus Kohle, Kraftstoff und Erdgas werden immer schriller: Es fing schon mit dem waghalsigen Vorschlag der Kohlekommission an, die vom Bundeskanzleramt zur Hälfte mit grünen Aktivisten besetzt wurde – Ausstieg aus der Kohle bis 2038. Dann folgte die Forderung Robert Habecks und seiner grünen Freunde nach dem Aus für den Verbrennungsmotor im Jahre 2030. Und als es vier Wochen im April sehr trocken war (sehr schlimm, hat es noch nie gegeben) rief Annalena Baerbock die Klimakrise aus: Verdopplung des CO2-Preises und ein starkes Ordnungsrecht! Nun fordern die Freitagskinder von Lummer Land eine CO2-Steuer von 180 € noch in diesem Jahr, bis 2035 „Treibhausemissionen auf Netto- Null“, 100 % Erneuerbare Energien.

Da lohnt es sich ja doch einmal, in die Studie des Akademieprojektes „Energiesysteme der Zukunft“ der „Union der Deutschen Akademien der Wissenschaften“, die Ende letzten Jahres unter dem Titel „Sektor Kopplung- Untersuchungen und Überlegungen zur Entwicklung eines integrierten Energiesystems veröffentlicht wurde, zu schauen. Es soll an dieser Stelle nicht hinterfragt werden, wieso der gesammelte technische Sachverstand unserer deutschen Akademien die Zukunft unserer Energieversorgung im Wesentlichen auf allein zwei Technologien stützen will: Windenergie und Photovoltaik. Warum geben die Wissenschaftler der Kernfusion, der inhärent sicheren Kernenergie ohne langlebige Rückstände (dual fluid reactor) oder der CO2-freien Kohlenutzung (Carbon capture and sequestration) nicht den Hauch einer Chance? Weil Wissenschaft in Deutschland nur noch in der Bandbreite des Mainstreams denken darf, etwa von CDU-Parteitagsbeschluss bis Greenpeace-Resolution.

Es lohnt sich trotzdem reinzuschauen, um zu erahnen, was uns bevorsteht. Es werden alle Sektoren, Strom, Verkehr und Wärme zusammen betrachtet. Und siehe da: 80% der Energie werden fossil erzeugt, 7,5 % durch Kernenergie und 13 % durch Erneuerbare Energien. Wenn man bei den Erneuerbaren Energien die Biomasse (einschl. Biogas und Biosprit) abzieht, bleiben übrig: 1,5 % der Primärenergie wird durch Windkraft erzeugt und 1% durch Photovoltaik. (S.10 der Studie). Das ist ein langer Weg bis zu 100%. Die Studie kommt zum Schluss, wenn man den Weg einer Dekarbonisierung um 90% bis 2050 gehen will, dann „wird mit rund 1150 Terawattstunden sogar fast doppelt so viel Strom benötigt wie heute“ (S.10), weil Verkehr und Wärme ebenfalls aus Strom erzeugt werden soll.

Da man sich nur auf Photovoltaik und Windkraft verkrampft hat, kommt die Studie zum Schluss:

Die installierte Leistung an Windkraft und Photovoltaik müsste in diesem Fall (bei gleichbleibendem Energieverbrauch) gegenüber heute versiebenfacht werden.“

Wir haben heute etwa 28 000 Windkraftanlagen mit einer Kapazität von 57 000 Megawatt und 46 000 Megawatt Photovoltaik. Eine Versiebenfachung der Photovoltaikfläche würde fast alle in Deutschland möglichen Dach-Fassaden- und andere Siedlungsflächen erfassen. Eine Versiebenfachung der Kapazität der Windenergieanlagen würde selbst bei Verdopplung der Kapazität der einzelnen Anlagen Deutschland verändern. Alle 1,5 Kilometer würde eine 200 m hohe 3-5 MW- Anlage stehen.

Die Studie lässt auch den Abgrund erahnen, auf den wir auf diesem Weg zugehen.

„Die Dominanz der fluktuierenden Erneuerbaren Energien erfordert eine hohe Flexibilität auf der Stromerzeugungsseite und der Verbrauchsseite“

(!!) Das heißt mit anderen Worten, wenn die Natur nicht genügend Wind und Sonnenstrom liefert, muss man auch zeitweise ohne Strom auskommen. Interessant ist das Ergebnis, dass es auch in der schönen neuen Welt der dezentralen Energieerzeugung nicht ohne zentrale Großkraftwerke gehen wird. Die Studie schätzt, dass etwa                   60- 100 000 Megawatt Großkraftwerke, die natürlich auf Biogasbasis oder synthetischem Methan oder Wasserstoff gefahren werden, kurzfristige Zusammenbrüche verhindern helfen. Zum Vergleich: heutige Großkraftwerkskapazität 90 000 MW.

Wohltuend ist die Aussage, dass Batterien nur eine Lösung als Kurzzeitspeicher haben können. Voraussetzung für Langzeitspeicher ist die erfolgreiche Entwicklung von power-to -gas, also Windstrom per Elektrolyse in Wasserstoff oder gar Methan zu verwandeln. Das ist zwar heute noch absurd teuer, aber das schaffen wir schon. Allerdings warnen die Autoren, dass es in Tagen der kalten Dunkelflaute (keine Sonne und kein Wind im Winter) zu Konflikten zwischen power to heat (also der Wärme auf Windstrombasis) und dem Strombedarf bei knappem Angebot geben kann. Will sagen: Licht oder warme Heizung, das ist dann die Frage. Das Auto bleibt dann sowieso stehen.

Die Autoren korrigieren auch die weithin verbreitete Fehleinschätzung des Autos als Stromspeicher.

„Die Pufferkapazität der Elektroflotte, liegt im Bereich von einigen Stunden“

( S.57). Sie hängt zudem davon ab, ob die „Autobesitzer bereit sein werden, ihre Batterien dem System zur Verfügung zu stellen. Sind sie größtenteils nicht bereit, die Souveränität über Ladung und Entladung zeitweise abzugeben, ist der Betrag gering. Schlimmstenfalls könnte zeitgleiches Laden vieler Autos zu bestimmten Tageszeiten zu einer zusätzlichen Belastung für das Stromnetz werden. Wie undankbar diese Autofahrer sind. Da hat man jede Straße in den Städten für sie aufgerissen, um dem „Ausbau der Verteilnetze“ Rechnung zu tragen und nun wollen sie auch noch bestimmen, wann sie fahren wollen und wann nicht.

Aber die schöne neue Welt von Gretl, Annalena und Robert hat einen Preis. Die Autoren setzten 60% CO2 Minderung, die ja bis 2030 erreicht werden soll, voraus. Bis dahin kostet das 4000 Milliarden in gut 10 Jahren. Das heutige Energieversorgungssystem kostet pro Jahr           250 Milliarden €. Das wird schon mal 1500 Milliarden teurer. Bei 60 auf 75 % CO2 Minderung rechnen die Autoren mit weiteren 800 Milliarden. Von 75 auf 85 % mit weiteren 1000 Milliarden. Von 85 auf 90 % CO2 Minderung noch einmal weitere 1300 Milliarden. Also bis 60 %        1500 Milliarden, bis 90 % 3100 Milliarden, machen zusammen 4600 Milliarden. 4600 Milliarden € geben die deutschen Haushalte aus, um 800 Millionen t CO2 zu vermeiden. Dies ist eine Menge an CO2, die jedes Jahr China zusätzlich ausstößt.

Damit die Eltern von Fridays for Future die 4600 Milliarden richtig verstehen: das sind im Jahr 153 Milliarden,  bei 40 Millionen Haushalten in Deutschland bezahlt jeder Haushalt monatlich 382 € im Monat – netto. Und wenn es nach Gretl und ihren Followern geht, nämlich in     15 Jahren 100% Erneuerbare Energien zu erreichen, dann wären das 764 € im Monat – wenn es denn nicht vorher zu einem Zusammenbruch der deutschen Energieversorgung kommen wird, was sehr wahrscheinlich ist. 764 € sind bei einem monatlichen Durchschnittsverdienst in Deutschland von netto 1890€. Damit fallen diese Haushalte dann unter die Armutsgrenze (60 % des Durchschnittsnettoeinkommens). Schöne neue Welt.

Wir kommen nicht einmal klar mit dem Umbau der Stromversorgung (siehe hierzu die Warnung der Bundesnetzagentur zum Aufbau von Reservekraftwerkskapazität in 2022 in Höhe von 10 000 Megawatt      (10 Kernkraftwerke). Da erweitern wir das Problem auf Wärme und Mobilität. Alle drei Sektoren, die bislang von unterschiedlichen Energieträgern (Kohle, Erdgas, Erdöl) geprägt waren, sollen von einem einzigen abhängig gemacht werden: Strom, gespeist aus Wind und Sonne. Wind und Sonne entscheiden, wann wir unser Auto bewegen können, wieviel Wärme wir im Winter nutzen dürfen und wann das Licht angeschaltet werden kann.

Das nennt man einen nachhaltigen Kurzschluss. Und warum das alles? Natürlich wegen der anfangs erwähnten Klimakrise. Und deswegen sind solche Blogs wie dieser notwendig, um allen Entscheidern klarzumachen: Ja, wir müssen am Ende dieses Jahrhunderts die fossile Ära hinter uns gelassen haben. Aber diese Zeit haben wir auch, denn die Klimasensitivität des CO2 ist deutlich kleiner als uns die Panikmacher und Systemveränderer erzählen wollen.

PDF:

Milliarden Flop Energiewende Vahrenholt

Filed under: CO2 Emission, CO2 Konzentration, Energie, Energiewende, Klima, Klima und Umwelt, Wissenschaft, , , , , , ,

COP 24 in Kattowitz – ein Erfolg !?

Die Klimakonferenz COP24 in Kattowitz (Katowice) ging diesen Monat ihrem Ende entgegen.

Mit mehr als 25.000 Delegierten und Journalisten und einem medialen Dauerfeuer ein wahrhaft großes Unterfangen, mit dem Ziel, das Klima beherrschen zu wollen.

Die Erde wird nicht mehr bewohnbar sein, wenn nicht sofort und dramatisch etwas gegen die Erwärmung unternommen wird, so der Tenor!

Nun, was haben die so zahlreichen Teilnehmer erreicht?

Die Ergebnisse seien im Folgenden genannt:

  • Ab 2020 müssen die Staaten über ihre Maßnahmen zur Senkung der Kohlendioxyd- (CO2) Emissionen berichten.
  • Die Staaten müssen ihre Emissionen publizieren.
  • Alle 5 Jahre wird ab 2023 Bilanz gezogen, ob die Emissionsreduktionen ausreichen, die globale Erwärmung zu begrenzen.
  • Ab 2025 sollen die Industriestaaten – evtl. Schwellenländer – die Finanzhilfen für die Entwicklungsländer aufstocken, um die Folgen der Erwärmung zu reduzieren.
  • Schäden und Verluste durch die globale Erwärmung werden thematisiert, ohne dass völkerrechtlich Forderungen an die Industriestaaten daraus entstehen.
  • Am Internationalen Handel mit CO2-Zertifikaten dürfen nur Staaten mitmachen, die beschriebene Ziele zur Begrenzung der CO2 Emission einhalten.

Der zuletzt angeführte Punkt ist die alleinige Bestrafung für die Nichteinhaltung dieser Regeln. Natürlich könnte jedes Land seinen eigenen Zertifikathandel betreiben.

Die genannten Reduktionsziele bestimmt jedes Land auf freiwilliger Basis, man nennt dies die INDC´s (Intended National Determined Contribution), beschlossen auf der Pariser Klimakonferenz COP21 (2015)

Dieses offensichtliche Null-Ergebnis wurde von fast allen Teilnehmern als wichtiger Meilenstein zur Reduktion der globalen Erwärmung begrüßt.

Deshalb hat man sich auch gleich wieder für die COP25 angemeldet, leider nicht in Brasilien (die Regierung dort wollte nicht), sondern in Chile.

Eine lustige Party-Sause folgt offensichtlich der anderen. Aus Ghana waren ca. 400 Delegierte zur COP 24 angereist!

Man gönnt sich ja sonst nichts!

Nun aber zurück zur Realität, zu den Ergebnissen aus der COP21 in Paris.

Man kann es wirklich kaum glauben, aber dort hat man ausgehandelt, die Industrieländer zu bewegen 100 Milliarden $ pro Jahr den Entwicklungsländern ab 2020 zunächst bis 2030 bereitstellen, danach sollen es mehr werden. Das sind

1 Billion US $, 1000 Milliarden US $!!!!

Dafür soll die Emission des Treibhausgases CO2 reduziert werden, nach Geschmack und Willen der einzelnen Nationen. Dies nennt man Intended National Determined Contribution (INDC).

Das MIT (Massachusetts Institute of Technology), eine der Elite Universitäten der USA, hat nun mit aufwendigen Modellen berechnet, dass man unter der Voraussetzung, dass die vorgenannten jährlichen Einsparungen an Emissionen in gleicher Höhe (INDC´s) bis 2100 eingehalten werden, 0,2 °C an globaler Erwärmung einspart.

Das wären bei Fortschreibung der Zuwendungen für die Entwicklungsländer durch die Industriestaaten bis 2100 dann lockere 80.000 Milliarden US $.

http://globalchange.mit.edu/research/publications/other/special/2015Outlook

Björn Lomborg, Professor an der Kopenhagener Business School, kommt mit einem anderen Modell zu einem ähnlichen Ergebnis: 0,17 °C.

Lomborg gibt auch einen Wert für die Temperaturerniedrigung durch die Emissionsreduzierung auf Grund der INDC´s bis 2030 an.

Diese beträgt 0,05 °C.

http://wattsupwiththat.com/2015/11/10/lomborg-paris-climate-pact-will-reduce-temperature-increase-by-the-end-of-the-century-by-a-whopping-0-05c/

Ein nicht messbarer Effekt!!!!!

Ein glänzendes Ergebnis für die Klimakonferenzen COP22-24!!!!

RL

Dezember 2018

Eine eigene Rechnung hierzu ist auf der nächsten Seite beschrieben.

 

Für Interessierte:

Eine entsprechende einfache Rechnung ergibt das gleiche Ergebnis:

Die Berechnung erfolgt nach einer Relation, die von allen Klimawissenschaftlern, seien es Alarmisten oder Skeptiker anerkannt wird.

ΔT = f*ln(CO2-Konzentration/CO2-Konzentration vorindustriell)               (1)

CO2 –Konzentration: Zum Zeitpunkt der Berechnung vorhandene CO2 Konzentration

CO2 –Konzentration vorindustriell: 280 ppmV (CO2 Moleküle pro Million Luftmoleküle in einem Luftvolumen V)

MIT und Lomborg gehen von einer Sensitivität für CO2 bei der Verdopplung der Konzentration in der Atmosphäre von 4,5 °C aus, also vom extremen oberen Wert, um den Effekt der INDCs zu berechnen.

Aus Gleichung (1) ergibt sich:

ΔT = 4,5°C = f*ln(2*280/280)    

Damit kann man f berechnen.

f = 6,5 °C

Dieser Faktor f umfasst auch sämtliche Rückkopplungen, Verstärkungen z. B. durch andere Treibhausgase, durch Veränderung der Wolkenbildung, Ozeanströme etc…

Gemäß dem „Business as Usual“ erwartet man für 2030 eine Konzentration für CO2 in der Atmosphäre von 460 ppmV.

Damit erhält man eine globale Temperurerhöhung gegenüber dem vorindustriellen Zeitalter von

ΔT = 6,5*ln(460/280) = 3,2268 °C

Durch die INDCs ergibt sich gemäß ICNDT´s eine Reduktion von 4,2 ppmV (Stand 2016, 33 Gt CO2) bis 2030, also 455,8 ppmV.

Damit eine Temperaturerhöhung von

ΔT = 6,5*ln(455,8/280) = 3,1672 °C

Der Unterschied beträgt somit

ΔT = 0,06 °C

In guter Übereinstimmung mit dem Wert von Lomborg.

PDF:

COP24 Erfolg 181223

 

Filed under: CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , ,

Das FAZ Klima-Interview – Klimaschutz ist kein Wunschkonzert

In der FAZ erschien aktualisiert am 01.10.2018 ein Interview von Joachim Müller-Jung und Christian Schwägerl mit:

Antje Boetius, Direktorin des Alfred-Wegener-Instituts für Polar- und Meeresforschung (AWI); Thomas Stocker, Klimatologe und ehemaliger IPCC-Co-Vorsitzender der Universität Bern, Gerald Haug, Meeresgeologie und Paläoklimaforscher an der ETH Zürich und dem Max-Planck-Institut für Chemie; Hans Joachim (“John“) Schellnhuber, emeritierter Direktor des Potsdam-Instituts für Klimafolgenforschung (PIK) und Mitglied der deutschen Kohlekommission.

Alle Vertreter -aus meiner Sicht- eine alarmistischen Zukunft unseres Klimas vorhersagend bei weiterer ungebremster Kohlendioxidemission!

Das Interview können Sie hier lesen:

http://www.faz.net/aktuell/wissen/erde-klima/1-5-grad-bericht-des-weltklimarats-klimaschutz-ist-kein-wunschkonzert-15814681/unsere-gespraechsteilnehmer-15816950.html

Professor Horst Lüdecke, ein klimaskeptischer Wissenschaftler  – mit dem ich einige Veröffentlichungen und Stellungnahmen zum Klima verfasst habe – hat hierzu bei EIKE

https://www.eike-klima-energie.eu/

eine Gegendarstellung verfasst, die hier abgedruckt ist:

https://www.eike-klima-energie.eu/2018/10/06/das-faz-klima-interview-vom-2-10-2018-nachdem-sie-das-ziel-endgueltig-aus-den-augen-verloren-hatten-verdoppelten-sie-ihre-anstrengungen/

Hier einige Auszüge:

Das Interview führten Christian Schwägerl und Joachim Müller-Jung von der FAZ. Es erschien unter dem Titel „Ein Gespräch zum 1,5-Grad-Sonderbericht des Weltklimarats, Klimaschutz ist kein Wunschkonzert“ (hier). Nun ja, Wunschkonzert ist nicht einmal falsch, denn Klimaschutz ist in der Tat unmöglich. Klima schützen zu wollen – also bekanntlich das lokale statistische Mittel von Wetter über mindestens 30 Jahre, mit der Eigenschaft, sich seit Bestehen unserer Erde überall auf dem Globus stets gewandelt zu haben – kann nur den von der FAZ Interviewten „Fachexperten“ einfallen. Über die „Klima-Expertise“ von Herrn Müller-Jung erschienen bereits in den EIKE-News zwei humorige Artikel (hier, hier). Schauen wir uns jetzt also an, was die Kollegen der Wissenschaft so von sich gaben.

Es ging um das 1,5 Grad oder das 2 Grad Ziel und welches sinnvoller sei. Auf die erste Frage der FAZ nach diesen Zielen aus Sicht der Klimaforschung behauptet Schellnhuber „Aber Fakt ist doch: Schon bei bislang grob einem Grad globaler Erwärmung sehen wir heftige Folgen., etwa Wetterextreme – und wir sind auf dem Weg in eine drei bis fünf Grad wärmere Welt bis Ende des Jahrhunderts, wenn wir nicht rasch umsteuern“. Nein, Herr Schellnhuber, das ist eben nicht Fakt, sondern falsch: Wetterextreme sind Normalität, wie jeder Meteorologie bestätigt, ist die natürliche Eigenschaft des Wetters seine Ungewöhnlichkeit. Es geht hier um Extremwetterzunahmen in Klimazeiträumen. Das IPCC ist in seinem letzten Sachstandsbericht AR5 detailliert auf diese Frage für den Zeitraum ab 1950 eingegangen, denn seit diesem Datum gibt es statistisch ausreichend viele Messungen. Fazit und Fakt: Das IPCC hat nichts gefunden, s. die entsprechenden Belege und Nachweise (hier), (hier) (bzw. Gutachterliche Stellungnahme Lüdecke 4April2018 unter dem Abschnitt „Extremwetter“, dort sind die Links direkt anklickbar). Es wäre interessant von Schellhuber zu erfahren, wo denn nun die Extremwetter in Klimazeiträumen bleiben, wenn sie selbst von seiner „vorgesetzten Behörde“ (IPCC) nicht aufzufinden sind.

In seiner Antwort führt Schellhuber weiter aus „Wir brauchen statt ehrgeizigerer Ziele endlich ehrgeizigere Maßnahmen zur Klimastabilisierung“. Unser Kommentar zu dieser Antwort ist selbstverständlich etwas höflicher als der von Prof. Hans v. Storch, der das 2 Grad Ziel volksnah als „Verarschung“ bezeichnete (hier). Wir ziehen es dagegen vor, unsere Hochachtung vor einem deutschen Klima-Gelehrten auszudrücken, der offensichtlich Maßnahmen zur Klimastabilisierung in der Tasche hat. Donnerlüttchen, das ist ja mehr als ein Nobelpreis für Physik, ein echter Zampano, dieser Schellnhuber! Es fertig zu bringen, ein sich naturgesetzlich stets änderndes Phänomen wie das Klima zu stabilisieren, Glückwunsch.

Nun aber zu Frau Boetius: „Wir Polarforscher sind auf der anderen Seite auch lauter geworden. Denn 1,5 Grad mehr globale Erwärmung bedeutet in der Arktis 4 Grad mehr. Da kam politisch also noch Extradruck dazu, denn 1,5 Grad global bedeutet dort eben, dass den Menschen im Norden der Boden unter den Füßen weggezogen wird. Das gleiche gilt für die Habitate. Es heißt: Walross weg, Eisbär weg. Das ist keine Anekdote“. Sehr gut, Frau Boetius, möchten wir da gerne bestätigen, Polarforscher sind natürlich auch noch da, wäre ja noch schöner! Schließlich gibt es neben diesem PIK ja auch noch das AWI. So etwas muss doch endlich einmal unter die Leute gebracht werden. Und um sich nicht mit Petitessen abzugeben und gleich was Medienwirksames zu präsentieren, macht also Frau Boetius mir nichts, dir nichts aus den global gemittelten 1,5 Grad salopp 4 Grad in der Antarktis.

Wie kommt sie denn darauf? Selbst in den wärmsten Zeiten nach Ende des letzten Glazials war es in Grönland im Höchstfall etwa 2,5 Grad wärmer als heute, s. Fig. 6 in Lecavalier et al, Quaternary Science Revies, 63 (2013). Außerdem ist die gegenwärtig höhere Erwärmung der Arktis nur ein zyklisches Phänomen (Klimaschaukel oder sea saw) mit einer Periode von etwa 60 Jahren (s. Fig. 2a in Chylek et al, Geophys. Research Letter, 37, (2010). Als wenn dies noch nicht genug wäre, setzt Frau Boetius noch eins drauf mit „Walross weg, Eisbär weg“. Das halten selbst die einfältigsten FAZ-Leser nicht mehr aus. Diese beiden Tierarten haben sogar die extremen Temperaturmaxima der letzten 1/2 Millionen Jahre putzmunter überstanden –  und nun plötzlich weg wegen 1,5 Grad natürlicher Erwärmung? Dagegen zeichneten sich die fachlich korrekten Aussagen des ehemaligen AWI-Direktors Prof. Heinz Miller durch unaufgeregte, angenehme Sachkundigkeit aus (hier). Ob abstruse Katastrophenszenarien die Politik bewegen, mehr Forschungsgelder dem AWI zukommen zu lassen?  Unter diesem Aspekt sind die Aussagen von Frau Boetius vielleicht noch zu verstehen. Das AWI macht sehr ordentliche Forschung. Der Autor dieser News, sein EIKE-Kollege Prof. Dr. Carl-Otto Weiss und zwei chinesische Mitautoren hatten sogar die Ehre, der begutachteten Fachzeitschrift „Polarforschung“ vom Jahre 2016, Herausgeber AWI, einen  Artikel (polfor_2016_015) beizusteuern. Man kann nur hoffen, dass der gute Ruf des AWI nicht durch fragwürdige Interview-Aussagen seiner Leitung in den Hintergrund gerät.

Zu Herrn Haug: Mit ihm wird es nicht besser als bei den drei anderen mit seinen “ Wir messen bereits jetzt eine globale Erwärmung von einem Grad über dem vorindustriellen Wert“. Ist ja nicht falsch, lieber Herr Haug, nein, nein, aber zu dieser Aussage gehört unbedingt dazu, auch etwas Sachliches über die vorindustriellen Werte hinzuzufügen, wie etwa: Das mittelalterliche und römische Klimaoptimum war jeweils etwa so warm wie heute, die beiden Holozän-Maxima dagegen noch weit wärmer (s. Bild). Was soll eigentlich an den 1,5 Grad Katastrophales sein, oder haben wir da etwas falsch verstanden?

Und schlussendlich zu Herrn Stocker: Er umschifft elegant das CO2-Thema, indem er korrekt ausführt, dass China nun seine Kohlekraftwerke mit Filtern ausstattet. Tatsächlich und völlig sachgerecht bekämpfen die Chinesen Ruß, Staub und Aerosole, das CO2 können sie natürlich auch nicht wegfiltern, es ist ihnen aber auch egal. Dann erzählt Stocker noch etwas über CO2-Versenkung im Boden mit viel Energieaufwand – als carbon capture and storage wird das bezeichnet. Außer den von diesem technischen Abersinn profitierenden Unternehmen nimmt niemand diese Art von Energieumwandlung in nutzlose Wärme (vulgo Energievernichtung) ernst, denn dafür gibt es unterhaltsamere Methoden (Ausnahme machen da nur die Isländer, die wissen nicht wohin mit ihrer Energie aus Vulkanismus und versenken tatsächlich CO2 im Boden. ARTE, das darüber berichtete, bezeichnete zu diesem Anlass CO2 als „Schadstoff“)

Weiterlesen:

FAZ Klimainterview Kommentar Lüdecke

 

Filed under: CO2 Emission, Energie, Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , , , , ,

Grönlands Beitrag zum Anstieg des Meeresspiegels – Eine rationale Betrachtung

Das vollständige Abschmelzen des Grönlandeises würde zu einem Anstieg des Meeresspiegels von ca. 6,7 m führen.

Wie ich in einem früheren Artikel darstellte „Die Angst vor dem Jahrtausendsommer, rlrational.wordpress.com“ dauert es bei derzeitigem gleichbleibendem Eisverlust 27.000 Jahre bis es vollkommen abgeschmolzen ist und mit 2,5 cm pro Jahrhundert zum gemessenen Anstieg des Meeresspiegels von 36 cm pro Jahrhundert beiträgt.

Einige Klimatologen behaupten nun, dass bereits bei einer globalen Temperaturerhöhung von nur 2 Grad Celsius, ein Kipp-Punkt (Tipping Point) erreicht sein könne, von dem an das Grönlandeis verstärkt abschmilzt.

Wie wahrscheinlich ist dieser Vorgang?

Schauen wir uns hierzu einfach einmal an, wie sich die Temperaturen in Grönland nach Ende der letzten Eiszeit vor rund 12.000 Jahren entwickelt haben.

Dabei sollten wir uns noch bewusst sein, das wir uns in einem Eiszeitalter befinden, definiert dadurch, dass mindestens ein Erdpol mit Eis bedeckt ist. Derzeit sind es beide Pole! Innerhalb des Eiszeitalters wechseln sich Eiszeiten von ca. 80.000 Jahren Dauer mit kürzeren Warmzeiten 15.000 bis 25.000 Jahren ab. Wir befinden uns in der so genannten Holozän Warmzeit.

Diese alle 100.000 Jahre wiederkehrende Periode wurde durch Eisbohrkernen inmitten der Antarktis, Vostok, mit der Analyse von 3000 m Bohrproben sauber nachgewiesen.

Inmitten Grönlands wurden ebenfalls Eis- Bohrkerne gezogen.

Wikipedia, https://de.wikipedia.org/wiki/Greenland_Ice_Sheet_Project

„Die GISP2-Bohrungen (Greenland Ice Sheet Project)wurden am höchsten Punkt des grönländischen Eischildes durchgeführt, bei ♁73° N, 38° W in einer Höhe von 3208 m über NN, auf der Eisscheide von Westgrönland. An dieser Stelle fließt Eis sowohl nach Westen wie auch nach Osten ab.

Für die Bohrung wurde ein 20 m hoher Bohrturm verwendet, dazu spezielle Bohrköpfe. Der Bohrkern wurde in Einzelteile von 2 und 6 m Länge zersägt. Bei der Handhabung der Bohrkerne musste peinlich genau darauf geachtet werden, dass der Bohrkern nicht mit Fremdmaterial kontaminiert wird; schon eine Berührung mit der bloßen Hand hätte die spätere Auswertung verfälschen können.
Als das Camp am 14. September 1991 geschlossen wurde, war im Rahmen von GISP2 eine Tiefe von 1510 m erreicht worden. Die ältesten Eisteile des Bohrkerns reichten bis zum Jahr 8000 v. Chr. zurück. Am 1. Juli 1993 wurde nach Durchbohrung von 3053,44 m Eis und 1,55 m Stein der längste Eisbohrkern gewonnen, der je angefertigt wurde.“

Das Ergebnis ist in der folgenden Graphik wiedergegeben.

Man sieht, dass zu Beginn des Holozäns die Temperaturen in der Mitte Grönlands verglichen mit der Kleinen Eiszeit um 3 Grad C höher waren! Danach folgte ein stetiges Auf und Ab, insgesamt jedoch eine durch die grüne Kurve repräsentierte Abkühlung, die durchaus auch ein Anzeichen für das langsame Abgleiten in die nächste Eiszeit sein könnte.

Ein Tipping Point zu höheren Temperaturen und ein Abschmelzen des Grönlandeises sind nicht im Geringsten zu erkennen. Im Gegenteil auch nach den Klimaoptima der minoischen, römischen und mittelalterlichen Zeit, strebte der Zustand der Erde wieder zu niedrigeren Temperaturen und Kleinen Eiszeiten.

Das erkennt man auch deutlich an der Höhe des Meeresspiegels seit Ende der letzten Eiszeit, die seit Beginn des Holozäns stetig anstieg mit etwa 30 cm/Jahrhundert.

Auch hier ebenfalls keine Andeutung von Abschmelzen des Grönlandeises oder gar des antarktischen Eises, was mit einer deutlichen Erhöhung des Meeresspiegels einhergehen müsste.

Eine dramatische Erhöhung des Meeresspiegels ist also in den nächsten Jahrhunderten nicht zu erwarten wie es die Klimaalarmisten, einige Klimatologen, in Zeitschriften, TV und Rundfunk behaupten.

Bemerkenswert und zum Nachdenken anregend ist übrigens, dass unsere heutigen Temperaturanomalien immer verglichen werden mit Werten um 1850, als die Erde sich noch in der Kleinen Eiszeit befand!

Wie sagte doch so schön der Chefökonom des Potsdamer Instituts für Klimafolgenforschung (PIK) Ottmar Edenhofer in der NZZ: „Wir verteilen durch die Klimapolitik de facto das Weltvermögen um …. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist.“

August 2018

Dr. rer. nat. Rainer Link

Physiker

PDF hier: Das Grönlandeis (1)

 

 

 

 

Filed under: Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , , ,

Die Angst vor dem Jahrtausendsommer

Dieser Sommer ist wirklich richtig heiß!

Und es ist der Anlass vor einem Jahrtausend Sommer Angst zu schüren, in allen „gleichgeschalteten!?“ Zeitungen Focus, Spiegel, FAZ. Ohne zu hinterfragen wurde eine Pressemitteilung zum Klimaalarm an die Leserschaft verteilt. Natürlich mit dem entsprechenden Aufmacher, einer Graphik, die die derzeitigen Temperaturen – hier für den 1. Augst 2018 – auf der Erde farbig darstellt, natürlich mit viel Rot (man hätte auch weniger heftige Rottöne für Temperaturen über 20°C nehmen können).

Abbildung 1: 2m Temperatur am 07. August 2018

In der folgenden Abbildung 2 sind die Abweichungen vom Mittel der Temperaturen, die Temperaturanomalie aufgezeichnet. Das sieht dann doch etwas anders aus. Man weiß schon, wie man Angst erzeugen kann.

 

Abbildung 2: Temperaturanomalie vom 1. August 2018, Abweichung vom Mittelwert 1979-2000

Die Angst wurde unterstützt von einer Veröffentlichung im Fachmagazin „Proceedings of the National Academy of Sciences“ mit lauter Vermutungen, evtl., könnte, vielleicht, in ferner Zukunft, aber wir wissen nicht wann (tausend Jahren ?), die sich wieder einmal auf die Klimamodelle stützt.

Spiegel online, 06.08.2018

http://www.spiegel.de/wissenschaft/mensch/klimawandel-forscher-warnen-vor-entstehung-einer-heisszeit-a-1221915.html :

„Die Gefahr einer Heißzeit kann aus Sicht von Klimaforschern selbst beim Einhalten des Pariser-Klimaabkommens (Anmerkung: 2° C) nicht ausgeschlossen werden. Dabei würde sich die Erde langfristig um etwa vier bis fünf Grad Celsius erwärmen und der Meeresspiegel um 10 bis 60 Meter ansteigen, schreiben Forscher im Fachmagazin „Proceedings of the National Academy of Sciences“. Wissenschaftliche Belege, ab welcher Erwärmung genau damit zu rechnen ist, liefert die Studie allerdings nicht. Es geht eher um eine grundsätzliche Warnung.“

Weiterhin:

„Die Forscher analysierten sogenannte Kippelemente (Anmerkung:Tipping Points) im Klimasystem. Dazu gehören etwa die auftauenden Permafrostböden in Russland, die Eisschmelze in der Antarktis, die sich erwärmenden Methanhydrate auf dem Meeresboden und die großen Ökosysteme wie der Amazonas-Regenwald.

Sie könnten sich wie eine Reihe von Dominosteinen verhalten, sagte Autor Johan Rockström, Direktor des Stockholm Resilience Centre und designierter Kodirektor des Potsdam-Instituts für Klimafolgenforschung (PIK). „Wird einer von ihnen gekippt, schiebt dieses Element die Erde auf einen weiteren Kipppunkt zu.“ Durch eine solche Rückkopplung könnte sich der Klimawandel selbst verstärken.“

Klar ist, dass der designierte Nachfolger von Hans Joachim Schellnhuber nichts anderes sagen kann, sonst wäre er es nicht geworden!

Hans Joachim Schellnhuber sagt zu diesem Vorgang:

„Vorstellbar sei etwa, dass der Verlust des Eises in einigen Regionen der Westantarktis bereits solche Kippunkte überschritten habe, ergänzt Hans Joachim Schellnhuber vom PIK. Damit wäre ein umfangreicheres Abschmelzen über lange Zeiträume programmiert.“

In der o.g. Veröffentlichung sind die Autoren auch der Meinung, dass diese Tipping Punkte bereits bei einer Temperaturerhöhung von 2°C gegenüber der vorindustriellen Zeit erreicht werden könnten! Damit macht das Klimaabkommen von Paris schon gar keinen Sinn mehr, was sowieso der Fall ist.

Das Eigentor, die Tipping Points (Kipp-Elemente)

Die Warnung vor einem so genannten Tipping Punkt ist natürlich in einem chaotischen System wie es unser Klima nun einmal ist, durchaus berechtigt.

Aber merken die Gläubigen der Klimamodelle denn nicht, dass sie endlich selbst damit auch zugeben, dass ihre Modelle keine zukünftigen Szenarien des Klimas darstellen können.

Die Klimamodellierer glauben ja, dass sich die chaotischen Verhältnisse, die wir vom Wetter sehr gut kennen, beim Klima statistisch herausmitteln.

In der Chaostheorie können Bifurkationen entstehen, die sich auf gänzlich anderen Werten stabilisieren. Damit können sich auch statistisch vollständig andere Werte ergeben.

Abbildung 3: Bifurkationen in der Chaostheorie

Tipping Punkte können übrigens auch bei höheren Temperaturen einen gegenteiligen Effekt haben, nämlich die Erde wieder in eine Kleine Eiszeit transformieren. Man denke z. B. nur an die veränderliche Wolkenbildung und damit bedingte erhöhte direkte Reflexion der Sonnenstrahlung in das Weltall mit anschließender Gletscherbildung und Vergrößerung des See-Eises.

 

Die Angst vor dem Anstieg des Meeresspiegels

 Da ist man in der alarmistischen Welt nicht kleinlich 10-60 m Meeresanstieg sollen es schon sein.

Das ist richtig!

Aber nur, wenn das Grönlandeis und/oder das Eis der Antarktis vollständig abschmelzen!

Aber wie realistisch ist dies, vor allem in welchem Zeitraum?

Dazu zwei kurze Rechnungen:

1) Das Grönlandeis

Der Eisschild in Grönland beträgt ca. 2,6*10^6 km^3.

Dies entspricht einer Masse von 2,7*10^18 kg. Grönland verliert derzeit rund 10^14 kg Festlandseis pro Jahr, benötigt also 27.000 Jahre um abzuschmelzen und den Meeresspiegel um 6,7 m anzuheben.

Pro Jahrhundert sind dies dann 2,5 cm, von 30 cm, die derzeit gemessen werden.

2) Das Eis der Antarktis

Das antarktische Festlandseis bedeckt 98% des antarktischen Kontinents mit 26,5*10^6 km^3. Falls das ganze Eis schmilzt, steigt der Meeresspiegel um 58 m.

Abbildung 4: Beiträge der antarktischen Regionen zum Meeresspiegelanstieg (NOAA)

Wie man Abbildung 4 entnehmen kann, trägt nur die westantarktische Halbinsel wesentlich zur Meeresspiegel Erhöhung bei. Derzeit sind es 6 mm/Jahr. Sollte diese komplett abschmelzen (unwahrscheinlich) erhöht sich der Meeresspiegel um 1,2 m.

Das dauert bei heutigem Stand1200/6 Jahre = 200 Jahre.

Zu panikartigen Reaktionen gibt es also überhaupt keinen Anlass. Dies gilt umso mehr für Deutschland, das nur zu einem vernachlässigbaren Anteil an der weltweiten CO2 Emission beiträgt.

August 2018

Dr. rer. nat. Rainer Link

 

Hier PDF: Die Angst vor dem Jahrtausendsommer

 

 

 

 

 

 

 

 

 

 

Filed under: Heißestes Jahr, Klima, Klima und Umwelt, Temperaturanomalie, Temperaturmessung, Wissenschaft, , , , ,

Klimafakten: „Update August 2018“

Keine Frage, unter dieser Hitze – und Trockenheit – im Juli und Anfang August dieses Jahres leiden wir fast alle.

Auch mich lähmt dieses Wetter. Es fällt mir schwer zu schreiben

Die Klimatologen und die Presse, die sich dem Klimaalarm verschrieben haben, jedoch jubeln: „Seht ihr, so wird es in Zukunft weitergehen!!“

Einer von Ihnen Mojib Latif, ein Gläubiger der Klimamodelle vom Geomar Helmholtz-Zentrum für Ozeanforschung Kiel, bläst besonders gerne in das Horn des Klima-Alarmismus!

So sagte er z.B. im Jahre 2000 (Spiegel Online vom Samstag, 01.04.2000 13:43):

„Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben, … Deutschland wird verstärkt unter dem Einfluss von Island-Tiefs stehen, im Mittelmeerraum werden sich dagegen Azoren-Hochs verstärkt auswirken.“

Na ja: Schneereiche Winter vergangener Jahre und die Auswirkung des diesjährigen Azoren-Hochs auf unser Sommerwetter sprechen nicht unbedingt für die Vorhersagefähigkeit des Wetterpropheten Latif.

Achtung: Das Internet vergisst nicht!!

 

Bei dieser Hitze und den zahlreichen Artikeln fällt es nicht leicht, cool zu bleiben.

Allerdings ist der Juli 2018 nicht der wärmste Juli seit 1881, DWD (Deutscher Wetterdienst) am 30.07.2018:

„Einer der wärmsten Juli-Monate seit Beginn regelmäßiger Messungen 1881
Mit etwa 20,2 Grad Celsius (°C) lag im Juli der Temperaturdurchschnitt um 3,3 Grad über dem Wert der international gültigen Referenzperiode 1961 bis 1990. Gegenüber der Vergleichsperiode 1981 bis 2010 betrug die Abweichung nach oben 2,2 Grad. Damit wird der Monat nach den Jahren 2006, 1994, 1983 und 2010 voraussichtlich der fünftwärmste Juli seit Messbeginn sein…

Niederschlagsdefizite vor allem im Westen, Norden und Teilen des Ostens
Mit rund 40 Litern pro Quadratmeter (l/m²) im Bundesmittel erreichte der Juli nur etwa 52 Prozent seines Solls von 78 l/m². Die bereits seit vielen Wochen anhaltende Trockenheit, vor allem im gesamten Norden und Osten Deutschlands, führte in vielen Gebieten zu einer extremen Dürre mit Ertragseinbußen in der Landwirtschaft sowie zu häufigen Wald- und Wiesenbränden. Zu Beginn der ersten Dekade sorgte ein Höhentief im Norden und Nordosten gebietsweise für Entspannung, andernorts wurden im Juli weniger als 5 l/m² gemeldet. Den äußersten Süden Deutschlands hingegen überquerten mehrmals Tiefdruckausläufer mit Dauerregen und Gewittern. In den Chiemgauer und Berchtesgadener Alpen fiel mit bis zu 150 l/m² der meiste Niederschlag.“

Der DWD fasst die Monate April bis Juli zusammen, um ein möglichst erschreckendes Szenarium für dieses Jahr zu beschreiben

 

 

 

 

 

 

Nun, was es bei uns zu heiß ist, könnte andernorts zu kalt sein.

Dr. Ryan Maue hat für den 29/30 Juli 2018 die Temperaturverteilung flächenmäßig auf der nördlichen Hemisphäre aufaddiert.

 

 

 

 

 

 

 

 

 

 

Das Ergebnis: Die Summe ergibt 0,0°C!!

Z.B. gleichen sich zu warme Regionen (Teile Europas) mit zu kalten Regionen (mittel und Südost USA) aus.

Zugegeben: Das ist für uns im Moment keine Erleichterung, aber es rückt die derzeitigen Temperaturen wieder zurecht.

Übrigens:

Eines der schlimmsten Hitze- und Trockenheitsjahre in Deutschland war das Jahr 1540, das eine 11 monatige Hitze und Dürreperiode darstellte. Und das mitten in der mittelalterlichen >Kleinen Eiszeit!

http://www.spiegel.de/wissenschaft/natur/hitze-und-duerre-1540-katastrophe-in-europa-im-mittelalter-a-978654.html

Zu den Klimafakten:

In den nächsten Abbildungen sind die globalen Temperaturanomalien der Satellitendaten UAH und der Messstationen Hadcrut4 bis einschließlich Juli 2018 dargestellt.

Man sieht, dass nach dem starken El Nino 2015/16, der die globalen Temperaturen nach oben schießen ließ, in den folgenden Jahren bis heute nur eine geringe Temperaturerhöhung – wenn überhaupt – ab dem Jahr 2000 zu erkennen ist.

 

 

 

 

 

 

 

 

Ohne Zweifel sind die Temperaturen erfreulicherweise ab der Kleinen Eiszeit (Ende um 1900), in der wir heute gewiss nicht leben wollen, um etwa 1°C angestiegen. Es bleibt die Frage: wieviel davon ist natürlichem und menschlichem Einfluss zuzuschreiben. Bisher geht man davon aus, – auch das IPCC (Intergovernmental Panel for Climate Change) – dass das Verhältnis etwa gleiche Anteile umfasst.

Ab 1979, dem Beginn der Temperaturmessungen mit Satelliten ist die Temperatur um etwa 0,1 bis 0,125 °C pro Jahrzehnt angestiegen, extrapoliert von heute auf 2100 noch 0,8 bis 1 °C bei gleichbleibender globaler CO2 Emission

Nicht wirklich besorgniserregend!!!

 

 

 

 

 

 

 

 

Anmerkung:

Offensichtlich befinden wir uns im Juli/August bereits wieder in einem moderaten El Nino Zyklus (Region 3/4), der sich gemäß Vorhersage gegen Ende des Jahres zu einem ausgewachsenen El Nino entwickeln kann, siehe die nächsten beiden Graphiken.

 

 

 

 

 

 

 

 

 

Damit verbunden sind wieder höhere globale Temperaturen zur Freude der Klimaalarmisten. Aber auch danach wird über eine La Nina zu normalen Temperaturen im Pazifischen Ozean übergegangen sein und die Temperatur wieder den unbeeinflussten Wert annehmen. Man darf gespannt sein!

August 2018

Dr. rer. nat. Rainer Link

PDF hier: Klima update August 2018 180806

 

 

 

 

 

 

 

 

 

Filed under: Heißestes Jahr, Klima, Temperaturmessung, Wissenschaft, , , , ,

Schlimmer geht nimmer: Die merkwürdige Verdopplung des Anstiegs des Meeresspiegels

Der Anstieg des Meeresspiegels im globalen Maßstab liegt seit Jahrzehnten bei

Ca. 3,0+-0,4 mm pro Jahr (siehe Abbildung 1).

 

 

 

 

 

Abbildung 1: Globale mittlere Meereshöhe 1992 bis 2017

 

Nun kamen Nerem et. al. [1] auf die Idee, diese Daten „anzupassen“ indem sie die TOPEX Daten von 1992 bis 1998 anhoben, um der angeblichen globalen Abkühlung der Meerestemperaturen (siehe Abbildung 5) durch den Vulkanausbruch Pinatubo Rechnung zu tragen.

Die Autoren korrigierten auch auf die El Nino Ereignisse, die aber für die Betrachtungen der Beschleunigung des Anstiegs des Meeresspiegels hier keine Rolle spielt.

Da zwischen 60-80% die Erwärmung der Ozeane für den Anstieg des Meeresspiegels verantwortlich ist, korrigierten Nerem et al. die gemessenen Daten zwischen 1992 und 1998.

Auf diese Weise erhielten sie einen beschleunigten Anstieg (schwarze Kurve Abbildung 2) statt der Geraden mit den gemessenen Werten in Abbildung 1. Für 2100 sagten sie nun einen Anstieg von über 60 cm voraus, also eine Verdopplung des bisherigen Wertes. Das erreichten sie, indem sie durch Extrapolation, Verlängerung ihrer Kurve (schwarz in Abbildung 2) in den nächsten Jahrzehnten einen beschleunigten Anstieg proportional einer quadratischen Abhängigkeit erhielten.


 

 

 

 

 

Abbildung 2: GMSL nach „Anpassung Nerem et al., schwarze Kurve

Eigentlich hätten sie, nachdem der Pinatubo Effekt (Abkühlung des Meeres) abgeklungen war, wieder den linearen Anstieg weiterhin verwenden müssen.

Die vorgenommene „Anpassung“ in den bisher gemessenen Daten bis heute durch Nerem et al. sieht auf den ersten Blick recht unproblematisch aus. Allerdings wirkt sich die quadratische Abhängigkeit erst in den zukünftigen Werten für den Globalen Meeresspiegelanstieg aus.

Die Autoren haben nichts anderes als einen miesen Trick für Unbedarfte angewandt, anders kann man das Vorgehen der Autoren nicht bezeichnen.

Und in den deutschen Medien, sogar erstes Thema in der Tagesschau um 20:00 Uhr, wurde es als wichtigstes Ereignis dargeboten.


 

 

 

 

 

Abbildung 3: Anpassung einer analytischen Funktion, grüne Kurve

In Abbildung 3 habe ich eine einfache Kurve mit quadratischer Abhängigkeit der Meeresspiegelhöhe GMSL als Funktion der Jahre (x )an die schwarze Kurve von Nerem et al (Abb.: 3) angepasst (grüne Kurve):

GMSL=(17,5 + 0,087*x^2) mm

 

 

 

 

 

 

Abbildung 4: GMSL/mm als Funktion der Jahre ab 1990

Wie man sieht (Abbildung 4) erhält man (auch Nerem et al.) mit dieser Beziehung somit in etwa 80 Jahren (2060) eine Meerespiegelhöhe von 60 cm, also mehr als eine Verdopplung der bisher gemessenen Werte.

Schaut man die Meeres-Temperaturen in der Zeit des Ausbruchs des Pinatubo an (hadsst3gl Abbildung 5), ist sogar das Anheben des Meeresspiegels durch die Autoren Nerem et al. fraglich, da die Temperaturen in dieser Zeit keine auffällige Abkühlung innerhalb der sowieso schon starken Variationen zeigen.

 

 

 

 

 

Abbildung 5: Gemittelte Globale Temperatur der Ozeane

 

 

Wie heißt es doch so schön?

Schlimmer geht nimmer!!

 

[1] Nerem, R.S. et al. (2018) Climate-change-driven accelerated sea level rise detected in the altimeter era. Proceedings of the National Academy of Sciences

PDF: Die merkwürdige Verdopplung des Anstiegs des Meerespiegels

Filed under: Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , ,

Überlegungen zur Elektromobilität in Deutschland – Realitätsverlust!

Mit der Mathematik, den Rechenkünsten einer(s) 10-jährigen (+,-,*,:)

Zunächst einige Begriffe zur Erinnerung für Leser, die nicht täglich mit großen Zahlen und elektrischen Einheiten umgehen.

1 k = 1 kilo = 1000, Tausend

1 M= 1 Mega = 1 000 000, 1 Million

1 G= 1Giga = 1 000 000 000, 1 Milliarde

1 T= 1 Tera = 1 000 000 000 000, 1 Billion

Die elektrische Leistung wird in Watt (W) gemessen.

1 W = 1 Volt (V) * 1 Ampere (A)

1 Wh = 1 Watt*Stunde

1 Jahr hat 24Std/Tag*365 Tage =8760 h

So gerüstet können wir nun über die Realität einer E-Mobilität in Deutschland reden.

Als Beispiel nehmen wir das hochgelobte E-Auto Tesla Model S. Dies hat eine Batteriekapazität von 85 kWh. Damit erreicht es eine Normreichweite von 470 km.

Das Fahrzeug muss nun immer wieder aufgeladen werden, meistens wird dies nachts erfolgen.

Nimmt man an, dass der Autobesitzer nur die Möglichkeit besitzt, eine einfache Steckdose mit 230 V und 16 A (=3,68 kW) benutzen zu können, so ergibt sich eine Ladezeit von

85kWh/3,68 kW=23 h, also einen ganzen Tag!

Besser ist ein Autobesitzer dran, der einen Drehstromanschluss mit 3 Phasen, 230 V und 32 A (=22,1 kW) nutzen kann. Dann benötigt er zum Aufladen der Batterien 3,8 h.

Solange blockiert er auch an einer Tankstelle auf der Reise von Köln nach München (600 km) die Ladesäule mit gleichem Anschluss.

Derzeit dauert ein Tankvorgang (Benzin/Diesel) etwa 5 Minuten. An einer Tanksäule können also in 3,8 h 45 Fahrzeuge betankt werden (3.8*60/5). An fünf Tanksäulen werden 225 Fahrzeuge betankt.

Für die Aufladung von gleich vielen Fahrzeugen in der gleichen Zeit benötigt die Tankstelle 225 Ladestationen (Kosten!!)!! Dabei muss jeder Fahrzeughalter 3,8 h warten, es sei denn seine Batterien werden an der Tankstelle ausgetauscht. Aber diese Version wirft mehr Fragen auf, als damit gelöst sind (Kosten der Batterien, Lebensdauer, Zustand der Batterien, Austausch älter gegen neuer, Kosten der Abschreibung, nicht nur der Stromkosten beim Austausch, …).

Insgesamt muss diese Tankstelle einen Stromanschluss von 225*22,1 kW = 4.972 kW oder 4,9 MW besitzen. Das ist wohl ziemlich irreal!!!

Die Rechnung für die Leistung, die 1 E-Auto in Deutschland benötigt, sieht folgendermaßen aus, auch wieder am Beispiel Tesla Model S. Mit vollgeladener Batterie von 85 kWh fährt man 470 km. Im Mittel fährt jeder Deutsche 15.000 km/Jahr.

Somit : 15.000km/Jahr/470 km=32 Aufladungen/Jahr

32Aufladungen/Jahr*85kWh/Aufladung=2.712kWh/Jahr

1Jahr hat 8.760h

Jeder Deutsche benötigt also im Durchschnitt 2.712kWh/8.760h=0,32kW an zusätzlicher elektrischer Leistung.

Ein Hochhaus mit 200 Stellplätzen benötigt somit 200*0,32kW=64 kW. Dafür sind die bisherigen elektrischen Versorgungsleitungen überhaupt nicht ausgelegt!

Eine Stadt mit 780.000 Einwohnern erfordert zusätzlich 250 MW. Das entspricht der Leistung von 1 Gaskraftwerk mit der typischen Leistung von 250 MW.

Bei 60 Millionen E-PKW (Anzahl PKW in Deutschland am 1.Januar 2017) sind 77 zusätzliche Gaskraftwerke (19GW) erforderlich!

Vor kurzem habe ich gelesen, dass ein Parkhaus mit Zuschuss aus öffentlichen Mitteln eine Parkgarage mit 30 Stromanschlüssen für E-Autos anbietet, die alleine durch Solarstrom auf dem Dach versorgt werden. Super Idee!!

Viel Freude nachts!!

Die Stromproduktion durch Gaskraftwerke in Deutschland betrug 2015 ca. 20GW.

Man müsste also die zuverlässige Stromproduktion mit Gaskraftwerken zusätzlich um das Doppelte für die E-PKW erhöhen (außer Gas kommt derzeit wohl keine andere Energieart in Deutschland in Frage).

Bei den bisherigen Überlegungen haben wir den Lastkraftverkehr überhaupt noch nicht berücksichtigt!!

Mir scheint: Deutschland und insbesondere seine Politiker haben sich in einer Illusion verrannt – und sie können wohl nicht rechnen!? Offensichtlich leiden wir unter diesem Realitätsverlust!!

Anmerkung: Damit man mich nicht falsch versteht. Ich bin durchaus für eine Abkehr von den fossilen Brennstoffen im Kraftfahrzeugverkehr. Alleine schon, um diese unsäglichen Ölstaaten im Nahen Osten nicht weiter zu subventionieren!

Aber so wird das nichts!!!

RL

 

PDF hier: U_berlegungen zu E-Auto neu 171103

Filed under: Energie, Energiewende, Klima, Wissenschaft, , , , , , ,

Stephen Hawkins Apocalypse: Klimawandel

Stephen Hawkins Apocalypse: Klimawandel

Am 2. Juli dieses Jahres hat der berühmte Physiker Stephen Hawkins, der unheilbar krank nur über einen Computer mit der Außenwelt sprachlich kommunizieren kann, in einem Interview mit BBC davor gewarnt, dass die Erde bei weiteren CO2 Emissionen enden kann wie unser Nachbarplanet Venus.

Er sagte (frei übersetzt): „Wir sind nahe an einem Umkehrpunkt (Tipping Point), ab dem die Globale Erwärmung unumkehrbar ist. Die Aktion von Trump könnte die Erde über die Klippe bringen, so dass sie wird wie die Venus, mit einer Temperatur von 250 °C, Schwefelsäure regnend. Klimawandel ist eine der größten Gefahren denen wir ausgesetzt sind, und es ist eine, die wir vermeiden können, wenn wir jetzt handeln. Die Evidenz des Klimawandels zu leugnen und aus der Pariser Klima Übereinkunft auszusteigen, bedeutet, dass Trump vermeidbare Umweltschäden an unserem wunderbaren Planeten verursacht, die die natürliche Welt für uns und unsere Kinder bedrohen.“

http://www.bbc.com/news/science-environment-40461726

Nun, als Physiker, muss ich leider feststellen, dass der Kollege Hawkins so was von daneben liegt, dass es fast schon blamabel ist. Hawkins ist ein genialer Astrophysiker mit großartigen Überlegungen zur Physik der Schwarzen Löcher und deren quantenmechanischen Auflösung.

Auch mich hat die Astrophysik immer wieder fasziniert.

Leider und offensichtlich fehlt Hawkins aber zur Beurteilung klimatologischer Effekte durch das Treibhausgas CO2 jegliches Basiswissen. Auch die Beurteilung der Entstehung der Temperaturen auf der Venusoberfläche ist ihm fremd, dabei hätte ihm ein Klick ins Internet von der Unhaltbarkeit seiner Aussage überzeugen können. Er hätte sicher davon Abstand genommen.

(Bemerkung:

Leider findet man diese merkwürdige Überheblichkeit von fachfremden Wissenschaftlern immer wieder, wenn sie sich über Dinge auslassen, die jenseits ihres Fachbereiches liegen. Ein gutes Beispiel hierfür ist übrigens auch Harald Lesch, ein renommierter Astrophysiker, der glaubt über den Klimawandel relevante Aussagen machen zu können. Das funktioniert nicht!! Klima ist auch für Physiker ein komplexes Wissensgebiet, in das man sich schon etwas länger intensiv einarbeiten muss. Auch ich bin nicht als Klimatologe geboren worden, aber habe mich seit mehr als 15 Jahren ausgiebig damit beschäftigt.)

Zurück zum Thema!

Wie sieht es auf der Venus aus:

  • Radius r: 6.051 km; (Erde ca. 6.371 km)
  • Abstand von der Sonne R: 0,72 AE (108.200.000 km); (Erde: 1 AE)
  • Mittlere Oberflächentemperatur: 462 °C bzw. 735 K; (Erde 15°C bzw. 288 K)
  • Hauptbestandteile der Atmosphäre: 96 % CO2, 3% N2, 0,015% SO2; (Erde: 0,04% CO2)
  • Druck der Atmosphäre an der Oberfläche: 92 bar; (Erde 1 bar)
  • Albedo a (im Prinzip der Reflexionsgrad der Sonnenenergie eines Planeten: ca. 0,75; (Erde: 0,36)

Damit kann man nun rechnen:

Die eingestrahlte Sonnenenergie S auf die Planeten ist umgekehrt proportional zum Abstand R2 und proportional zur Absorption durch die Oberfläche (1-a).

Für unsere Überlegungen kann man annehmen, dass die Radien der beiden Planeten gleich sind.

Da die von der Sonne eingestrahlte Energie im Gleichgewicht identisch sein muss zur vom Planeten abgestrahlten erhält man aus dem Stephan-Boltzmann Gesetz mit S, proportional zu T4,für das Verhältnis der Temperaturen ohne Treibhausgasverstärkungen:

T(Venus)/T(Erde) =[(1-a(Venus)/(1-a(Erde)]1/4 x R(Erde)1/2/R(Venus)1/2=0,93

T(Venus)=268 K = -5 °C

Der Treibhauseffekt durch Kohlendioxid muss also den Unterschied machen.

Nun ist die Menge des Treibhausgases Kohlendioxid auf der Venus 97/0,04 x 92=223.000 mal höher als auf der Erde.

Da sich der Treibhauseffekt des CO2 proportional zum natürlichen Logarithmus seiner Konzentration verhält, ist dieser auf der Venus um einen entsprechenden Faktor höher

ln [CO2(Venus)/Co2 (Erde)] =12,3

Nimmt man an, dass der Treibhauseffekt auf der Erde 33 °C beträgt und durch CO2 hervorgerufen wurde, so ergibt sich eine Temperatur auf der Venusoberfläche von ca. 400°C.

Ein abgeschätzter Wert, der nicht so weit von der gemessenen Temperatur auf der Venusoberfläche 462 °C entfernt ist, wenn man bedenkt, dass unsere Überlegung sehr qualitativ war.

Wie allerdings unser verehrter Physiker Stephen Hawkins auf die Idee kommen kann, dass die Temperatur auf der Erde durch Emission des Treibhausgases CO2 auf Venus ähnliche Werte kommen kann, bleibt sein Geheimnis.

Die Konzentration von CO2 auf der Erde durch Emission kann höchstens einen Faktor 2 gegenüber heute (400 ppmV) ausmachen, alleine schon durch die begrenzten Ressourcen an fossilen Brennstoffen und die zukünftige technische Entwicklung.

In der folgenden Graphik ist die Temperaturerhöhung bei weiterer Emission von CO2 dargestellt. Allgemein anerkannt (auch von den Mitarbeitern des Potsdamer Instituts für Klimafolgenforschung (PIK) und ihres Chefs Prof. Schellnhuber) ist, dass der Einfluss des CO2 proportional zum natürlichen Logarithmus seiner Konzentration ansteigt. Der Proportionalitätsfaktor f kann leicht aus gemessenen Daten bestimmt werden, wenn man die CO2 Konzentrationen kennt und die in dieser Zeit gemessene Temperaturerhöhung. Für die Graphik liegt eine Temperaturerhöhung von 0,6°C zu Grunde bei einer Konzentrationsänderung von 280 ppmV auf 378 ppmV. Somit erhält man für f=2, inklusive aller Verstärkungen des von CO2 initiierten Temperaturanstiegs.

Dargestellt ist (schwarze Kurve) bei der Annahme des IPCC von 3°C Temperaturerhöhung bei Verdopplung. Die andere Kurve (lila) zeigt das Temperaturverhalten mit dem zuvor bestimmten Wert von f=2.

Selbst die mit zu hoher Klimasensitivität -zu starkem Einfluss des CO2 auf die Klimaerwärmung –aus Modellen berechneten Temperaturerhöhungen des IPCC gehen nur von Werten 1,5-4 ° C bei einer Verdopplung der CO2 Konzentration aus. Ein mit den heutigen Temperaturmessungen verträglicher Wert liegt eher bei 1,5 ° C oder darunter!

https://rlrational.files.wordpress.com/2015/02/c3bcbersensitiv1.pdf

Ein Blick in die paläontologische Vergangenheit zeigt, dass selbst bei einer CO2 Konzentration auf der Erde, die einen Faktor 10 höher war als heute, ein Kipp Punkt (Tipping Point) nicht zu erkennen ist.

Wir befinden uns heute erdgeschichtlich in einem Eiszeitalter, das definiert ist mit einer Erde, auf der mindestens ein Pol von Eis bedeckt ist. Heute sind es alle beide.

PDF: Stephen Hawkins and Climate Change

Filed under: CO2 Absorption, CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , , , , , , ,

Temperaturmessung in der Arktis – Die Arktis glüht?

„Die Arktis glüht“ so lautet ein Artikel in der Zeitschrift Zeit und stellt eine dieser Überschrift entsprechende Abbildung und Kommentare zur Seite.

http://www.zeit.de/wissen/umwelt/2016-11/klimawandel-arktis-wetter-winter-veraenderung

In meinem Artikel über das heißeste Jahr 2016 hatte ich die Problematik der Temperaturmessung in der Arktis bereits angesprochen, und will an dieser Stelle erläutern, wie es zu diesen alarmistischen Aussagen kommen kann.

Wir leben eben in einem Postfaktischen Zeitalter. Man filtert nur die Informationen, die dem eigenen Gefühl entsprechen heraus. Dabei wäre es heute ein leichtes mit wenigen Mouse Klicks zu den Fakten zu kommen.

Die Arktis ist ein Meeresbassin mit einer Tiefe bis zu 5.000 m (Durchschnittlich 1.000 m) und einem Durchmesser von mehr als 1.500 km.

800px-arctic_big_svg

Abb. 1: Der Arktische Ozean

In diesem nahezu ganzjährig von Eis bedecktem Arktischen Ozean gibt es natürlich keine erdgebundenen Wetterstationen.

Die Wetterdaten des GISS (Goddard Institute for Space Studies), Berkeley Earth, NOAA nehmen daher die wenigen Wetterstationen rings um das Arktische Meer und homogenisieren deren Daten auf einer Länge von 1.200 km! Das sieht dann so aus wie in der folgenden Abbildung, mit einer gemittelten globalen Temperaturanomalie von 0,82 °C im Dezember 2016 (NOAA). Folge: Die ganze Arktis ist gleichmäßig rot, d. h. zu warm!

https://data.giss.nasa.gov/gistemp/maps/

img_1242

Abb. 2: NOAA mit 1.200 km Temperaturdaten Extrapolation

Man kann sich auf der NOAA Internetseite auch die Temperatur mit einer Extrapolation von nur 200 km ausdrucken lassen und erhält dann folgendes Bild mit global gemittelten Temperaturen für Dezember 2016 von 0,73 °C, also fast 1°C geringer!!

img_1243

Abb. 3: NOAA mit 200 km Extrapolation der Temperaturdaten

Die letzte Abbildung und der Unterschied werden nicht in Pressemitteilungen hervorgehoben.

So entsteht also die Überschrift in „Die Zeit“ vom 18. November 2016:

„Die Arktis glüht“

Die Daten von GISS, NOAA und Berkeley kann man sich dann auch noch etwas plakativer darstellen lassen (Temperaturen in 2m Höhe am 23. Januar 2017).

http://cci-reanalyzer.org/wx/DailySummary/#T2

gfs-025deg_nh-sat1_t2

Abb. 4: Mittlere Tagestemperatur in 2m Höhe am 23. Januar 2017 mit 1.200 km Extrapolation in der Arktis.

 

Hierzu schreibt dann „Die Zeit“ noch den Wissenschaftlern gehen die roten Farben aus! Was für ein Blödsinn.

Die roten Farben im Diagramm zeigen immer noch eine Temperatur von -30°C an!!!!

Das lässt auch die Eis- und Schneebedeckung relativ kalt (weiße Bereiche in der folgenden Darstellung).

gfs-025deg_nh-sat1_seaice-snow

Abb. 5: Schnee- und Eisbedeckung am 23. Januar 2017 relativ zum langjährigen Mittel 1979 bis 2000

Stellt man für den 23. Januar 2017 noch die Temperaturanomalien dar, so ergibt sich folgendes Bild. Zu warm in Teilen der Arktis, zu kalt in anderen Teilen der Arktis, Alaska, Grönland und Ostsibirien sowie Mittel- und Südeuropa.

gfs-025deg_nh-sat1_t2_anom

Abb. 6: Tagesmittel der Temperaturanomalien in Relation zum Mittel der Jahre 1979 bis 2000 am 23. Januar 2017

 

Richtig ist, dass es global wärmer ist als im langjährigen Mittel. Aber die Darstellungen hier sind nur eine Momentaufnahme, es handelt sich also um Wetter und hat noch nichts mit Klima zu tun. Dazu muss man längere Zeiträume betrachten und das soll im Folgenden dargestellt werden.

In der nächsten Abbildung sind die Temperaturdaten der erdgebundenen und längerfristig in Betrieb gewesenen Wetterstation bis 2015 rund um die Arktis dargestellt.

(Folgende Graphiken: http://www.climate4you.com/)

 img_1241

Abb. 7: Erdgebunden Wetterstrationen rund Antarktis 1880 bis 2015

(von oben nach unten: Fairbanks, Nuuk, Akureyri, Svalbard, Ostrov Dikson, Hatanga)

Bis auf Svalbard von -8°C auf -2°C kann man eigentlich keinen deutliche Temperaturerhöhung über diesen langen Zeitraum erkennen.

Die Temperaturen 2016 können natürlich durch den El Nino und Tele-Auswirkungen auch in Arktis und sowieso Antarktis beeinflusst werden.

Nun können wir heute ja auch auf die Satellitenmessungen UAH und RSS zurückgreifen.

Allerdings geben diese nur Temperaturdaten der unteren Troposphäre bis etwa 85 Grad N/S an, denn die Messungen werden über Eisflächen relativ ungenau.

msu%20uah%20arcticandantarctic%20monthlytempsince1979%20with37monthrunningaverage

 msu%20rss%20arcticandantarctic%20monthlytempsince1979%20with37monthrunningaverage

Abb. 8: Arktis/Antarktis Temperaturanomalien 1979 bis Dezember 2016, 60 Grad N/S bis 85 Grad N/S (UAH, oben), bis 82,5 Grad N/S (RSS, unten)

Die Temperaturdaten der HadCRUT4, die sich nicht nur auf erdgebundene Wetterstationen berufen, sondern auch Satellitenmessung, Daten von Bojen und Wetter Ballonen, Schiffen berücksichtigen sind wesentlich zuverlässiger als GISS/NASA, Berkeley Earth.

Die Temperatur-Anomalien für die Arktis (70 Grad N bis 90 Grad N) sind in der nächsten Abbildung zu sehen (Graphik: http://www.climate4you.com/).
70-90n%20monthlyanomaly%20since1920Abb. 9: Temperatur Anomalien von HadCRUT4 für 70 Grad bis 90 Grad N von 1920 bis Oktober 2016

Eine Temperaturerhöhung verglichen mit den 40er Jahren des 20. Jahrhunderts ist auch beim besten Willen (für die Alarmisten) nicht zu erkennen.

Wie eingangs gesagt:

Die „Zeit“ und die anderen ins gleiche Bockshorn trompetenden Zeitschriften leben klimatologisch offensichtlich im Postfaktischen Zeitalter!

Denn die Fakten sind nur einen Mouse Klick entfernt!

Die Arktis glüht wohl nur in einigen zu heißen Köpfen!

RL

PDF: temperaturmessung-in-der-arktis

Filed under: Heißestes Jahr, Klima, Klima und Umwelt, Temperaturanomalie, Temperaturmessung, Wissenschaft, , , , , , , , , ,

Frohes Neues Jahr !! – oder doch nicht?!

 Ein frohes neues Jahr wünscht man: So ist es Brauch und sicher steht dahinter auch oft ein ernst gemeinter Wunsch.

Aber wie sieht es denn nun mit dem Neuen Jahr aus, nachdem bereits ein halber Monat vergangen ist?

Für Klimaalarmisten hat es nun ganz schlecht angefangen!!

1) Da wurde nun zum einen ein ausgemachter Klimaskeptiker zum Präsidenten der Vereinigten Staaten gewählt, der die Klimahypothese und den so genannten wissenschaftlichen Konsens (den es nicht wirklich gibt) auf die Prüfbank stellt.

24492184135-donald-trump

Den Klimavertrag von Paris möchte er neu – unter dem Gesichtspunkt des Nutzens für die USA –aufrollen.

Das wird eine spannende Angelegenheit. Die Klimaalarmisten stehen auf den Barrikaden und versuchen alles, eine wissenschaftliche rationale Neubewertung zu verhindern. Es stehen schließlich hunderte Milliarden € für die Klimaalarmisten auf dem Spiel, auf die sie natürlich nicht verzichten möchten!!

Wer würde dies an deren Stelle denn auch schon wollen.

Für einen Physiker wie ich, von Berufs wegen skeptisch, ist Trump diesbezüglich natürlich eine gute Nachricht. Mein berufliches Leben lang ist für mich die Wissenschaft dadurch definiert, dass Hypothesen und Theorien sich auf dem Feld der gemessenen Daten verifizieren müssen. Hierzu sagt einer der herausragenden Physiker des letzten Jahrhunderts Richard Feynman:

feynman-to-science1

Exzellent hat Feynman die wissenschaftliche Methode beschrieben, die auch den Grundsatz der Physik bildet (und die Klimatologie ist nichts anderes als ein Randgebiet der Physik!).

https://www.youtube.com/watch?v=kctmPaCkV0g

Und beim Klimaalarm, der sich nur auf Klimamodelle stützt, sieht es derzeit nicht danach aus, als ob Modelle und Realität übereinstimmen. Damit sind die Modelle nicht geeignet Prognosen für die Zukunft darzustellen (JR Christy, University of Alabama Huntington).

Christy

 

Messungen und Klimamodelle – eine überraschende Darstellung der Diskrepanz

Damit man mich nicht falsch versteht! Natürlich gibt es den so genannten atmosphärischen Treibhauseffekt, der mit steigender CO2 Konzentration zu einer höheren mittleren Temperatur auf der Erde führt. Er hat schließlich auch dazu geführt, dass die Erde kein Eisball ist. Die Frage ist nur, wie groß ist heute noch die Klimasensitivität dieses Treibhausgases, die besagt, welche Temperaturerhöhung ergibt sich bei Verdopplung der CO2 Konzentration. Die Alarmisten sagen 1,5 bis 4,5 °C. Basierend auf dem bisher gemessenen Temperaturanstieg werden es weniger! als 1,5 °C bis zum Ende dieses Jahrhunderts sein, wenn man denn bis dahin eine Verdopplung der CO2 Konzentration annimmt. Das würde bedeuten, ausgehend von 280 ppmV vorindustrieller Konzentration auf 560 ppmV bei Verdopplung (derzeit 400 ppmV), dass diese bei einem Anstieg von derzeit 2 ppmV/Jahr in 80 Jahren erreicht werden kann, falls unsere fossilen Brennstoffe überhaupt so lange reichen.

Im Grunde ist es für mich eine Frage der wissenschaftlichen Wahrheit, weshalb ich als Skeptiker den Wert von <1,5°C für realistisch halte; und dieser führt eben nicht zu einem Klimaalarm!

Klicke, um auf sensitivitc3a4t-von-co21.pdf zuzugreifen

Für meine Meinung erhalte ich von niemandem auch nur einen Cent, besitze auch keine Aktien, die in irgendeiner Form mit der Entwicklung des Klimas oder der CO2 Emission zusammenhängen.

Würden die gemessenen Werte auf eine Temperaturerhöhung hinweisen, die eine wesentlich höhere Sensitivität des Treibhausgases CO2 als Basis hätte, würde ich genauso deutlich dazu stehen.

Und Übrigens: Gegen eine gewisse Temperaturerhöhung in Deutschland hätte ich überhaupt nichts einzuwenden, möchte schon gar nicht unter den Bedingungen der „Kleinen Eiszeit“wie noch im 19. Jahrhundert leben!!

2) Der El Nino, der zur Freude der Klimaalarmisten zu einer Erhöhung der globalen Mitteltemperatur geführt hat, hat sich recht schnell verabschiedet und ist einer gemäßigten La Nina gewichen.

elninometer-current-170116nino3_4-170116

Ergänzung: Aktuelle Vorhersage NOAA zu El Nino und La Nina

Dies hat naturgemäß zu einer stark und schnell abfallenden globalen Mitteltemperatur geführt. Dies ist in der nächsten Abbildung zu sehen. Hier sind die Daten der Satellitenmessungen RSS bis einschließlich Dezember 2016 als Anomalien, d.h. Abweichung vom langjährigen Mittel, dargestellt.

http://woodfortrees.org/plot/rss-land/from:1997/plot/rss/from:1997

img_1229

Die Temperaturdaten der Satellitenmessungen der UAH (University of Alabama Huntington) von Roy Spencer zeigen das gleiche Ergebnis.

uah_lt_1979_thru_december_2016_v6

Mit dem schnellen Ende des El Nino hat sich auch die Hoffnung der Alarmisten zerschlagen, dass sich das Jahr 2016 deutlich als heißestes Jahr seit Aufzeichnung herausstellt. Es ist in der Tat um 0,02°C wärmer als der bisherige Rekordhalter 1998 (ebenfalls ein El Nino Jahr!) mit 0,48°C, allerdings mit einem Messfehler von ca. 0,1°C, also statistisch nicht relevant.

3) Die Messdaten Ende Dezember 2016 (siehe Abbildung oben) deuten darauf hin, dass wir auch im Jahr 2017 eine Fortsetzung der Temperaturkonstanz (Hiatus) oder eines nur geringfügigen Anstiegs seit nunmehr fast 20 Jahren erleben. Auch dies hat kein Klimamodell vorhergesagt.

Nun gut, Vorhersagen sind schwierig, besonders wenn sie die Zukunft betreffen.

Warten wir also ab. Sollte es die Sonne an den Tag bringen, werden wir sogar mit leicht fallenden Temperaturen rechnen müssen, denn die Aktivität der Sonne, ausgedrückt durch die Zahl der Sonnenflecken, wird in den nächsten Sonnenzyklen wohl deutlich zurückgehen.

Wer einen Zusammenhang der Erdtemperaturen mit der Sonnenaktivität heute noch leugnet, dem ist allerdings auch nicht mehr zu helfen.

Die Sonne schwächelt – Erleben wir in Zukunft ein Dalton und Maunder Minimum mit entsprechender Temperaturerniedrigung?

4) Und nun auch noch zu Beginn des Jahres 2017 die Eiseskälte, die ganz USA außer Hawaii und Florida erfasst hat.us-big-chill-2017

Alle Staaten haben Temperaturen unter 0°C, 25 Staaten (30%) unter -18°C und 6 Staaten unter -29°C.

Hinzu kommt, dass fast überall in Deutschland ebenfalls eisige Temperaturen herrschen (16.01.2017, deutschlandweit <-5°C)) und lange nicht gemessene Schneehöhen von 54 cm in Hellenthal/Eifel (Weißer Stein), Monschau/Eifel 40 cm vorhanden sind, in den deutschen Alpen, z. B. Berchtesgaden Berg 130 cm, im Bayrischen Wald 80-130 cm, in unserem Lieblingsskiort Tauplitz Steiermark 40-250 cm!

16.01.2017

schneehoehe-tauplitz-170116

Schnee, den es in eigentlich schon lange nicht mehr geben dürfte!

(Am 1. April 2000 hat der Klimaforscher Mojib Latif noch verkündet: “Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben”. Es war von ihm nicht als Aprilscherz gemeint.)

Klar, das ist alles noch Wetter und kein Klima!

Wäre es umgekehrt, also zu warm und gäbe es keinen Schnee, würden es die Klimaalarmisten wie gewohnt als Bestätigung ihrer Modelle laut hinausposaunen, und so mancher Medienfürst mit Begeisterung verbreiten.

Das alles passt nun nicht so richtig in das Weltbild der Klimaalarmisten.

RL

PDF hier:

rlrational-frohes-neues-jahr-2017

 

Filed under: CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , , , ,

Es grünt so grün – mit steigender Kohlendioxid Konzentration in der Atmosphäre

Lange ist bekannt, dass die meisten Pflanzen mit steigender Konzentration von Kohlendioxid in der Atmosphäre besser wachsen. Um die Erträge zu steigern, werden Gewächshäuser zusätzlich mit CO2 belüftet.

Dies funktioniert bis zum etwa 2-3 fachen der heutigen CO2 Konzentration in der Atmosphäre. Dies gilt allerdings in diesem Masse nur für so genannte C3 Pflanzen, die bei normalen Temperatur- und Lichtverhältnissen Photosynthese betreiben. Dazu gehören fast alle Pflanzen, die grüne Blätter, Nadeln besitzen (vereinfacht ausgesprochen).

CO2 Aufnahme und Zuwachs

CO2 Aufnahme und Zuwachs, Abhängigkeit der Photosyntheserate von der CO2-Menge in der Luft bei C3- und C4-Pflanzen.

https://de.wikipedia.org/wiki/Kohlenstoffdioxid-D%C3%BCngung#/media/File:Photosynthese_CO2-Konzentration.svg

Bei etwa 800-1200 ppmV steigert sich die Wachstumsrate der C3 Pflanzen um einen Faktor 3, ausgehend von der derzeitigen Konzentration von 0,04% (400 ppmV).

Das ist sehr gut in der bekannten Darstellung Emission und Verbleib von CO2 in der Atmosphäre bekannt, wie in der nächsten Abbildung zu sehen.

screen_shot_2012-11-22_at_12_34_23_550x376

WMO Greenhouse Gas Bulletin No. 8 vom 19. November 2012 http://www.wmo.int/pages/prog/arep/gaw/ghg/documents/GHG_Bulletin_No.8_en.pdf

Man erkennt einmal, dass nur etwa die Hälfte des emittierten Kohlendioxids (grün) in der Atmosphäre (blau) verbleibt.

Zum anderen ist deutlich zu sehen, dass der Anteil (rot) des wieder terrestrisch oder ozeanisch aufgenommenen, aus der Atmosphäre absorbierten CO2, mit steigender Konzentration zunimmt.

Dabei war nicht ersichtlich, welcher Anteil von terrestrischen Pflanzen wieder aufgenommen wird und wieviel auf andere Faktoren zurückzuführen ist.

Diese Lücke hat nun in einer Veröffentlichung ein internationales Team von Wissenschaftlern klären können, mit welchem Anteil entsprechende Faktoren beteiligt sind.

Greening of the Earth and its drivers

Zaichun Zhu, Shilong Piao, Ranga B. Myneni, Mengtian Huang, Zhenzhong Zeng, Josep G. Canadell, Philippe Ciais,

Stephen Sitch, Pierre Friedlingstein, Almut Arneth, Chunxiang Cao, Lei Cheng, Etsushi Kato, Charles Koven, Yue Li,

Xu Lian, Yongwen Liu, Ronggao Liu, Jiafu Mao, Yaozhong Pan, Shushi Peng, Josep Peñuelas, Benjamin Poulter,

Thomas A. M. Pugh, Benjamin D. Stocker et al.

Nature Climate Change (2016) doi:10.1038/nclimate3004

Received 08 June 2015 Accepted 29 March 2016 Published online 25 April 2016

http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3004.html

Die Arbeit basiert auf den Daten des „Moderate Resolution Imaging Spectrometer“ (NASA) und des „Advanced Very High Resolution Radiometers“ (NOAA).

Die Autoren benutzten drei verschieden Indizes der Satelliten Messungen von 1982 bis 2009 in Bezug auf die Verteilung von photoaktiven Pflanzen (Long Term Satellite Leaf Area Index, LAI), sowie zehn verschiedene Ökosystem Modelle, um die vier wichtigsten Akteure der Aufnahme von CO2 aus der Atmosphäre zu bestimmen.

Im Ergebnis erhielten sie die belastbare Aussage, dass eine dauerhafte Zunahme der grünen Pflanzen beziehungsweise deren Wachstums (LAI) um +25-50% in den Vegetationsgebieten der Erde zu beobachten ist.

Dargestellt ist dies übersichtlich in der nächsten Abbildung.

leaf-area change 1982 to 2015 NASAS

Änderung der Gebiete mit Grünpflanzen im Zeitraum 1982 bis 2009 (Credits: Boston University/R. Myneni)

https://wattsupwiththat.files.wordpress.com/2016/04/leaf-area.jpg

http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3004.html

Davon konnten +70% auf die positive „Düngung, Fertilization“ des Kohlendioxids -mit dem größten Anteil in den Tropen- zurückgeführt werden, gefolgt von +9% durch Erhöhung des Stickstoff Anteils im Boden, +8% auf die Klimaänderung und +4% auf die Änderung der Landnutzung.

Das ist ein sehr interessantes Ergebnis, zeigt es doch, dass eine Erhöhung der Konzentration von CO2 bis zu einer Verdopplung bis Verdreifachung der derzeitigen Konzentration von 400 ppmV den Pflanzenwuchs fördert. Dies kann weiterhin mit starken durchaus positiven Auswirkungen auf das regionale Klima verbunden sein, wenn man berücksichtigt, dass z. B. Feuchtigkeit auf bewaldeten, begrünten Flächen sehr viel besser zurückgehalten wird.

Natürlich konnte es ein Skeptiker (Josh) nicht lassen, daraus ein satirisches Cartoon zu machen.

https://wattsupwiththat.com/2016/04/27/hump-day-hilarity-told-you-so/

 

Eine private Anmerkung:

Seit einigen Jahren fiel es mir irgendwie auf – und ich habe es meinen Freunden und meiner Familie mitgeteilt, dass die Landschaft in unserer Umgebung auf Grund steigender CO2 Konzentration in der Atmosphäre grüner und üppiger wird. Man war leider oft der Meinung, das sei eine sehr subjektive Beurteilung. Na ja: war sie sicher auch! Aber im Nachhinein?!

RL

PDF hier: Es grünt so grün

 

Filed under: Klima, Klima und Umwelt, Wissenschaft, , , , ,

Ergänzung: Aktuelle Vorhersage NOAA zu El Nino und La Nina

NOAA, die National Oceanic and Atmospheric Administration,USA, hat eine aktualisierte Vorhersage zum derzeitigen El Nino und der kommen La Nina herausgegeben.

Die folgende Abbildung zeigt die Temperaturanomalien im Pazifik für die 3-Monats Mittelwerte (z. B. NDJ: November Dezember Januar; FMA: Februar März April …) jeweils für das Jahr 2016 und Anfang 2017.

Die Konturintervalle zwischen den Linien gleicher Temperatur Cint betragen 0,3 °C.

NOAA El nino la nina forecast 160220

LIM SST Anomalies Forecast data provided by the NOAA/ESRL Physical Science Division and CIRES CU, Boulder, Colorado, from their website at

http://www.esrl.noaa.gov/psd/

Die Vorhersage beinhaltet ein sehr schnelles Abklingen des derzeitigen starken El Nino bereits bis Februar März April und das Einsetzen einer recht ordentlichen La Nina ab Mai Juni Juli.

Letztere wird zu einer erheblichen Reduzierung der global gemittelten Temperaturen führen.

Man darf gespannt sein, wie sich das auf die Modellvorhersagen und die anthropogen verursachte Erwärmung auswirkt !!

RL

PDF hier:

Ergänzung Aktuelle Vorhersage NOAA zu El Nino und La Nina

Filed under: 2014 Heißestes Jahr, Klima, Temperaturanomalie, Wissenschaft, , , ,

El Nino – La Nina: Ein Überblick

Zurzeit ist der Name El Nino wieder in aller Munde, da er unser Wetter beeinflusst, die global gemittelten Temperaturen ansteigen lässt und sich mit besonderer Stärke entwickelt.

Hohe_Wellen_in_Ocean_Beach

https://commons.wikimedia.org/w/index.php?curid=13121913

Der El Nino Zustand wird auch als El Nino Southern Oscillation, ENSO, bezeichnet, ein gekoppeltes Zirkulationssystem von Ozean (Oberflächentemperaturen) und Atmosphäre (Passatwinde, Luftdruckverteilungen).

Dieses wichtigste Klimaphänomen mit globalen Auswirkungen, das alle 4-12 Jahre auftritt, kann auch von den aufwändigsten Klimamodellen, die unser Klima auf 100 Jahre vorherzusagen glauben, nicht angesagt werden. Erst wenn es bereits am Entwickeln ist, wird versucht, seine Stärke und Dauer durch Vergleich mit bisherigen Verläufen darzustellen. Das liegt natürlich daran, dass das Auftreten von ENSO bestimmt ist durch deterministisches Chaos, genau wie das Wetter und auch das Klima!

Im Folgenden soll anschaulich Entstehen und Wirkung eines El Nino beschrieben werden.

Eine ausführlichere Darstellung des El Nino-La Nina Phänomens siehe z. B.

WIKIPEDIA

https://de.wikipedia.org/wiki/El_Ni%C3%B1o

oder Info Seite zur Klimaanomalie im Pazifik

http://www.elnino.info/

oder ENSO-Info

http://www.enso.info/enso.html

El Nino, das Christkind oder der Knabe, ist ein Klimaphänomen, das sich im Pazifik zwischen Südamerika und Australien/Indonesien abspielt, und über so genannte Fernwirkungen (Telekonnektionen) das globale Klima beeinflusst. Sein Name kommt daher, dass das Phänomen sich hauptsächlich im Winter in der Weihnachtszeit besonders stark bemerkbar macht. Peruanische Fischer haben diesen Ausdruck geprägt, da in El Nino Jahren die ausbleibenden Fischschwärme starke negative wirtschaftliche Auswirkungen haben.

Um das Klimaphänomen El Nino zu beschreiben muss zunächst der Zustand dargestellt werden in Jahren, die weder von El Nino noch La Nina beeinflusst werden.

In diesen Jahren herrscht ein starker Süd-Ost-Passat vor, der das Oberflächenwasser vor der Küste Perus nach Westen treibt und somit dem kalten Wasser des Humboldtstromes den Auftrieb ermöglicht. So herrschen normalerweise vor der Küste Perus Wassertemperaturen an der Meeresoberfläche von 23-24 °C, hingegen an der Ostküste Indonesiens 27-28 °C.

Während eines El Nino werden die Passatwind schwächer. Die Wassermassen, die während der starken Südostpassate nach Westen gedrückt wurden und sich dabei erwärmten, fließen nun nach Osten zurück, so dass das kühlere nährstoffreiche Wasser des Humboldtstromes sich nicht zur Oberfläche durchsetzen kann. Der Wasserstand im Ostpazifik wird dabei um bis zu 30 cm erhöht, während er im Westen entsprechend abnimmt.

Dabei ändern sich großräumig die Luftdruckverteilungen im Pazifik mit den entsprechenden Windstärken und Richtungen (Walker Zirkulation ohne El Nino und La Nina in der nächsten Abbildung).

Walker-Zirkulation

https://de.wikipedia.org/wiki/Walker-Zirkulation#/media/File:Walker-Zirkulation.png

Bei El Nino entsteht ein Tiefdrucksystem (aufsteigende Luft, Regen) im Osten des Pazifiks, im Westen ein Hochdrucksystem (absinkende Luft, trocken).

Im Verlauf eines El Nino kommt es somit an der südamerikanischen Küste zu schweren Regenfällen, ebenso wie an der nordamerikanischen Westküste (was Kalifornien derzeit gut gebrauchen kann). In Südostasien und Australien kommt es auf Grund der Trockenheit zu großen Busch- und Waldbränden. Während es in Ostafrika in Ländern wie Kenia und Tansania mehr Regen gibt, ist es in Sambia, Simbabwe, Mosambik und Botswana (südliches Afrika) deutlich trockener.

Schwere Stürme an der Westküste Mexikos und in Kalifornien sind ebenfalls Folgen des El Nino. (Foto in San Diego)

Hohe_Wellen_in_Ocean_Beach

https://commons.wikimedia.org/w/index.php?curid=13121913

Der derzeitige Zustand der Temperaturanomalien des pazifischen Ozeans in einem starken El Nino Jahr ist in der folgenden Abbildung (NOAA) dargestellt (Temperatur in Fahrenheit;

ENSO_SSTA_201601_lrg

https://www.climate.gov/sites/default/files/ENSO_SSTA_201601_lrg.png

im nächsten Bild Temperatur in °C).

NOAA-CPC-NWS-NOAA_SST_Anoms_2015https://de.wikipedia.org/wiki/El_Ni%C3%B1o#/media/File:NOAA-CPC-NWS-NOAA_SST_Anoms_2015.jpg

Der Zustand des El Nino wird durch verschiedene Zustandsgrößen beschrieben z. B. NINO3.4 SST Index, der die Oberflächen-Meeres-Temperaturen im bezeichneten Gebiet in Abweichung vom Temperaturmittel angibt,

map-pac-EquCylproj Nino Bereiche

http://wattsupwiththat.com/reference-pages/climatic-phenomena-pages/enso/

nino3_4 Feb 2016

http://www.bom.gov.au/climate/enso/monitoring/nino3_4.png

oder den Multivariate ENSO Index (MEI). Bei letzterem werden nicht nur die Meerestemperaturen im El Nino Bereich gemessen, sondern es gehen zusätzlich der Luftdruck auf Meereshöhe, die zonalen und meridionalen Windgeschwindigkeiten auf Meereshöhe, die Meeres- und Lufttemperaturen und der Grad der Bewölkung ein.

imei Feb 2016

http://climexp.knmi.nl/data/imei.png

Wie man am MEI deutlich erkennt, ist der derzeitige El Nino nicht ganz so stark wie der von 1998 und befindet sich bereits am Abklingen. Aber er wird bis in die zweite Hälfte 2016 seine Wirkung noch zeigen.

NOAA: El Niño remains strong, with continued warmth in the surface waters of the east-central tropical Pacific and wind and rainfall disruptions across the entire basin. Most indicators are starting to show weakening, however. El Niño is likely to become neutral by late spring or early summer 2016, with a possible shift to La Niña in the fall.

Der Einfluss des El Nino 2015/2016 auf die global gemittelten Temperaturanomalien ist in der folgenden Abbildung der Satellitenmessung der UAH zu erkennen (UAH: University of Alabama, Huntington).

UAH_LT_1979_thru_January_2016_v6

http://www.drroyspencer.com/wp-content/uploads/UAH_LT_1979_thru_January_2016_v6.png

Nach einem El Nino folgt wie üblich wahrscheinlich eine La Nina, das Mädchen. Dabei ist die Stärke des Mädchens nicht vorherzusagen.

Sie ist das Gegenstück zum El Nino und definiert durch stärkere Nordostpassate als im langjährigen Mittel, die nunmehr kälteres Wasser nach Westen transportieren.

 

1280px-Sea_Surface_Temperature_-_November_2007

https://de.wikipedia.org/wiki/La_Ni%C3%B1a#/media/File:Sea_Surface_Temperature_-_November_2007.jpg

Die Wetterauswirkungen La Nina sind bei weitem nicht so ausgeprägt wie bei einem El Nino Ereignis.

Trotzdem ist La Nina begleitet von mehr Regen an der australischen Nordostküste und in Südostasien, von Dürren in Südamerika und vermehrtem Auftreten von Hurrikanen in Nordamerika über die Nordwestwinddrift. Der Einfluss der niedrigeren Temperatur in weiten Teilen des Pazifik hat zur Folge, dass die gemittelten globalen Temperaturen abnehmen, wie sie während eine El Nino zugenommen haben, wie man in der Graphik der Temperaturanomalien der UAH sehen kann.

UAH_LT_1979_thru_January_2016_v6

Dann – nach Abklingen des El Nino – wird sich herausstellen, ob die global gemittelte Temperatur weiter zunimmt oder auf einem gleichbleibenden Niveau wie seit dem Jahr 2000 verbleibt oder nur schwach ansteigt.

RL

PDF hier:

El Nino La Nina

 

Filed under: Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , ,

Der statistische Trick mit der Anomalie – oder wie erzeugt man Hysterie

Der immer wieder bewährte Trick der Statistik –  um einen Effekt zu erzielen – beruht auf der „Nullpunkts-Unterdrückung“, auch Abweichung, Anomalie, genannt.

Dabei stellt man kleine – oft unbedeutende Variationen – vergrößert dar.

Dies soll an zwei Beispielen, der global gemittelten Temperaturanomalie und der Meereseisbedeckung erläutert werden.

 

1) Die global gemittelte Temperaturanomalie.

Üblicherweise wird die global gemittelte Temperatur durch die Temperaturanomalie, d. h. die Abweichung von einer Referenzperiode dargestellt.

Als Beispiel sollen die Daten der NOAA GISS dienen (obwohl der Verdacht nahe liegt, dass diese zu Gunsten einer Erwärmung schrittweise manipuliert wurden).

Hadcrut glob T Anomalie Kopie

https://commons.wikimedia.org/wiki/File:Global_Temperature_Anomaly.svg#/media/File:Global_Temperature_Anomaly.svg

Es handelt sich um eine Änderung von -0,2 bis +0,7°C, also ein Delta von

Δ=0,9°C!

Das sieht dramatisch aus, und soll es ja auch.

Denn es soll vor allem darstellen, wie der Mensch durch seine Emission des Treibhausgases CO2 zur global gemittelten Temperatur beiträgt.

Verzichtet man auf die Unterdrückung des Nullpunktes und beginnt z. B: bei 0°C, und trägt die Veränderung bei einer mittleren globalen Erdtemperatur von derzeit ca. 14,5°C auf, so erhält man ein ganz anderes Bild mit den gleichen Daten:

Nullpunktsunterdrückung T 2

Das sieht nun nicht mehr so dramatisch aus, und ist auch wohl auch besser in seiner Bedeutung zu verstehen.

Im Grunde müsste man als Nullpunkt die Temperatur der Erde ohne Treibhausgase darstellen, denn es soll ja der Effekt durch zusätzlich emittiertes Treibhausgas CO2 gezeigt werden. Der Nullpunkt würde dann bei -18°C statt 0°C liegen! Der Effekt einer Temperaturerhöhung durch das Treibhausgas Kohlendioxid wäre dann kaum noch zu erkennen.

 

2) Die See-Eisbedeckung der Erde

Hierzu ist zu Beginn noch zu erwähnen, dass die Erde sich heute in einem Eiszeitalter befindet, das geologisch dadurch definiert ist, dass mindestens ein Pol mit Eis bedeckt ist. Die meiste Zeit ihrer Geschichte befand sich die Erde in einem Warmzeitalter (siehe nächste Graphik)

Phanerozoic_Climate_Change_(de)

https://de.wikipedia.org/wiki/Klimageschichte#/media/File:Ice_Age_Temperature_de.png

Innerhalbe unseres Eiszeitalters wechseln sich Warm- und Kaltzeiten ab. Wir befinden uns in einer Warmzeit (interglazialen Warmzeit) zwischen zwei Kaltzeiten (Graphik), und beide Pole sind mit Eis bedeckt.

Ice_Age_Temperature_de

https://de.wikipedia.org/wiki/Klimageschichte#/media/File:Ice_Age_Temperature_de.png

Nun zurück zur Nullpunkts Unterdrückung!

Gerne werden auch hier die globalen Meer-Eisbedeckungen als Bedeckungsanomalien dargestellt:

iphone_anomaly_global

Globale See-Eisbedeckung: Cryosphere Today – University of Illinois – Polar Research Group

http://wattsupwiththat.com/reference-pages/sea-ice-page/

Wie anders sieht es doch aus, wenn man den Nullpunkt nicht unterdrückt:

Nullpunktsunterdrückung T und Seeeis 2

Ähnliches gilt auch für die Meereseis-Bedeckung der Antarktis.

Zunächst die Bedeckungsanomalie:

seaice_anomaly_antarctic

Dann hier ohne Nullpunktunterdrückung:

seaice_area_antarctic

Die jährlichen Abweichungen, Anomalien, sind eben gering und insofern auch bedeutungslos!!

Fazit:

„Vertraue keiner Statistik! Es sei denn Du erkennst, was sie bezwecken will!“

RL

PDF: Der statistische Trick mit der Anomalie

 

 

Filed under: 2014 Heißestes Jahr, Klima, Temperaturanomalie, Wissenschaft, , , , , , ,

Greenpeace Mitgründer Patrick Moore zum Klima

Der Mitgründer von Greenpeace ist offensichtlich zum Klimaskeptiker geworden!

Sehen Sie hier , was er zu sagen hat :

Eine Version mit deutschen Untertiteln ist bei EIKE erschienen:

RL

 

 

Filed under: Klima, Klima und Umwelt, Wissenschaft, , , , , , ,

Ohne Kommentar – Nur Klimafakten/Messungen

Temperaturen der Satellitenmessungen der unteren Troposphäre

a) Remote Sensing System bis Dezember 2015

rss temp anomaly up to dec 2015b) University of Alabama Huntington, UAH, bis Dezember 2015

UAH_LT_1979_thru_December_2015_v6-1c) Temperaturen Arktis (60-85° Nord) und Antarktis (60-85° Süd) Satellitenmessungen in der unteren Troposphäre bis Oktober 2015, UAH

arctic-temperatures-1024x937

CO2 Emission, Mauna Loa Hawai bsi November 2015

co2_data_mlo2015-565b464245c7f

Meeresspiegel Anstieg, University of Colorado, Stand Oktober 2015

University of Colorado Sea Level

Meeresspiegel Marshall Inseln, PSMSL, bis 2014

Sea Level Marshall Inseln

Meereisbedeckung, schwankt im Jahr zwischen 17,5-27,5 Millionen km

Graph: climate4you

NSIDC%20GlobalArcticAntarctic%20SeaIceArea

Elektrizitätskosten als Funktion der installierten Erneuerbaren Energien 2014 (MW/Million Einwohner bzw. W/Einwohner), Jonathan Drake

 Electricity Cost vs Installed Renewable Capacity per Capita Kopie

Untersuchung zu Elektrizitätskosten Fondo Interbancario, Italien

cost-industrial-electricty-prices-2015-12-22-countries

Schnee an Weihnachten in der Schweiz

 

weihnachtsschnee-schweiz-1024x944

 

Eisbären, Zustand der Population, 42% Wachstum, „manche so fett wie Schweine“

http://w Dr. Susan J. Crockford of polarbearscience.com

attsupwiththat.com/2015/12/23/more-scientific-evidence-that-polar-bears-are-doing-just-fine-a-30-increase-in-population-with-some-of-them-as-fat-as-pigs/svalbard-polar-bear-fall-2015_aars/

Unbenannt

PDF hier: rlrational ohne Kommentar nur Klimafakten Messungen

Filed under: 2014 Heißestes Jahr, Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , , , , , , , , , , , , ,

COP-21 im Widerspruch zu eigenen Vereinbarungen- ab heute null Emissionen?!

Es muss den Anhängern und Enthusiasten des Klimaalarms wohl noch nicht aufgefallen sein, dass die heutigen Temperaturmessungen und die gemessenen Konzentrationen von CO2 in der Atmosphäre im Widerspruch zu den eigenen Berichten des IPCC (Intergovernmental Panel for Climate Change, UN) und den dort angegebenen Klimasensitivitäten des CO2 stehen.

Und schließlich sollten sie auch längst erkannt haben, dass mit den ihren Alarm tragenden Wirkungen des Treibhausgases CO2 ab heute die Emissionen auf null zurückgefahren werden müssten!

Im kompletten Widerspruch zu den Vereinbarungen und zukünftigen Vorhaben der Pariser Übereinkunft COP-21.

Diese Tatsache, nicht gerade im Sinne der Alarmisten, soll hier noch einmal dargestellt und erläutert werden.

Man kann die anschließende Rechnung am Ende des Artikels auslassen und sich direkt die Werte in der Tabelle 1 anschauen.

Tabelle 1: f = ΔTSensitivität/ln (2)

Sensitivitätstabelle Kopie

Der Tabelle  entnimmt man, dass bei den vom IPCC und den Alarmisten angegeben Temperatursensitivität ΔTSensitivität für CO2 von im Mittel 3°C bei der heutigen Konzentration von 400 ppmV die Temperaturerhöhung bereits jetzt über der in der Pariser Vereinbarung COP-21 angestrebten 1,5°C liegt, und weit über der bisher gemessenen global gemittelten Temperaturerhöhung von 0,7 °C!!!

Um das 1,5°C Ziel noch zu erreichen, darf ab heute keine CO2 Emission mehr stattfinden!!!

Bei einer Sensitivität von 4,5 °C, die immer noch beim IPCC als möglicher Wert bezeichnet wird, ist sogar bereits das 2°C Ziel überschritten.

Eine Sensitivität, die mit den heutigen gemessenen Temperaturen

ΔTheute = 0,7°C

verträglich ist (Temperaturerhöhung durch anthropogen emittierte Treibhausgase)

und den gemessenen Konzentrationen an CO2 von 400 ppmV,

liegt bei ΔTSensitivität = 1,35 °C  (f=1,95 °C ) oder darunter.

Und dies führt zu keiner globalen Temperaturerhöhung, die zu alarmistischen Veränderungen im Klima Geschehen Anlass gäbe, und schon gar nicht zu von den Aktivisten geforderten Reduktionen an CO2 Emissionen mit den bekannten Auswirkungen.

Wann fängt man endlich einmal an, darüber nachzudenken, welche Sau hier eigentlich von den Klimaalarmisten und Aktivisten durchs Dorf getrieben wird.

Gott hat uns den Verstand gegeben, aber nicht verboten ihn zu benutzen!!!

 

Zur Rechnung :

Vom IPCC und allen Klimaforschern ist wohl uneingeschränkt anerkannt, dass eine durch anthropogen emittierte Treibhausgase verursachte Erwärmung global beschrieben werden kann als:

ΔTheute = f*ln(CO2(heute)/CO2(vorindustriell)

Dabei bedeutet der Klammerausdruck jeweils die genannten CO2-Konzentrationen in der Atmosphäre. ΔTheute ist dann die zu erwartende Temperaturerhöhung im Vergleich zur vorindustriellen Zeit.

ln ist der natürliche Logarithmus, auf jedem Taschenrechner per Tastendruck auszurechnen. Der natürliche Logarithmus ist der Tatsache geschuldet, dass jedes emittierte CO2-Molekül eine schwächere Treibhauswirkung hat als das vorhergehende.

f ist ein Verstärkungsfaktor, der beschreibt, welche Wirkung welche Konzentration von CO2 in der Atmosphäre auf die globale Temperatur hat. Er ist festgelegt durch die sogenannte Klima-Sensitivität ΔTSensitivität von CO2 in der Atmosphäre bei Verdopplung der Konzentration. Für die transiente Sensitivität, die zeitgleich mit der Emission wirkt, gibt das IPCC einen Bereich von ΔTSensitivität = 1,5-4,5 °C an. Sie beinhaltet zudem auch alle durch eine Erwärmung zusätzlich von anderen Treibhausgasen z. B. Wasserdampf oder durch Wolken hervorgerufenen Verstärkungen oder Abschwächungen.

Der Faktor f  berechnet sich aus der Sensitivität und durch Einsetzen der Verdopplung der Konzentration zu

f = ΔTSensitivität/ln (2)

RL

Als PDF COP 21 Im Widerspruch zur eigenen Vereinbarung

Filed under: Klima, Klima und Umwelt, Meine Kommentare, Temperaturanomalie, Wissenschaft, , , , , , , , , ,

Messungen und Klimamodelle – eine überraschende Darstellung der Diskrepanz

Dr. John Christy von der Universität in Huntsville, Alabama (UAH), hat den wachsenden Unterschied zwischen den Voraussagen der Klimamodelle und den gemessenen Temperaturwerten in einer bisher mir nicht bekannten, sehr aussagekräftigen Weise dargestellt, (Abb. 1).

Der Vortrag von Christy zu diesem Thema fand am 08. Dezember 2015 vor dem Unterkomitee des Senatsausschusses für Raumfahrt, Wissenschaft und Wettbewerb des Repräsentantenhauses der Vereinigten Staaten von Amerika (Senate Subcommittee on Space, Science, and Competitiveness Committee) statt.

Christy

Abb. 1: Gemessene Temperatur-Daten aus Ballonaufstiegen und Satelliten im Vergleich zu Klimamodellen in der mittleren Troposphäre

Quelle:

http://judithcurry.com/2015/12/17/climate-models-versus-climate-reality/

Üblicherweise werden die Klimamodelle mit den gemessenen Temperaturen an der Erdoberfläche (Thermometern) oder der unteren Troposphäre (Satelliten, Ballonaufstiege) verglichen (Abb. 2).

rss und uah vergleich mit Modellen bis nov 2015

Abb. 2: Vergleich Klimamodelle gegen Satellitenmessungen RSS und UAH in der unteren Troposphäre

Quelle:

http://wattsupwiththat.com/2015/12/04/the-robust-pause-resists-a-robust-el-nio-still-no-global-warming-at-all-for-18-years-9-months/

Auch hier sieht man eine stetig wachsende Differenz der gemessenen zu den Modelldaten.

Christy hat nun die Vorhersage der Klimamodelle für die mittlere Troposphäre mit gemessenen Temperaturen in diesem Bereich verglichen (Abb. 1).

Alle 2 Tage steigen Wetterballone auf und messen von der Erdoberfläche bis ca. 15 km Höhe Temperatur, Feuchtigkeit, Luftdruck, Windgeschwindigkeit als Grundlage für die Wettermodelle für die Wettervorhersage weltweit.

Vier unterschiedliche Analysen der Temperaturdaten der Ballonaufstiege sind mit den blauen Punkten der Abb. 1 zusammengefasst.

Ebenso werden die Temperaturen der mittleren Troposphäre von Satelliten aufgenommen. Es gibt zwei globale Datenanalysen dieser Satellitenmessungen, University of Alabama, UAH, und Remote Sensing System, RSS. Beide Datenanalysen stimmen sehr gut überein. Die grünen Quadrate geben diese Temperaturmessungen an.

Ballondaten und Satellitendaten sind voneinander komplett unabhängige Messungen.

Die rote Linie (Abb. 1) repräsentiert das Fünf-Jahresmittel der 102 Computermodelle im IPCC Bericht von 2013, für die in der mittleren Troposphäre Werte vorhanden sind.

Wie der Vergleich zeigt, liegen die Klimamodelle total neben den Messwerten.

Die Modelle liegen 2015 bereits um einen Faktor drei zu hoch!!!

Auf diesen Klimamodellen beruht der Klimaalarm und die ganze alarmistische Klimapolitik – sieht schlecht dafür aus!!!!!

Bin gespannt, wie die Klimaalarmisten auf diese Tatsache reagieren.

Wahrscheinlich wird sie totgeschwiegen.

Im Grunde zeigt die Darstellung von Christy auch den fehlenden Hotspot in den gemessenen Temperaturwerten der mittleren Troposphäre auf, der ebenfalls mehr oder weniger totgeschwiegen wird.

(siehe hier)

RL

Filed under: Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , , , ,

Paris Übereinkommen COP21: 1000 Milliarden $ für 0,05 Grad!?

DSC_0903Man ist wenig geneigt zu glauben, dass man ausgehandelt hat, die Entwicklungsländer zu bewegen für 100 Milliarden $ pro Jahr die Pariser Übereinkunft zu unterschreiben, damit im Endeffekt eine globale Temperaturerniedrigung von 0,05 °C erreicht wird, gegenüber einem Zustand „Busines as Usual“, UNEP Emission Gap Report.

http://www.unep.org/publications/ebooks/emissionsgapreport2014/portals/50268/pdf/Appendix_2B.pdf

Diese Zahlung sollen die Entwickelten Länder ab 2020 zunächst bis 2030 für die Entwicklungsländer bereitstellen, danach sollen es mehr werden.

1 Billion, 1000 Milliarden €!!!!

Nun, dafür wird man hoffentlich das Klima, die Welt, retten können, denn abgesehen von Mitteleuropa würden ansonsten die Menschen überall verbrennen laut Prof. Schellnhuber, Leiter des PIK (Potsdamer Institut für Klimafolgenforschung).

Bemerkung: Man könnte auf die Idee kommen, ich hätte eine Phobie gegen das PIK. Die häufige Zitierung liegt daran, dass das PIK sich in Deutschland zum Wortführer des alarmistischen Klimawandels gemacht hat. Dies ohne Rücksicht auf wissenschaftliche Integrität.

Da gemäß Klimaübereinkunft jetzt alles klar ist – von einer weiteren Entwicklung des wissenschaftlichen Standes bei der Klimaforschung ist keine Rede – benötigt man auch keine Klimafolgenforschung mehr, kann also auch auf das PIK verzichten. Ob man dies dort auch so sieht?

Zurück:

Was bekommt man nun für sein Geld?

Die Emission des Treibhausgases soll reduziert werden, nach Geschmack und Willen der einzelnen Nationen. Dies nennt man Intended National Determined Contribution (INDC).

Christiana Figueres, Generalsekretärin der Klimarahmenkonvention der UN, hat nun die von ihrer Institution berechneten Werte bekanntgegeben, die durch Einsparung an Emissionen der bis Oktober von den einzelnen Nationen eingereichten INCDs erreicht werden. Dies sind 33 Gt CO2 bzw. eine Reduzierung von 4,2 pppmV in der Atmosphäre, falls die ganze Emission auch dort bleibt. Heute werden allerdings etwa 50% wieder von Ozeanen und Landbedeckung aufgenommen.

Damit kann man mit einfachen Überlegungen, den Temperatureffekt berechnen, um den die global gemittelte Temperatur niedriger ausfallen wird als bei “Business as Usual“ (siehe mein Artikel über die Sensitivität von CO

https://rlrational.wordpress.com/2015/12/16/sensitivitaet-von-co2-cop21-paris-1000-milliarden-e-spende-an-entwicklungslaender-fuer-globale-temperaturerniedrigung-von-005-c/ )

Das MIT (Massachusetts Institute of Technology), eine der Elite Universitäten der USA, hat nun mit aufwendigen Modellen berechnet, dass man unter der Voraussetzung, dass die genannten Einsparungen bis 2100 eingehalten werden, 0,2 °C an globaler Erwärmung einspart.

http://globalchange.mit.edu/research/publications/other/special/2015Outlook

Björn Lomborg, Professor an der Kopenhagener Business School, kommt mit einem anderen Modell zu einem ähnlichen Ergebnis: 0,17 °C.

http://wattsupwiththat.com/2015/11/10/lomborg-paris-climate-pact-will-reduce-temperature-increase-by-the-end-of-the-century-by-a-whopping-0-05c/

Lomborg gibt auch einen Wert für die Temperaturerniedrigung durch die INDCs bis 2030 an.

Diese beträgt 0,05 °C.

Bis dahin also eine Spende von 1000 Milliarden $ der Entwickelten Länder an die unterentwickelten, um die CO2 Emissionen zu verringern.

Dabei sind die Aufwendungen der einzelnen Entwickelten Länder für die internen Kosten der Reduktionsmaßnahmen nicht eingerechnet.

Aber es bestätigt die Ausführung von Ottmar Edenhofer (schon wieder PIK), dass es nicht um Klima geht, sondern um Politik und Umverteilung des Reichtums der Entwickelten Länder.

Das ist ein Geschäft!! Da können einem wirklich die Tränen kommen, wie sie nach Abschluss der Pariser Übereinkunft reichlich flossen.

RL

 

Filed under: Klima, Klima und Umwelt, Meine Kommentare, Temperaturanomalie, Wissenschaft, , , , , , , , , , ,