RL-Rational

Gott hat uns den Verstand gegeben, aber nicht verboten ihn zu benutzen!

Der Golfstrom (AMOC) versiegt bald! – Wirklich?

Man wird immer wieder überrascht, auch wenn man sich seit über 20 Jahren intensiv mit dem Klimawandel beschäftigt hat.

Bisher waren Kipp-Punkte im Klimageschehen als unwahrscheinlich oder zumindest nicht in nächster Zukunft von einigen Klimaforschern angekündigt worden.

Dazu gehörte auch der Kipp-Punkt der Atlantischen Oszillation (AMOC Atlantic Meridional Overturning Circuit, siehe Abbildung 1). Ein Teil dieser Meeresströmung bei uns im Norden ist auch als Golfstrom bekannt und beschert uns das relativ milde Klima. Ein Abebben desselben würde unser Klima extrem beeinflussen und zu erheblichen niedrigeren mittleren Temperaturen bei uns in der Größenordnung um -10° führen.

Abbildung 1 AMOC (rote Linie nach Norden, Europa)

https://science.nasa.gov/earth/earth-atmosphere/slowdown-of-the-motion-of-the-ocean

Der „Golfstrom“ wird erhalten durch das sehr salzhaltige Wasser an der Oberfläche, das beim Abkühlen im Norden noch einen höheren Salzgehalt erhält und dann auf Grund des höheren Gewichts als das darunter liegende Tiefenwasser absinkt. Dieses kalte Wasser fließt dann zurück nach Süden und erhält den Kreislauf.

Durch Süßwasser Einträge durch im wesentlichen Abschmelzen des Eisschildes Grönlands, so ist die Meinung, wird der Salzgehalt verdünnt bis im Extremfall der AMOC unterbrochen wird!

Im Spiegel Online vom 10.02.2024 (ähnliches auch im Guardian und einer Vielzahl anderer Medien) steht:

Mithilfe komplexer und teurer Computersysteme hätten die Wissenschaftler erstmals ein Frühwarnsignal entwickelt, heißt es in den Berichten, um einen möglichen Zusammenbruch dieses Systems zu erkennen. Und: Es gebe bereits Anzeichen dafür, dass es genau dazu in kürzerer Zeit kommen werde.

Unklar ist noch der genaue Zeitpunkt. Aber wir können zumindest sagen, dass wir uns auf den Kipppunkt des Klimawandels zubewegen, wird Hauptautor René van Westen, Meeresforscher an der Universität Utrecht, zitiert. Was uns überrascht hat, war die Geschwindigkeit, mit der der Umschwung eintritt, sagt er. Es wird verheerend sein.“  

Im Fokus online vom 14.02.2024 steht: „Ein neues Klimamodell sagt voraus, dass der Klimawandel schon bald zum Zusammenbruch bestimmter Meeresströmungen im Atlantik führen könnte. Niederländische Forscher haben in diesem Zusammenhang die Auswirkungen der globalen Erwärmung auf die Atlantische Meridionale Umwälzströmung (AMOC) untersucht.“

Diese Aussage hat mich nun wirklich sehr überrascht! Aber was soll man hier zunächst entgegenhalten? Es waren schließlich Berechnungen durch Modelle mit „komplexen und teuren Computersystemen“.

Wenn dann noch ein bekannter Klimaforscher vom Potsdamer Institut für Klimafolgenforschung dazu sagt, diese Veröffentlichung ist ein großer Fortschritt (gleicher Artikel im Spiegel), dann wird es schwierig, dem Ergebnis etwas entgegenzuhalten:

Stefan Rahmstorf, physikalischer Ozeanograf an der Universität Potsdam in Deutschland, der nicht an der Studie beteiligt war, bezeichnete die Forschungsergebnisse als großen Fortschritt. » Sie bestätigt, dass die AMOC einen Kipppunkt hat, über den hinaus sie zusammenbricht, wenn der Nordatlantik mit Süßwasser verdünnt wird «, bei CNN zitiert. “

Frühere Studien, in denen der Kipppunkt der AMOC gefunden wurde, hätten viel einfachere Modelle verwendet, sagte Rahmstorf. Dies habe einige Wissenschaftler zu der Hoffnung veranlasst, dass dieser Kipppunkt in komplexeren Modellen nicht gefunden werden könnte. Die neue Studie aus den Niederlanden mache diese Hoffnungen zunichte.“

Dieser Artikel sollte uns alle wieder einmal gewaltig ängstigen, damit wir ja nicht am Alarmistische Klimawandel zweifeln.

Nun wollte ich es doch nicht so einfach akzeptieren, und das machen, was ich immer bei dieser Art Alarmistischen Artikeln mache, ich frage mich, gibt es hierzu Messungen, die diese Modelle bestätigen und vor Allem unter welchen Voraussetzungen wurden die Modelle berechnet, welche Parameter wurden eingesetzt.

Abbildung 2: Messung der AMOC bei 26 Grad Nord in Sv=10^6 m^3 / sec als Funktion der Zeit von 2004 bis 2022

Zunächst einmal: Aussagekräftige Messungen zur Unterstützung der Ergebnisse dieser neuen Veröffentlichung gibt es nicht!! Abbildung 2! Offensichtlich gab es seit 2010 keine Abnahme dieser Meeresströmung.

Der Parameter im Modell für die Bestimmung des Kipping Punktes war die Eintragung der Menge an Süßwasser in den Atlantik in der nördlichen Hemisphäre, im Wesentlichen durch hypothetisch angenommenes Schmelzwasser pro Jahr des Grönländischen Eisschildes, ohne weitere Klimabetrachtungen.

Bei diesen Überlegungen bin ich im Internet auf den Artikel von Willis Eschenbach gestoßen, der eine überzeugende, leicht satirische Abhandlung geschrieben hat, die ich gerne aufgenommen habe.

(https://wattsupwiththat.com/2024/02/11/tipping-is-optional/)

Im Folgenden gebe ich seine Überlegungen, denen ich mich anschließe, hier wieder.

Beginnen wir mit der Definition der Einheit Sverdrup für Volumenströme bei Ozeanströmungen

1 Sverdrup = 1 Sv = 10^6 m^3 / sec = 1 Million Kubikmeter pro Sekunde.

Sie ist die im Folgenden gebrauchte Einheit!

Als nächstes analysieren wir in der nächsten Abbildung 3 aus der Veröffentlichung von Van Westen et al deren Ergebnis.

Abbildung 3: Volumentransport der AMOC als Funktion der Modelljahre (Abszisse unten) und Eintrag an Süßwasser (Abszisse oben) in Sverdrup Sv

Man sieht, dass im Modelljahr 1758, entspricht gemäß unserer Zeitrechnung

AD 1758 + 2024 = AD 3782,

ein Kipppunkt erreicht wird, ab dem dann innerhalb kurzer Zeit von ca. 50 Jahren der AMOC zusammenbricht und versiegt.

Soweit so richtig und keine guten Zukunftsperspektiven. Immerhin, ein Zusammenbruch nicht in den nächsten Jahrzehnten wie Spiegel und die anderen Zeitschriften behaupten, sondern in 17 Jahrhunderten!

Hat denn keiner der Redakteure den Artikel in ScienceAdvances überhaupt gelesen oder verstanden!?

Aber wir sind mit der Berichterstattung noch nicht fertig!

Wie realistisch ist denn der Parameter des Süßwasser Eintrags in den Modellrechnungen!?

Nun eine einfache Überlegung und Rechnung zeigt:

In den 1758 Modelljahren bis zum Kipppunkt wurden von 0,1 Sv zu Beginn gesteigert auf

ca. 0,56 Sv, also im Mittel die Hälfte 0,28 Sv Süßwasser im AMOC eingetragen, also

0,28*10^6 m^3/sec über alle 1758 Modelljahre.

Das ergibt also, da 1 Jahr 31,536 Millionen Sekunden hat, die gewaltige Summe von

0,28*10^6/sec*31,536*10^6 sec*1758m^3*10^ (-9) km^3/m^3

Das sind 15,523 Millionen km^3 an Süßwasser Eintrag!!

Womit könnte man das vergleichen?

Das Süßwasser muss im Wesentlichen durch das Schmelzwasser des grönländischen Eisschildes kommen. Dieses beträgt 2,8 Millionen km^3!!

Die Autoren haben also das 5 1/2 – fache an Süßwasser Eintrag in ihren Modellen angenommen, um zu ihrem Ergebnis zu kommen! Mehr als überhaupt vorhanden ist!!!

Das nordpolare Meereis beträgt übrigens nur 23.000 km^3, kann also auch nicht merklich zum Süßwasser Eintrag beitragen.

Und das alles sollen die Autoren oder die Wissenschaftler – auch die vom PIK – oder die Wissenschaftsredakteure nicht bemerkt oder schlimmer nicht verstanden haben!

Aber Hauptsache man hat wieder eine Alarmistische Klimameldung!

Artikel als PDF:

Filed under: Klima, Meeresspiegel, Wissenschaft, , , , ,

Klimawandel – Eine rationale Bewertung

Es ist üblich jegliche Wetterphänomene von zu kalt, zu warm, zu trocken, zu nass der bisher eingetretenen Klimaveränderung seit der Kleinen Eiszeit ab 1850 der anthropogenen, also der vom Menschen erzeugten Emission von Kohlendioxid zuzuschreiben.

Der trockene heiße Sommer 2022 und das fürchterlichen Hochwasser 2021 mit den dramatischen Zerstörungen und den mehr als 150 Toten in Deutschland tragen dazu bei, hierfür alleine den menschengemachten anthropogenen Klimawandel verantwortlich zu machen. Das ist angenehm, um anderweitige Versäumnisse im menschlichen Verhalten zu kaschieren, aber so einfach ist es denn doch nicht.

Mir ist natürlich bewusst, dass ich mich mit diesem Artikel einem gewaltigen Shitstorm im Internet, den Klimaalarmisten unter den Klimatologen sowie deren Anhänger aussetze.

Aber es ist ja derzeit noch nicht verboten, die sicher bisher vorhandenen klimatischen Veränderungen, vor Allem jedoch den zukünftig durch die Emission von CO2 zu erwartenden Klimawandel einer rationalen skeptischen naturwissenschaftlichen Bewertung zu unterziehen.

Unser Klima verändert sich seit es die Erde gibt. Normalerweise ist dies im Gegensatz zum Wetter nicht der Rede wert.

Klimawandel (Climate Change) ist heute hingegen in aller Munde: Gemeint ist ein vom Menschen im Wesentlichen durch den Verbrauch fossiler Brennstoffe hervorgerufener Klimawandel. Hierzu hat natürlich der heiße Sommer 2018 und 2022 beigetragen, der allerdings vom Sommer 2003 übertroffen wurde, sowie die Hochwasserkatastrophe 2021. Auch zuvor noch und zukünftig wird es heiße und auch heißere, trockenere und auch nassere Sommer geben. Auf der Erde wechseln sich seit Millionen Jahren Eiszeitalter und Warmzeitalter ab. Von Eiszeitalter spricht man, wenn wenigstens ein Erdpol mit Eis überzogen ist. Wir befinden uns also in einem Eiszeitalter. Innerhalb dessen gibt es Warm- und Eiszeiten, die sich in den letzten 800.000 Jahren mit einer Frequenz von 100.00 Jahren abwechselten (Milankovic Zyklen). Dabei betrugen die Warmzeiten innerhalb einer Periode nur 10.000-20.000 Jahren. Wir befinden uns seit 10.000 Jahren in der Holozän-Warmzeit.

Aus Eisbohrkernen auf Grönland (GISP 2) konnte man die Temperaturänderungen seit der letzten Eiszeit, die vor 10.000 Jahren zu Ende ging, nachvollziehen. Das Ergebnis ist in folgender Abbildung zu sehen. Im mittelalterlichen Klimaoptimum war es etwa so warm wie heute, dagegen wärmer im römischen Klimaoptimum oder gar im minoischen oder im Klima Optimum des Holozän vor 7.500 Jahren. Das Klima ist bei all diesen dramatischen Änderungen nicht gekippt.

Natürlich hat sich das Klima seit der Kleinen Eiszeit, die etwa 1850 zu Ende ging, geändert! Es ist um 1,1 Grad C wärmer geworden. Naturkatastrophen wie 2021 erlebte, könnten in Zukunft durchaus häufiger vorkommen. Aber aus diesem Jahrhundertereignis, die letzten dramatischen Überschwemmungen dieser Art an der Ahr fanden in Deutschland 1804 und 1910 statt, jetzt definitiv daraus zu folgern, dass derartige Ereignisse zum normalen Sommer gehören, ist zweifellos verfrüht und nicht begründet. Klima ist laut Definition die statistischen Wetterereignisse in einem Zeitraum von mindestens 30 Jahren!

https://de.wikipedia.org/wiki/Liste_der_Hochwasserereignisse_an_der_Ahr

Welchen Anteil natürliche Prozesse im Klima und welche menschlichen Einflusses sind, ist die Diskussion unter den Klimawissenschaftlern. Allgemein anerkannt wird, dass zwischen 50% bis 80% des Temperaturanstiegs von 1,1 Grad C anthropogen, also vom Menschen durch Treibhausgasemission von Kohlendioxid hervorgerufen wurde, der andere Anteil natürlichen Ursprungs ist. Klar ist, dass der Anstieg von 0,5 °C bis 1940 im Wesentlichen nicht durch menschliche Aktivitäten, Emission von CO2 durch Nutzung fossiler Brennstoffe, erzeugt worden sein kann. Genau so wenig wie die Abkühlung von 1950 bis 1979 durch den Anstieg von CO2 verantwortlich sein konnte. Damals haben die Klimatologen eine neue Eiszeit vorausgesagt. Auch die relative Stabilität der globalen Temperatur zwischen 2000 und 2015 erzeugte bei den Klimatologen Verwirrung.

Durch die Emission von CO2 wird die Konzentration des Treibhausgases CO2 in der Atmosphäre erhöht, die Erde wird wärmer, mehr Wasserdampf steigt in die Atmosphäre, der als stärkeres Treibhausgas den Effekt des CO2 Anstieges vervielfachen könnte. Atmosphärischer Treibhauseffekt eben!

Weiterlesen: PDF

Klicke, um auf klimawandel-eine-rationale-bewertung.pdf zuzugreifen

Filed under: CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , ,

CO2 Grenzwert in der Atmosphäre in Abhängigkeit von seiner Lebensdauer

Dr. Rainer Link, Physiker

Das von den Menschen anthropogen in die Atmosphäre im Wesentlichen durch Verbrennung fossiler Rohstoffe emittierte CO2 wird nach einer bestimmten Zeit durch Vegetation und Ozeane wiederaufgenommen. Die typische Angabe für die Verweilzeit ist die Lebensdauer, die Zeit in der die Konzentration um einen Faktor 1/e=0,3679 abgenommen hat.

Die Veränderung der Konzentration von CO2 wird beschrieben einmal durch diese Abnahme, die wie bei all diesen Vorgängen exponentiell verläuft und zum anderen der Emission pro Zeiteinheit in die Atmosphäre.

 dC(t)/dt = – C(t)/tau + dE/dt                                                                    (1)

Dabei ist tau die Lebensdauer von CO2 in der Atmosphäre und C(t) die von den Menschen (anthropogen) hervorgerufene zeitabhängige Konzentration. dC(t)/dt ist ihre zeitliche Veränderung.

-C(t)/tau ist die Abnahme der anthropogen verursachten Konzentrationsänderung von CO2 und dE(t)/dt der pro Zeiteinheit in die Atmosphäre emittierte Betrag.

Es werden hier nur die durch den Menschen verursachten Anteile berücksichtigt, die sich zusätzlich zur vorindustriellen Konzentration in Höhe von ca. 280 ppmV CO2 addieren. Dabei ist davonausgegangen, dass die vorindustrielle Konzentration einem Gleichgewichtszustand entsprach, in dem der natürliche Austausch von CO2 in der Atmosphäre im Wesentlichen mit der Vegetation und den Ozeanen erfolgte.

Die Lösung der Differentialgleichung (1) wird vereinfacht, wenn man annimmt,

dass die anthropogene Emission pro Zeiteinheit konstant gleich dE/dt=Ec ist, ebenso wie die Lebensdauer tau. Natürlich ist dies eine Näherung, die jedoch das Verhalten der Konzentration und wie man sehen wird, den Grenzwert qualitativ gut beschreibt.

Die Lösung der Gleichung (1) lautet:

C(t)=tau*Ec*(1-e-t/tau)                                                                                (2)

Die Emission Ec(t) von CO2 in die Atmosphäre beträgt seit Jahren 4,4 ppmV/Jahr.

Das IPCC gibt in seinem fünften Sachstandsbericht Werte für tau zwischen 30 und 100 Jahren an.

Der wahrscheinlichste Wert für Tau beträgt 50 Jahre.

In den folgenden Graphiken ist die Situation C(t) in ppmV als Funktion der Zeit t in Jahren ab 2020 für die Werte Ec=4,4 ppmV/Jahr, tau =50 und 80 Jahre dargestellt, ausgehend von der Konzentration 400 ppmV, die bis 2020 gemessen wurde.

Der zugehörige Grenzwert beträgt 500 ppmV (630 ppmV) an Konzentration von CO2 in der Atmosphäre, wenn die Lebensdauer bei 50 (80) Jahren bleibt und die anthropogene Emission von 4,4 ppmV/Jahr nicht vergrößert wird.

Dieser Zustand 500 (630) ppmV wird nicht einmal erreicht. Die fossilen Reserven an Brennstoffen betragen nur etwa 1.250 Gt Kohlenstoff, die umgerechnet in ppmV CO2 Emission in 133 Jahren bei 4,4 ppmV/Jahr verbraucht sind.

Umrechnung: 1 ppmV CO2 entspricht 2,131 Gt C

Entsprechende Grenzwerte lassen sich mit einer einfachen Excel Tabelle auch für andere Lebensdauern z. B. tau = 30 und 80 Jahre berechnen.

Lebensdauer in Jahren305080
Ca. Grenzwert in ppmV420500630

In der nächsten Tabelle wird für den wahrscheinlichsten Wert der Lebensdauer von 50 Jahren mit dem Grenzwert 500 ppmV, gemäß der von allen Klimawissenschaftlern anerkannten Gleichung (3) für die global gemittelte Temperaturänderung dT als Funktion der Konzentration von CO2 in der Atmosphäre angegeben. Den bei Verdopplung der Konzentration erreichten Temperaturwert nennt man die Sensitivität von CO2. Damit können die damit verbundenen heutigen Temperaturwerte und die bei Erreichen des Grenzwertes einfach berechnet.

dT=f*ln(C(t) /280)                                                                                     (3)

Dazu wird zunächst der Wert für f aus der heutigen globalen Temperaturänderung dT(2018) seit vorindustriellem Wert und der heutigen Konzentration C(2018) bestimmt. Dabei beinhaltet f sowohl den direkten Einfluss von CO2 in der Atmosphäre als auch alle Rückkopplungen durch Wasserdampf etc.

Die heutige globale Temperaturänderung (Temperaturanomalie) beträgt gemessen 1,16 °C. Man geht jedoch davon aus, dass nur ca. 50 % durch anthropogen emittiertes CO2 verursacht wurden, 50% natürlichen Ursprungs sind. In der Tabelle sind die folgenden Werte für 0,58, 0,8 und 1,16 °C durch CO2 verursacht angegeben

Damit erhält man die Sensitivität für CO2 bei Verdopplung seiner Konzentration von 280 auf 560 ppmV.

dT (CO2 – Sensitivität) = f * ln(560/280))

Ebenso ergibt sich die Temperaturänderung, die von 280 ppmV bis zum Erreichen des Grenzwertes zu erwarten ist.

dT(Grenzwert) = f* ln(Grenzwert/280)

dT(t=2018)/°C0,580,81,16
C(t=2018)/ppmV400400400
f/°C1,632,243,25
CO2 –Sensitivität/°C1,131,552,25
dT(Grenzwert)/°C0,941,31,88
dT(2118)- dT(2018)/°C0,360,50,72

Die global gemittelte Temperaturerhöhung bleibt bis zum Erreichen des Grenzwertes von 500 ppmV bei einer angenommenen Lebensdauer von 50 Jahren allemal unter der im Übereinkommen von Paris 2015 (COP21) angestrebten 2°C Ziel – selbst wenn man annimmt, dass die bis heute gemessenen 1,16 °C nur auf die Erhöhung der CO2 Konzentration zurückzuführen ist.

Selbst das IPCC geht davon aus, dass mindestens 30% der Temperaturerhöhung natürlichen Ursprungs sein müssen (ergibt ca. 0,8°C).

Damit bleibt man auch beim weiter so emittieren unter dem 1,5° C Ziel von COP24 in Katowice 2018.

Rechnung:

dC(t)/dt = – C(t)/tau + dE/dt                                                            (1)

C(t): Anthropogen erzeugte CO2 Konzentration in der Atmosphäre

C(t=0) = 0

Lebensdauer anthropogenes CO2 in der Atmosphäre tau = const. 

Anthropogene CO2 Emission dE(t)/dt = Ec =const.

Gleichgewichtskonzentration vorindustriell Ceq(t) = 280 ppmV = const.

Gleichung (1) wird zu:

dC(t)/dt = – (C(t) – tau* Ec)/tau

Einführung einer neuen Variablen:

A(t) = C(t)-tau*Ec

Mit:

dA(t)/dt = dC(t)/dt

Folgt für Gleichung (1)

dA(t)/A(t) = -dt/tau

Integriert von 0 bis t ergibt:

ln[(C(t) – tau* Ec)/(C(t=0) – tau*Ec)] = – t/tau

Exponiert mit natürlichem Logarithmus e^lnx=x

C(t) = tau*Ec*[(1-e^(-(t/tau))]

qed

PDF Version

Filed under: CO2 Absorption, CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Temperaturmessung, Wissenschaft, , , , ,

CO2 Grenzwert in der Atmosphäre in Abhängigkeit von seiner Lebensdauer

Das von den Menschen anthropogen in die Atmosphäre im Wesentlichen durch Verbrennung fossiler Rohstoffe emittierte CO2 wird nach einer bestimmten Zeit durch Vegetation und Ozeane wieder aufgenommen. Die typische Angabe für die Verweilzeit ist die Lebensdauer, die Zeit in der die Konzentration um einen Faktor 1/e=0,3679 abgenommen hat.

Die Veränderung der Konzentration von CO2 wird beschrieben einmal durch diese Abnahme, die wie bei all diesen Vorgängen exponentiell verläuft und zum anderen der anthropogenen Emission pro Zeiteinheit in die Atmosphäre.

dC(t)/dt = – C(t)/tau +dE/dt                                                              (1)

Dabei ist tau die Lebensdauer von CO2 in der Atmosphäre und C(t) die von den Menschen (anthropogen) hervorgerufene zeitabhängige Konzentration. dC(t)/dt ist ihre zeitliche Veränderung.

-C(t)/tau ist die Abnahme der anthropogen verursachten Konzentrationsänderung von CO2 und dE(t)/dt der pro Zeiteinheit in die Atmosphäre emittierte Betrag.

Es werden hier nur die durch den Menschen verursachten Anteile berücksichtigt, die sich zusätzlich zur vorindustriellen Konzentration in Höhe von ca. 280 ppmV CO2 addieren. Dabei ist davon ausgegangen, dass die vorindustrielle Konzentration einem Gleichgewichtszustand entsprach, in dem der natürliche Austausch von CO2 in der Atmosphäre im Wesentlichen mit der Vegetation und den Ozeanen erfolgte.

Die Lösung der Differentialgleichung (1) wird vereinfacht, wenn man annimmt,

dass die anthropogene Emission pro Zeiteinheit konstant gleich dE/dt=Ec ist, ebenso wie die Lebensdauer tau. Natürlich ist dies eine Näherung, die jedoch das Verhalten der Konzentration und wie man sehen wird, den Grenzwert qualitativ gut beschreibt.

Die Lösung der Gleichung (1) lautet:

C(t)=tau*Ec(1-e-t/tau)                                                                        (2)

 

Die Emission Ec(t) von CO2 in die Atmosphäre beträgt seit Jahren 4,4 ppmV/Jahr.

Das IPCC gibt in seinem fünften Sachstandsbericht Werte für tau zwischen 30 und 100 Jahren an.

Der wahrscheinlichste Wert für Tau beträgt 50 Jahre.

In der folgenden Graphik ist die Situation C(t) in ppmV als Funktion der Zeit t in Einheiten der Lebensdauer tau für die Werte Ec=4,4 ppmV/Jahr, tau =50 Jahre dargestellt, ausgehend von der Konzentration 400 ppmV, die bis 2018 gemessen wurde.

Der zugehörige Grenzwert beträgt 500 ppmV an Konzentration von CO2, wenn die Lebensdauer bei 50 Jahren bleibt und die anthropogene Emission von 4,4 ppmV/Jahr nicht vergrößert wird.

Dieser Zustand 500 ppmV wird voraussichtlich nicht einmal erreicht. Die fossilen Reserven an Brennstoffen betragen nur etwa 1250 Gt Kohlenstoff, die allemal bis zur Erreichung des Grenzwertes verbraucht sind.

Entsprechende Grenzwerte lassen sich mit einer einfachen Excel Tabelle auch für andere Lebensdauern z. B. tau = 30 und 80 Jahre berechnen.

Lebensdauer in Jahren 30 50 80
Grenzwert in ppmV 420 500 630

 

Bei einer Lebensdauer von 80 Jahren wird der Grenzwert von 630 ppmV, auf Grund der endlichen fossilen Reserven nicht erreicht werden können.

In der nächsten Tabelle wird für den wahrscheinlichsten Wert der Lebensdauer von 50 Jahren mit dem Grenzwert 500 ppmV, gemäß der von allen Klimawissenschaftlern anerkannten Gleichung (3) für die global gemittelte Temperaturänderung dT als Funktion der Konzentration von CO2 in der Atmosphäre angegeben. Den bei Verdopplung der Konzentration erreichten Temperaturwert nennt man die Sensitivität von CO2. Damit können die damit verbundenen heutigen Temperaturwerte und die bei Erreichen des Grenzwertes einfach berechnet.

dT=f*ln((t) /280)                                                                                (3)

Dazu wird zunächst der Wert für f aus der heutigen globalen Temperaturänderung dT(2018) seit vorindustriellem Wert und der heutigen Konzentration C(2018) bestimmt. Der so ermittelte Wert für f beinhaltet auch alle Rückkopplungen, die durch CO2 erfolgten, wie die Wasserdampfverstärkung und andere Veränderungen durch die Erhöhung der Co2 Konzentration.

Die heutige globale Temperaturänderung (Temperaturanomalie) beträgt gemessen 1,16 °C. Man geht jedoch davon aus (auch das IPCC), dass nur ca. 50% durch anthropogen emittiertes CO2 verursacht wurden, 50% natürlichen Ursprungs sind. In der Tabelle sind die folgenden Werte für 0,58, 0,8 und 1,16°C durch CO2 verursacht bei einer Lebensdauer von 50 Jahren angegeben.

Damit erhält man die Sensitivität für CO2 bei Verdopplung seiner Konzentration von 280 auf 560 ppmV.

dT (CO2 – Sensitivität) = f * ln(560/280))

Ebenso ergibt sich die Temperaturänderung, die von 280 ppmV bis zum Erreichen des Grenzwertes zu erwarten ist.

dT(Grenzwert) = f* ln(Grenzwert/280)

dT(t=2018)/°C 0,58 0,8 1,16
C(t=2018)/ppmV 400 400 400
f/°C 1,63 2,24 3,25
CO2 –Sensitivität/°C 1,13 1,55 2,25
dT(Grenzwert)/°C 0,94 1,3 1,88
dT(2118)- dT(2018)/°C 0,36 0,5 0,72

 

Die global gemittelte Temperaturerhöhung bleibt bis zum Erreichen des Grenzwertes von 500 ppmV bei einer angenommenen Lebensdauer von 50 Jahren allemal unter der im Übereinkommen von Paris 2015 (COP21) angestrebten 2°C Ziel – selbst wenn man annimmt, dass die bis heute gemessenen 1,16 °C nur auf die Erhöhung der CO2 Konzentration zurückzuführen ist.

Selbst das IPCC geht davon aus, dass mindestens 30% der Temperaturerhöhung natürlichen Ursprungs sein müssen (ergibt ca. 0,8°C).

Damit bleibt man auch bei weiter gleichbleibender Emission unter dem 1,5° C Ziel von COP24 in Katowice 2018.

PDF und Rechnung:

CO2 Grenzwert bei Berücksichtigung der Lebensdauer 190301

 

Filed under: CO2 Absorption, CO2 Emission, CO2 Konzentration, Klima, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , , , , , , , , ,

Die Deutsche Energiewende

In einem sehr umfangreichen, physikalisch und technisch korrekten Artikel, der dennoch auch für Nicht-Techniker leicht zu verstehen ist, hat Prof. Hans-Joachim Lüdecke die Wünsche, Grenzen und Möglichkeiten der Deutschen Energiewende zu den „Erneuerbaren“ Energien dargestellt.

https://www.eike-klima-energie.eu/2019/05/10/warum-die-energiewende-ein-totes-pferd-ist-und-der-spiegel-unsinn-schreibt/

(Bemerkung Rainer Link:

In diesem Zusammenhang möchte ich auf ein Essay von Prof. Fritz Vahrenholt in der Weltwoche hinweisen, das ebenso sehr lesenswert ist.

https://www.weltwoche.ch/ausgaben/2019-20/artikel-567117/das-4600-milliarden-fiasko-die-weltwoche-ausgabe-20-2019.html

Dieses Essay bezieht sich auf eine Studie „Energiesysteme der Zukunft“ der Union der Deutschen Akademien der Wissenschaften.

https://energiesysteme-zukunft.de/fileadmin/user–upload/Publikationen/pdf/ESYS–Analyse–Sektorkopplung.pdf

Unter anderem kann man hier nachlesen, dass z. B. eine CO2 Minderung um 85-90% bis 2050 in Deutschland die hübsche Summe von 4.500 Milliarden € kostet oder auf die deutschen Haushalte verteilt für jeden 320 €/Monat.

Für die Rettung der Erde sollte dies allerdings kein Thema sein, sofern nach der Deindustrialisierung Deutschlands noch genügend Menschen hinreichend viel verdienen.)

Zurück zum Artikel von Prof. Lüdecke. Die Abhandlung ist auf 10 Seiten in ebenso viele Kapitel aufgeteilt.

Ein Teil der Überschrift lautet: Warum die Energiewende ein totes Pferd ist…!

Das erinnert mich an den Spruch der Amerikanischen Indianer:

Wenn Du ein totes Pferd reitest, steig ab!

Nach den Ausführungen von Prof. Lüdecke, sollte man dies unbedingt befolgen, denn wie bekannt ist, gilt:

„It´s Physics, Stupid“

Oder frei übersetzt:

„Es ist eben Physik, Du Dummkopf“

Damit man nicht den ganzen Artikel lesen muss, obwohl es sich lohnt, habe ich in einer Zusammenfassung einige Kapitel der Arbeit in auszugsweisen Zitaten mit den entsprechenden Nummerierungen dargestellt.

 

  1. Die deutsche Energiewende

Die Bundesregierung plante ursprünglich, bis zum Jahr 2050 gegenüber 2008 den Stromverbrauch um 25% zu senken, den Anteil an erneuerbaren Energien am Bruttostromverbrauch auf 80% zu erhöhen, die Treibhausgasemissionen um 80 bis 95% zu verringern und die Zahl der Elektroautos auf 6 Millionen zu steigern…. Elektrische Energie machte 2017 etwa 1/6 der deutschen Primärenergie aus. ….Das Stromnetz selber ist kein Speichermedium. Ohne Speicherung muss Strom zum Zeitpunkt seiner Erzeugung sofort verbraucht werden.

Bemerkung Rainer Link:

Annalena Baerbock, Bundesvorsitzender der Partei „Die Grünen“, glaubt, die elektrische Energie wird in den Stromleitungen gespeichert!

It´sPhysics, Stupid!

Die Energiewende hat mit erheblichen Problemen zu kämpfen. Trotz im Jahre 2017 über 28.000 installierter Windturbinen, deren Nennleistung bereits alle ehemaligen deutschen Kernkraftwerke übertrifft, macht verbrauchter Windstrom dennoch nur etwa 3% der deutschen Primärenergie aus, Sonnenstrom und Strom aus Biomasse jeweils etwa 1%….

Deutschland hat heute die höchsten Strompreise Europas.

 

  1. Energie im Verlauf der Menschheitsgeschichte

…..

  1. Der entscheidende Begriff der Leistungsdichte

Der russische Eisbrecher Arktika wird von zwei kleinen Kernreaktoren an Bord mit einer Gesamtleistung von 55 MW angetrieben. Wollte man die Arktika mit Photovoltaik anstatt mit Uran betreiben, wären rechnerisch 5,5 Quadratkilometer Photovoltaik-Fläche erforderlich, die etwa 10 W Leistung pro m2 Solarpanelenfläche liefert. Mit Windstrom an Stelle von Uran wären 42 Windturbinen des Typs Enercon E 126 erforderlich, jede 198 m hoch und mit einer realen Leistung von 1,3 MW…. Die Frage nach den Gründen für den extrem hohen Aufwand der beide „Erneuerbaren“ Wind und Sonne für den Antrieb der Arktika beantwortet die Leistungsdichte

Leistungsdichte = Leistung / Fläche (1) oder

Leistung = Leistungsdichte x Fläche (2)

… Tabelle 1 zeigt Grobwerte von Leistungsdichten….

Tabelle 1: Leistungsdichten unterschiedlicher Methoden zur Erzeugung von elektrischem Strom, angegeben in W/m2 des Endprodukts  elektrische Energie unter Einbeziehung der jeweiligen Methoden-Wirkungsgrade.

…Neben der Leistungsdichte ist auch die Energiedichte als Energie pro Volumen oder pro Gewicht eine maßgebende Größe. Das Reichweiteproblem von Elektroautos wird mit ihr verständlich. Benzin hat nach Abzug der Wirkungsgradverluste eine Energiedichte von rund 4 kWh/kg, ein Lithium-Ionen- Akku dagegen von 0,18 kWh/kg. Ein Elektroauto muss daher grob das 4/0,18 = 22-fache Treibstoffgewicht eines Benzinautos mit sich führen. Da heute etwa 71% der Güter in Deutschland oft über weite Strecken und mit engen Zeitvorgaben auf der Straße transportiert werden, ist zumindest eine Umwandlung von LkW-Antrieben auf Strom unrealistisch. Hier sind nicht nur das zusätzlich zu transportierende Treibstoffgewicht in Form von Akkus sondern auch die langen Ladezeiten der Batterien die maßgeblichen Hinderungsgründe. Elektroautos sind nur für Innenstadt und Golfplatz sinnvoll.

 

  1. Die entscheidenden Nachteile zu kleiner Leistungsdichte

Bei zu kleiner Leistungsdichte sind sehr große Wirkflächen der betreffenden Methoden erforderlich. Dementsprechend steigt der Aufwand an Energie, Material und Kosten bei Bau und Betrieb, denn diese Wirkflächen müssen mit Technik zugebaut werden. Die folgenden Daten der Großwindanlage Enercon E 126 liefern ein stellvertretendes Beispiel: 198 m Gesamthöhe, überstrichene Propellerfläche 12470 m2 = 1,247 ha, Gewicht 3460 t plus 3500 t Stahlbetonfundament. Drei E 126 haben somit das Gesamtgewicht aller  300 Leopard2 – Panzer von je 68 t der deutschen Bundeswehr. Trotz 7,5 MW Nennleistung liefert die E 126 im bundesdeutschen Orts- und Jahres-Mittel aber nur 1,3 MW elektrische Leistung. Dies entspricht grob 7 Automotoren von je 200 kW.

…Neben der geringen Leistungsdichte des Windes gibt es weitere methodenspezifische Gründe für die erstaunlich geringe Leistungsausbeute aus Wind, die im Abschnitt 9. näher erläutert werden. Man müsste schon mehr als100 km Windturbinen  hintereinanderstellen, um die gleiche jahresgemittelte Leistung wie ein einziges großes Kohle- oder Kernkraftwerk zu erzielen. …..

 

  1. Der Erntefaktor als Maß für Energieeffizienz

Der Erntefaktor, englisch ERoEI (Energy Returned to Energy Invested), quantifiziert die bisherigen Ausführungen. Vereinfacht ausgedrückt ist er das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen.

…..

Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert, auf die sich die Aussagen des vorliegenden Beitrags stützen. Neben der Bedingung ERoEI > 1 gibt es noch die Forderung ERoEI > 7, denn unterhalb von 7 ist eine Methode volkswirtschaftlich nicht mehr sinnvoll….

Bild 2: Erntefaktoren für Methoden der Stromerzeugung gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern.

 

  1. Leistungsdichte bezogen auf Landschaftsfläche

Zur Angabe einer Leistungsdichte gehört die Spezifizierung der Fläche. Für Windturbinen im deutschen Jahres- und Ortsschnitt und ihre Installation in Windparks“ beträgt die Leistungsdichte bezogen auf Landschaftsfläche etwa 1 W/m2.… die zur heutigen Installation an Windrädern gehörige rechnerische Fläche entspricht etwa der Fläche Bayerns. In diesem Zusammenhang ist von Interesse, wie weit ein zukünftiger Windradausbau überhaupt noch gesetzlich zulässig ist. Die entscheidende Größe ist hier der minimale zulässige Abstand eines Windrads zur nächsten Wohnsiedlung. Windräder erzeugen Infraschall, dessen gesundheitsschädigende Wirkung durch wissenschaftliche Untersuchungen belegt ist. Die heute gründlichste Studie über gesundheitsschädliche Auswirkungen von Infraschall auf den Menschen wurde in Zusammenarbeit der Charité Berlin mit der Physikalisch Technischen Bundesanstalt PTT Braunschweig und zwei Hamburger Universitätskliniken erstellt. Die Quellenangaben dieser Studie liefern überdies einen guten Überblick zum heutigen wissenschaftlichen Kenntnisstand.

Wegen Infraschall ist inzwischen in Bayern der Mindestabstand 10 H vorgeschrieben, das bedeutet die zehnfache Gesamthöhe des betreffenden Windrads. Aus der Grafik Abb. 12 auf S. 38 einer Studie des Bundesumweltamts geht hervor, dass bei 2000 m Mindestabstand (dies entspricht 10 H bei 200 m hohen Windrädern) nur noch maximal 0,4% der bundesdeutschen Bodenfläche für den weiteren Windradausbau nutzbar ist. Ausgeschlossene Sondergebiete sind dabei nicht berücksichtig, so dass sich der reale Wert noch etwas verringert.

Der Ausbauplan der Bundesregierung für Windenergie erscheint daher unrealistisch.

 

  1. Die Fluktuation von Wind- und Sonnenstrom

Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist besser bekannt und wird bereits von den Medien thematisiert. Er ist seine Wetterabhängigkeit. Zufallsstrom kann ohne weitere Maßnahmen nicht in das Stromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund für Glättung sorgen würde, hat eine ausführliche VGB-Studie widerlegt. Das gemessene Minimum dieser Studie an geliefertem Windstrom beträgt nur 4% der europaweit installierten Windrad-Nennleistung. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zurVersorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nachheutigem Stand der Technik.“ Diese Backup-Systeme sind heute schnell reagierende Gaskraftwerke (GuD). Diskussionswürdige Stromspeicherlösungen sind nicht in Sicht. Man muss daher für Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, welches die Gesamtkosten dieser „Erneuerbaren“ zumindest verdoppelt…

 Man benötigt also für Windräder und Photovoltaik noch einmal etwa die gleiche Leistung an fossilen Ersatz-Kraftwerken, denn schließlich ist die Lücke zu füllen, wenn Wind und Sonne fehlen…

 

  1. Photovoltaik in Ländern starker Insolation

……..

 

  1. Weitere Gründe für die unzureichende Leistung von Wind und Sonne

…….

 

  1. Eine grundsätzliche Sicherheitsgrenze für Wetter-Fluktuationsstrom

Die bisher geschilderten technischen und wirtschaftlichen Begrenzungen für die „Erneuerbaren“ Wind und Sonne sind zwar prinzipiell keine unüberwindbaren Hürden für ihren weiteren Ausbau, falls man auf Kosten, Naturschutz, Landschaftsschutz und den Gesundheitsschutz von Windradanrainern (Infraschall) keine Rücksichten nimmt. Es existiert allerdings eine Grenze seitens der Netzsicherheit. Grund dafür sind Netzschwankungen auf Grund der unsicheren Stromerzeugung  durch die „Erneuerbaren“ im Bereich von Sekundenbruchteilen bis zu wenigen Sekunden, die zum Zusammenbruch des gesamten Netzes führen können.

…Auch eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW geht auf diese Zusammenhänge ein. Der erforderliche Anteil von Grundlastkraftwerken hängt von der aktuellen Netzstruktur und ferner davon ab, welches Blackout-Risiko man noch toleriert. Die vorgenannte Publikation gibt eine Mindestleistung von 20 GW für den Regelblock Deutschland an. Mit den momentan vorhandenen Grundlastkraftwerken wäre damit die erforderliche Sicherheit noch gegeben. Dies wird sich aber mit zunehmendem Windradausbau, dem gesetzlichen Abschalten weiterer Kernkraftwerke sowie durch die aktuell diskutierte Abschaltung von Kohlekraftwerken in Richtung größerer Instabilität und immer höherer Black-Out-Gefahr ändern.

 

Bemerkung Rainer Link:

Stunden, Tage oder gar wochenlanger Ausfall des Stromes (Black Out) in Regionen Deutschlands ergibt Zustände, die man sich bestimmt nicht wünschen oder gar vorstellen möchte.

Wie gesagt:

It´s Physics, Stupid!!!

PDF:

Die Deutsche Energiewende

 

Filed under: CO2 Emission, Energiewende, Klima, Klima und Umwelt, Wissenschaft, , , , , ,

Stephen Hawkins Apocalypse: Klimawandel

Stephen Hawkins Apocalypse: Klimawandel

Am 2. Juli dieses Jahres hat der berühmte Physiker Stephen Hawkins, der unheilbar krank nur über einen Computer mit der Außenwelt sprachlich kommunizieren kann, in einem Interview mit BBC davor gewarnt, dass die Erde bei weiteren CO2 Emissionen enden kann wie unser Nachbarplanet Venus.

Er sagte (frei übersetzt): „Wir sind nahe an einem Umkehrpunkt (Tipping Point), ab dem die Globale Erwärmung unumkehrbar ist. Die Aktion von Trump könnte die Erde über die Klippe bringen, so dass sie wird wie die Venus, mit einer Temperatur von 250 °C, Schwefelsäure regnend. Klimawandel ist eine der größten Gefahren denen wir ausgesetzt sind, und es ist eine, die wir vermeiden können, wenn wir jetzt handeln. Die Evidenz des Klimawandels zu leugnen und aus der Pariser Klima Übereinkunft auszusteigen, bedeutet, dass Trump vermeidbare Umweltschäden an unserem wunderbaren Planeten verursacht, die die natürliche Welt für uns und unsere Kinder bedrohen.“

http://www.bbc.com/news/science-environment-40461726

Nun, als Physiker, muss ich leider feststellen, dass der Kollege Hawkins so was von daneben liegt, dass es fast schon blamabel ist. Hawkins ist ein genialer Astrophysiker mit großartigen Überlegungen zur Physik der Schwarzen Löcher und deren quantenmechanischen Auflösung.

Auch mich hat die Astrophysik immer wieder fasziniert.

Leider und offensichtlich fehlt Hawkins aber zur Beurteilung klimatologischer Effekte durch das Treibhausgas CO2 jegliches Basiswissen. Auch die Beurteilung der Entstehung der Temperaturen auf der Venusoberfläche ist ihm fremd, dabei hätte ihm ein Klick ins Internet von der Unhaltbarkeit seiner Aussage überzeugen können. Er hätte sicher davon Abstand genommen.

(Bemerkung:

Leider findet man diese merkwürdige Überheblichkeit von fachfremden Wissenschaftlern immer wieder, wenn sie sich über Dinge auslassen, die jenseits ihres Fachbereiches liegen. Ein gutes Beispiel hierfür ist übrigens auch Harald Lesch, ein renommierter Astrophysiker, der glaubt über den Klimawandel relevante Aussagen machen zu können. Das funktioniert nicht!! Klima ist auch für Physiker ein komplexes Wissensgebiet, in das man sich schon etwas länger intensiv einarbeiten muss. Auch ich bin nicht als Klimatologe geboren worden, aber habe mich seit mehr als 15 Jahren ausgiebig damit beschäftigt.)

Zurück zum Thema!

Wie sieht es auf der Venus aus:

  • Radius r: 6.051 km; (Erde ca. 6.371 km)
  • Abstand von der Sonne R: 0,72 AE (108.200.000 km); (Erde: 1 AE)
  • Mittlere Oberflächentemperatur: 462 °C bzw. 735 K; (Erde 15°C bzw. 288 K)
  • Hauptbestandteile der Atmosphäre: 96 % CO2, 3% N2, 0,015% SO2; (Erde: 0,04% CO2)
  • Druck der Atmosphäre an der Oberfläche: 92 bar; (Erde 1 bar)
  • Albedo a (im Prinzip der Reflexionsgrad der Sonnenenergie eines Planeten: ca. 0,75; (Erde: 0,36)

Damit kann man nun rechnen:

Die eingestrahlte Sonnenenergie S auf die Planeten ist umgekehrt proportional zum Abstand R2 und proportional zur Absorption durch die Oberfläche (1-a).

Für unsere Überlegungen kann man annehmen, dass die Radien der beiden Planeten gleich sind.

Da die von der Sonne eingestrahlte Energie im Gleichgewicht identisch sein muss zur vom Planeten abgestrahlten erhält man aus dem Stephan-Boltzmann Gesetz mit S, proportional zu T4,für das Verhältnis der Temperaturen ohne Treibhausgasverstärkungen:

T(Venus)/T(Erde) =[(1-a(Venus)/(1-a(Erde)]1/4 x R(Erde)1/2/R(Venus)1/2=0,93

T(Venus)=268 K = -5 °C

Der Treibhauseffekt durch Kohlendioxid muss also den Unterschied machen.

Nun ist die Menge des Treibhausgases Kohlendioxid auf der Venus 97/0,04 x 92=223.000 mal höher als auf der Erde.

Da sich der Treibhauseffekt des CO2 proportional zum natürlichen Logarithmus seiner Konzentration verhält, ist dieser auf der Venus um einen entsprechenden Faktor höher

ln [CO2(Venus)/Co2 (Erde)] =12,3

Nimmt man an, dass der Treibhauseffekt auf der Erde 33 °C beträgt und durch CO2 hervorgerufen wurde, so ergibt sich eine Temperatur auf der Venusoberfläche von ca. 400°C.

Ein abgeschätzter Wert, der nicht so weit von der gemessenen Temperatur auf der Venusoberfläche 462 °C entfernt ist, wenn man bedenkt, dass unsere Überlegung sehr qualitativ war.

Wie allerdings unser verehrter Physiker Stephen Hawkins auf die Idee kommen kann, dass die Temperatur auf der Erde durch Emission des Treibhausgases CO2 auf Venus ähnliche Werte kommen kann, bleibt sein Geheimnis.

Die Konzentration von CO2 auf der Erde durch Emission kann höchstens einen Faktor 2 gegenüber heute (400 ppmV) ausmachen, alleine schon durch die begrenzten Ressourcen an fossilen Brennstoffen und die zukünftige technische Entwicklung.

In der folgenden Graphik ist die Temperaturerhöhung bei weiterer Emission von CO2 dargestellt. Allgemein anerkannt (auch von den Mitarbeitern des Potsdamer Instituts für Klimafolgenforschung (PIK) und ihres Chefs Prof. Schellnhuber) ist, dass der Einfluss des CO2 proportional zum natürlichen Logarithmus seiner Konzentration ansteigt. Der Proportionalitätsfaktor f kann leicht aus gemessenen Daten bestimmt werden, wenn man die CO2 Konzentrationen kennt und die in dieser Zeit gemessene Temperaturerhöhung. Für die Graphik liegt eine Temperaturerhöhung von 0,6°C zu Grunde bei einer Konzentrationsänderung von 280 ppmV auf 378 ppmV. Somit erhält man für f=2, inklusive aller Verstärkungen des von CO2 initiierten Temperaturanstiegs.

Dargestellt ist (schwarze Kurve) bei der Annahme des IPCC von 3°C Temperaturerhöhung bei Verdopplung. Die andere Kurve (lila) zeigt das Temperaturverhalten mit dem zuvor bestimmten Wert von f=2.

Selbst die mit zu hoher Klimasensitivität -zu starkem Einfluss des CO2 auf die Klimaerwärmung –aus Modellen berechneten Temperaturerhöhungen des IPCC gehen nur von Werten 1,5-4 ° C bei einer Verdopplung der CO2 Konzentration aus. Ein mit den heutigen Temperaturmessungen verträglicher Wert liegt eher bei 1,5 ° C oder darunter!

https://rlrational.files.wordpress.com/2015/02/c3bcbersensitiv1.pdf

Ein Blick in die paläontologische Vergangenheit zeigt, dass selbst bei einer CO2 Konzentration auf der Erde, die einen Faktor 10 höher war als heute, ein Kipp Punkt (Tipping Point) nicht zu erkennen ist.

Wir befinden uns heute erdgeschichtlich in einem Eiszeitalter, das definiert ist mit einer Erde, auf der mindestens ein Pol von Eis bedeckt ist. Heute sind es alle beide.

PDF: Stephen Hawkins and Climate Change

Filed under: CO2 Absorption, CO2 Emission, CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , , , , , , ,

Frohes Neues Jahr !! – oder doch nicht?!

 Ein frohes neues Jahr wünscht man: So ist es Brauch und sicher steht dahinter auch oft ein ernst gemeinter Wunsch.

Aber wie sieht es denn nun mit dem Neuen Jahr aus, nachdem bereits ein halber Monat vergangen ist?

Für Klimaalarmisten hat es nun ganz schlecht angefangen!!

1) Da wurde nun zum einen ein ausgemachter Klimaskeptiker zum Präsidenten der Vereinigten Staaten gewählt, der die Klimahypothese und den so genannten wissenschaftlichen Konsens (den es nicht wirklich gibt) auf die Prüfbank stellt.

24492184135-donald-trump

Den Klimavertrag von Paris möchte er neu – unter dem Gesichtspunkt des Nutzens für die USA –aufrollen.

Das wird eine spannende Angelegenheit. Die Klimaalarmisten stehen auf den Barrikaden und versuchen alles, eine wissenschaftliche rationale Neubewertung zu verhindern. Es stehen schließlich hunderte Milliarden € für die Klimaalarmisten auf dem Spiel, auf die sie natürlich nicht verzichten möchten!!

Wer würde dies an deren Stelle denn auch schon wollen.

Für einen Physiker wie ich, von Berufs wegen skeptisch, ist Trump diesbezüglich natürlich eine gute Nachricht. Mein berufliches Leben lang ist für mich die Wissenschaft dadurch definiert, dass Hypothesen und Theorien sich auf dem Feld der gemessenen Daten verifizieren müssen. Hierzu sagt einer der herausragenden Physiker des letzten Jahrhunderts Richard Feynman:

feynman-to-science1

Exzellent hat Feynman die wissenschaftliche Methode beschrieben, die auch den Grundsatz der Physik bildet (und die Klimatologie ist nichts anderes als ein Randgebiet der Physik!).

https://www.youtube.com/watch?v=kctmPaCkV0g

Und beim Klimaalarm, der sich nur auf Klimamodelle stützt, sieht es derzeit nicht danach aus, als ob Modelle und Realität übereinstimmen. Damit sind die Modelle nicht geeignet Prognosen für die Zukunft darzustellen (JR Christy, University of Alabama Huntington).

Christy

 

Messungen und Klimamodelle – eine überraschende Darstellung der Diskrepanz

Damit man mich nicht falsch versteht! Natürlich gibt es den so genannten atmosphärischen Treibhauseffekt, der mit steigender CO2 Konzentration zu einer höheren mittleren Temperatur auf der Erde führt. Er hat schließlich auch dazu geführt, dass die Erde kein Eisball ist. Die Frage ist nur, wie groß ist heute noch die Klimasensitivität dieses Treibhausgases, die besagt, welche Temperaturerhöhung ergibt sich bei Verdopplung der CO2 Konzentration. Die Alarmisten sagen 1,5 bis 4,5 °C. Basierend auf dem bisher gemessenen Temperaturanstieg werden es weniger! als 1,5 °C bis zum Ende dieses Jahrhunderts sein, wenn man denn bis dahin eine Verdopplung der CO2 Konzentration annimmt. Das würde bedeuten, ausgehend von 280 ppmV vorindustrieller Konzentration auf 560 ppmV bei Verdopplung (derzeit 400 ppmV), dass diese bei einem Anstieg von derzeit 2 ppmV/Jahr in 80 Jahren erreicht werden kann, falls unsere fossilen Brennstoffe überhaupt so lange reichen.

Im Grunde ist es für mich eine Frage der wissenschaftlichen Wahrheit, weshalb ich als Skeptiker den Wert von <1,5°C für realistisch halte; und dieser führt eben nicht zu einem Klimaalarm!

Klicke, um auf sensitivitc3a4t-von-co21.pdf zuzugreifen

Für meine Meinung erhalte ich von niemandem auch nur einen Cent, besitze auch keine Aktien, die in irgendeiner Form mit der Entwicklung des Klimas oder der CO2 Emission zusammenhängen.

Würden die gemessenen Werte auf eine Temperaturerhöhung hinweisen, die eine wesentlich höhere Sensitivität des Treibhausgases CO2 als Basis hätte, würde ich genauso deutlich dazu stehen.

Und Übrigens: Gegen eine gewisse Temperaturerhöhung in Deutschland hätte ich überhaupt nichts einzuwenden, möchte schon gar nicht unter den Bedingungen der „Kleinen Eiszeit“wie noch im 19. Jahrhundert leben!!

2) Der El Nino, der zur Freude der Klimaalarmisten zu einer Erhöhung der globalen Mitteltemperatur geführt hat, hat sich recht schnell verabschiedet und ist einer gemäßigten La Nina gewichen.

elninometer-current-170116nino3_4-170116

Ergänzung: Aktuelle Vorhersage NOAA zu El Nino und La Nina

Dies hat naturgemäß zu einer stark und schnell abfallenden globalen Mitteltemperatur geführt. Dies ist in der nächsten Abbildung zu sehen. Hier sind die Daten der Satellitenmessungen RSS bis einschließlich Dezember 2016 als Anomalien, d.h. Abweichung vom langjährigen Mittel, dargestellt.

http://woodfortrees.org/plot/rss-land/from:1997/plot/rss/from:1997

img_1229

Die Temperaturdaten der Satellitenmessungen der UAH (University of Alabama Huntington) von Roy Spencer zeigen das gleiche Ergebnis.

uah_lt_1979_thru_december_2016_v6

Mit dem schnellen Ende des El Nino hat sich auch die Hoffnung der Alarmisten zerschlagen, dass sich das Jahr 2016 deutlich als heißestes Jahr seit Aufzeichnung herausstellt. Es ist in der Tat um 0,02°C wärmer als der bisherige Rekordhalter 1998 (ebenfalls ein El Nino Jahr!) mit 0,48°C, allerdings mit einem Messfehler von ca. 0,1°C, also statistisch nicht relevant.

3) Die Messdaten Ende Dezember 2016 (siehe Abbildung oben) deuten darauf hin, dass wir auch im Jahr 2017 eine Fortsetzung der Temperaturkonstanz (Hiatus) oder eines nur geringfügigen Anstiegs seit nunmehr fast 20 Jahren erleben. Auch dies hat kein Klimamodell vorhergesagt.

Nun gut, Vorhersagen sind schwierig, besonders wenn sie die Zukunft betreffen.

Warten wir also ab. Sollte es die Sonne an den Tag bringen, werden wir sogar mit leicht fallenden Temperaturen rechnen müssen, denn die Aktivität der Sonne, ausgedrückt durch die Zahl der Sonnenflecken, wird in den nächsten Sonnenzyklen wohl deutlich zurückgehen.

Wer einen Zusammenhang der Erdtemperaturen mit der Sonnenaktivität heute noch leugnet, dem ist allerdings auch nicht mehr zu helfen.

Die Sonne schwächelt – Erleben wir in Zukunft ein Dalton und Maunder Minimum mit entsprechender Temperaturerniedrigung?

4) Und nun auch noch zu Beginn des Jahres 2017 die Eiseskälte, die ganz USA außer Hawaii und Florida erfasst hat.us-big-chill-2017

Alle Staaten haben Temperaturen unter 0°C, 25 Staaten (30%) unter -18°C und 6 Staaten unter -29°C.

Hinzu kommt, dass fast überall in Deutschland ebenfalls eisige Temperaturen herrschen (16.01.2017, deutschlandweit <-5°C)) und lange nicht gemessene Schneehöhen von 54 cm in Hellenthal/Eifel (Weißer Stein), Monschau/Eifel 40 cm vorhanden sind, in den deutschen Alpen, z. B. Berchtesgaden Berg 130 cm, im Bayrischen Wald 80-130 cm, in unserem Lieblingsskiort Tauplitz Steiermark 40-250 cm!

16.01.2017

schneehoehe-tauplitz-170116

Schnee, den es in eigentlich schon lange nicht mehr geben dürfte!

(Am 1. April 2000 hat der Klimaforscher Mojib Latif noch verkündet: “Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben”. Es war von ihm nicht als Aprilscherz gemeint.)

Klar, das ist alles noch Wetter und kein Klima!

Wäre es umgekehrt, also zu warm und gäbe es keinen Schnee, würden es die Klimaalarmisten wie gewohnt als Bestätigung ihrer Modelle laut hinausposaunen, und so mancher Medienfürst mit Begeisterung verbreiten.

Das alles passt nun nicht so richtig in das Weltbild der Klimaalarmisten.

RL

PDF hier:

rlrational-frohes-neues-jahr-2017

 

Filed under: CO2 Konzentration, Klima, Klima und Umwelt, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , , , ,

Der statistische Trick mit der Anomalie – oder wie erzeugt man Hysterie

Der immer wieder bewährte Trick der Statistik –  um einen Effekt zu erzielen – beruht auf der „Nullpunkts-Unterdrückung“, auch Abweichung, Anomalie, genannt.

Dabei stellt man kleine – oft unbedeutende Variationen – vergrößert dar.

Dies soll an zwei Beispielen, der global gemittelten Temperaturanomalie und der Meereseisbedeckung erläutert werden.

 

1) Die global gemittelte Temperaturanomalie.

Üblicherweise wird die global gemittelte Temperatur durch die Temperaturanomalie, d. h. die Abweichung von einer Referenzperiode dargestellt.

Als Beispiel sollen die Daten der NOAA GISS dienen (obwohl der Verdacht nahe liegt, dass diese zu Gunsten einer Erwärmung schrittweise manipuliert wurden).

Hadcrut glob T Anomalie Kopie

https://commons.wikimedia.org/wiki/File:Global_Temperature_Anomaly.svg#/media/File:Global_Temperature_Anomaly.svg

Es handelt sich um eine Änderung von -0,2 bis +0,7°C, also ein Delta von

Δ=0,9°C!

Das sieht dramatisch aus, und soll es ja auch.

Denn es soll vor allem darstellen, wie der Mensch durch seine Emission des Treibhausgases CO2 zur global gemittelten Temperatur beiträgt.

Verzichtet man auf die Unterdrückung des Nullpunktes und beginnt z. B: bei 0°C, und trägt die Veränderung bei einer mittleren globalen Erdtemperatur von derzeit ca. 14,5°C auf, so erhält man ein ganz anderes Bild mit den gleichen Daten:

Nullpunktsunterdrückung T 2

Das sieht nun nicht mehr so dramatisch aus, und ist auch wohl auch besser in seiner Bedeutung zu verstehen.

Im Grunde müsste man als Nullpunkt die Temperatur der Erde ohne Treibhausgase darstellen, denn es soll ja der Effekt durch zusätzlich emittiertes Treibhausgas CO2 gezeigt werden. Der Nullpunkt würde dann bei -18°C statt 0°C liegen! Der Effekt einer Temperaturerhöhung durch das Treibhausgas Kohlendioxid wäre dann kaum noch zu erkennen.

 

2) Die See-Eisbedeckung der Erde

Hierzu ist zu Beginn noch zu erwähnen, dass die Erde sich heute in einem Eiszeitalter befindet, das geologisch dadurch definiert ist, dass mindestens ein Pol mit Eis bedeckt ist. Die meiste Zeit ihrer Geschichte befand sich die Erde in einem Warmzeitalter (siehe nächste Graphik)

Phanerozoic_Climate_Change_(de)

https://de.wikipedia.org/wiki/Klimageschichte#/media/File:Ice_Age_Temperature_de.png

Innerhalbe unseres Eiszeitalters wechseln sich Warm- und Kaltzeiten ab. Wir befinden uns in einer Warmzeit (interglazialen Warmzeit) zwischen zwei Kaltzeiten (Graphik), und beide Pole sind mit Eis bedeckt.

Ice_Age_Temperature_de

https://de.wikipedia.org/wiki/Klimageschichte#/media/File:Ice_Age_Temperature_de.png

Nun zurück zur Nullpunkts Unterdrückung!

Gerne werden auch hier die globalen Meer-Eisbedeckungen als Bedeckungsanomalien dargestellt:

iphone_anomaly_global

Globale See-Eisbedeckung: Cryosphere Today – University of Illinois – Polar Research Group

http://wattsupwiththat.com/reference-pages/sea-ice-page/

Wie anders sieht es doch aus, wenn man den Nullpunkt nicht unterdrückt:

Nullpunktsunterdrückung T und Seeeis 2

Ähnliches gilt auch für die Meereseis-Bedeckung der Antarktis.

Zunächst die Bedeckungsanomalie:

seaice_anomaly_antarctic

Dann hier ohne Nullpunktunterdrückung:

seaice_area_antarctic

Die jährlichen Abweichungen, Anomalien, sind eben gering und insofern auch bedeutungslos!!

Fazit:

„Vertraue keiner Statistik! Es sei denn Du erkennst, was sie bezwecken will!“

RL

PDF: Der statistische Trick mit der Anomalie

 

 

Filed under: 2014 Heißestes Jahr, Klima, Temperaturanomalie, Wissenschaft, , , , , , ,

Greenpeace Mitgründer Patrick Moore zum Klima

Der Mitgründer von Greenpeace ist offensichtlich zum Klimaskeptiker geworden!

Sehen Sie hier , was er zu sagen hat :

Eine Version mit deutschen Untertiteln ist bei EIKE erschienen:

RL

 

 

Filed under: Klima, Klima und Umwelt, Wissenschaft, , , , , , ,

Ein Klimarückblick 2015 – von Helmut Kuntze

Dieser Artikel von Helmut Kuntz erschien bei EIKE

http://www.eike-klima-energie.eu/news-cache/klimarueckblick-2015/

Da er auch mit Humor die Alarmistische Klimaproblematik sieht, habe ich ihn hier mit der Genehmigung des Autors abgedruckt.

RL

Klimarückblick 2015

 

Filed under: Energie, Energiewende, Klima, Klima und Umwelt, Temperaturanomalie, , , , , , , , , ,

Ohne Kommentar – Nur Klimafakten/Messungen

Temperaturen der Satellitenmessungen der unteren Troposphäre

a) Remote Sensing System bis Dezember 2015

rss temp anomaly up to dec 2015b) University of Alabama Huntington, UAH, bis Dezember 2015

UAH_LT_1979_thru_December_2015_v6-1c) Temperaturen Arktis (60-85° Nord) und Antarktis (60-85° Süd) Satellitenmessungen in der unteren Troposphäre bis Oktober 2015, UAH

arctic-temperatures-1024x937

CO2 Emission, Mauna Loa Hawai bsi November 2015

co2_data_mlo2015-565b464245c7f

Meeresspiegel Anstieg, University of Colorado, Stand Oktober 2015

University of Colorado Sea Level

Meeresspiegel Marshall Inseln, PSMSL, bis 2014

Sea Level Marshall Inseln

Meereisbedeckung, schwankt im Jahr zwischen 17,5-27,5 Millionen km

Graph: climate4you

NSIDC%20GlobalArcticAntarctic%20SeaIceArea

Elektrizitätskosten als Funktion der installierten Erneuerbaren Energien 2014 (MW/Million Einwohner bzw. W/Einwohner), Jonathan Drake

 Electricity Cost vs Installed Renewable Capacity per Capita Kopie

Untersuchung zu Elektrizitätskosten Fondo Interbancario, Italien

cost-industrial-electricty-prices-2015-12-22-countries

Schnee an Weihnachten in der Schweiz

 

weihnachtsschnee-schweiz-1024x944

 

Eisbären, Zustand der Population, 42% Wachstum, „manche so fett wie Schweine“

http://w Dr. Susan J. Crockford of polarbearscience.com

attsupwiththat.com/2015/12/23/more-scientific-evidence-that-polar-bears-are-doing-just-fine-a-30-increase-in-population-with-some-of-them-as-fat-as-pigs/svalbard-polar-bear-fall-2015_aars/

Unbenannt

PDF hier: rlrational ohne Kommentar nur Klimafakten Messungen

Filed under: 2014 Heißestes Jahr, Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , , , , , , , , , , , , ,

COP-21 im Widerspruch zu eigenen Vereinbarungen- ab heute null Emissionen?!

Es muss den Anhängern und Enthusiasten des Klimaalarms wohl noch nicht aufgefallen sein, dass die heutigen Temperaturmessungen und die gemessenen Konzentrationen von CO2 in der Atmosphäre im Widerspruch zu den eigenen Berichten des IPCC (Intergovernmental Panel for Climate Change, UN) und den dort angegebenen Klimasensitivitäten des CO2 stehen.

Und schließlich sollten sie auch längst erkannt haben, dass mit den ihren Alarm tragenden Wirkungen des Treibhausgases CO2 ab heute die Emissionen auf null zurückgefahren werden müssten!

Im kompletten Widerspruch zu den Vereinbarungen und zukünftigen Vorhaben der Pariser Übereinkunft COP-21.

Diese Tatsache, nicht gerade im Sinne der Alarmisten, soll hier noch einmal dargestellt und erläutert werden.

Man kann die anschließende Rechnung am Ende des Artikels auslassen und sich direkt die Werte in der Tabelle 1 anschauen.

Tabelle 1: f = ΔTSensitivität/ln (2)

Sensitivitätstabelle Kopie

Der Tabelle  entnimmt man, dass bei den vom IPCC und den Alarmisten angegeben Temperatursensitivität ΔTSensitivität für CO2 von im Mittel 3°C bei der heutigen Konzentration von 400 ppmV die Temperaturerhöhung bereits jetzt über der in der Pariser Vereinbarung COP-21 angestrebten 1,5°C liegt, und weit über der bisher gemessenen global gemittelten Temperaturerhöhung von 0,7 °C!!!

Um das 1,5°C Ziel noch zu erreichen, darf ab heute keine CO2 Emission mehr stattfinden!!!

Bei einer Sensitivität von 4,5 °C, die immer noch beim IPCC als möglicher Wert bezeichnet wird, ist sogar bereits das 2°C Ziel überschritten.

Eine Sensitivität, die mit den heutigen gemessenen Temperaturen

ΔTheute = 0,7°C

verträglich ist (Temperaturerhöhung durch anthropogen emittierte Treibhausgase)

und den gemessenen Konzentrationen an CO2 von 400 ppmV,

liegt bei ΔTSensitivität = 1,35 °C  (f=1,95 °C ) oder darunter.

Und dies führt zu keiner globalen Temperaturerhöhung, die zu alarmistischen Veränderungen im Klima Geschehen Anlass gäbe, und schon gar nicht zu von den Aktivisten geforderten Reduktionen an CO2 Emissionen mit den bekannten Auswirkungen.

Wann fängt man endlich einmal an, darüber nachzudenken, welche Sau hier eigentlich von den Klimaalarmisten und Aktivisten durchs Dorf getrieben wird.

Gott hat uns den Verstand gegeben, aber nicht verboten ihn zu benutzen!!!

 

Zur Rechnung :

Vom IPCC und allen Klimaforschern ist wohl uneingeschränkt anerkannt, dass eine durch anthropogen emittierte Treibhausgase verursachte Erwärmung global beschrieben werden kann als:

ΔTheute = f*ln(CO2(heute)/CO2(vorindustriell)

Dabei bedeutet der Klammerausdruck jeweils die genannten CO2-Konzentrationen in der Atmosphäre. ΔTheute ist dann die zu erwartende Temperaturerhöhung im Vergleich zur vorindustriellen Zeit.

ln ist der natürliche Logarithmus, auf jedem Taschenrechner per Tastendruck auszurechnen. Der natürliche Logarithmus ist der Tatsache geschuldet, dass jedes emittierte CO2-Molekül eine schwächere Treibhauswirkung hat als das vorhergehende.

f ist ein Verstärkungsfaktor, der beschreibt, welche Wirkung welche Konzentration von CO2 in der Atmosphäre auf die globale Temperatur hat. Er ist festgelegt durch die sogenannte Klima-Sensitivität ΔTSensitivität von CO2 in der Atmosphäre bei Verdopplung der Konzentration. Für die transiente Sensitivität, die zeitgleich mit der Emission wirkt, gibt das IPCC einen Bereich von ΔTSensitivität = 1,5-4,5 °C an. Sie beinhaltet zudem auch alle durch eine Erwärmung zusätzlich von anderen Treibhausgasen z. B. Wasserdampf oder durch Wolken hervorgerufenen Verstärkungen oder Abschwächungen.

Der Faktor f  berechnet sich aus der Sensitivität und durch Einsetzen der Verdopplung der Konzentration zu

f = ΔTSensitivität/ln (2)

RL

Als PDF COP 21 Im Widerspruch zur eigenen Vereinbarung

Filed under: Klima, Klima und Umwelt, Meine Kommentare, Temperaturanomalie, Wissenschaft, , , , , , , , , ,

Messungen und Klimamodelle – eine überraschende Darstellung der Diskrepanz

Dr. John Christy von der Universität in Huntsville, Alabama (UAH), hat den wachsenden Unterschied zwischen den Voraussagen der Klimamodelle und den gemessenen Temperaturwerten in einer bisher mir nicht bekannten, sehr aussagekräftigen Weise dargestellt, (Abb. 1).

Der Vortrag von Christy zu diesem Thema fand am 08. Dezember 2015 vor dem Unterkomitee des Senatsausschusses für Raumfahrt, Wissenschaft und Wettbewerb des Repräsentantenhauses der Vereinigten Staaten von Amerika (Senate Subcommittee on Space, Science, and Competitiveness Committee) statt.

Christy

Abb. 1: Gemessene Temperatur-Daten aus Ballonaufstiegen und Satelliten im Vergleich zu Klimamodellen in der mittleren Troposphäre

Quelle:

http://judithcurry.com/2015/12/17/climate-models-versus-climate-reality/

Üblicherweise werden die Klimamodelle mit den gemessenen Temperaturen an der Erdoberfläche (Thermometern) oder der unteren Troposphäre (Satelliten, Ballonaufstiege) verglichen (Abb. 2).

rss und uah vergleich mit Modellen bis nov 2015

Abb. 2: Vergleich Klimamodelle gegen Satellitenmessungen RSS und UAH in der unteren Troposphäre

Quelle:

http://wattsupwiththat.com/2015/12/04/the-robust-pause-resists-a-robust-el-nio-still-no-global-warming-at-all-for-18-years-9-months/

Auch hier sieht man eine stetig wachsende Differenz der gemessenen zu den Modelldaten.

Christy hat nun die Vorhersage der Klimamodelle für die mittlere Troposphäre mit gemessenen Temperaturen in diesem Bereich verglichen (Abb. 1).

Alle 2 Tage steigen Wetterballone auf und messen von der Erdoberfläche bis ca. 15 km Höhe Temperatur, Feuchtigkeit, Luftdruck, Windgeschwindigkeit als Grundlage für die Wettermodelle für die Wettervorhersage weltweit.

Vier unterschiedliche Analysen der Temperaturdaten der Ballonaufstiege sind mit den blauen Punkten der Abb. 1 zusammengefasst.

Ebenso werden die Temperaturen der mittleren Troposphäre von Satelliten aufgenommen. Es gibt zwei globale Datenanalysen dieser Satellitenmessungen, University of Alabama, UAH, und Remote Sensing System, RSS. Beide Datenanalysen stimmen sehr gut überein. Die grünen Quadrate geben diese Temperaturmessungen an.

Ballondaten und Satellitendaten sind voneinander komplett unabhängige Messungen.

Die rote Linie (Abb. 1) repräsentiert das Fünf-Jahresmittel der 102 Computermodelle im IPCC Bericht von 2013, für die in der mittleren Troposphäre Werte vorhanden sind.

Wie der Vergleich zeigt, liegen die Klimamodelle total neben den Messwerten.

Die Modelle liegen 2015 bereits um einen Faktor drei zu hoch!!!

Auf diesen Klimamodellen beruht der Klimaalarm und die ganze alarmistische Klimapolitik – sieht schlecht dafür aus!!!!!

Bin gespannt, wie die Klimaalarmisten auf diese Tatsache reagieren.

Wahrscheinlich wird sie totgeschwiegen.

Im Grunde zeigt die Darstellung von Christy auch den fehlenden Hotspot in den gemessenen Temperaturwerten der mittleren Troposphäre auf, der ebenfalls mehr oder weniger totgeschwiegen wird.

(siehe hier)

RL

Filed under: Klima, Klima und Umwelt, Temperaturanomalie, Wissenschaft, , , , , , , , ,

Paris Übereinkommen COP21: 1000 Milliarden $ für 0,05 Grad!?

DSC_0903Man ist wenig geneigt zu glauben, dass man ausgehandelt hat, die Entwicklungsländer zu bewegen für 100 Milliarden $ pro Jahr die Pariser Übereinkunft zu unterschreiben, damit im Endeffekt eine globale Temperaturerniedrigung von 0,05 °C erreicht wird, gegenüber einem Zustand „Busines as Usual“, UNEP Emission Gap Report.

http://www.unep.org/publications/ebooks/emissionsgapreport2014/portals/50268/pdf/Appendix_2B.pdf

Diese Zahlung sollen die Entwickelten Länder ab 2020 zunächst bis 2030 für die Entwicklungsländer bereitstellen, danach sollen es mehr werden.

1 Billion, 1000 Milliarden €!!!!

Nun, dafür wird man hoffentlich das Klima, die Welt, retten können, denn abgesehen von Mitteleuropa würden ansonsten die Menschen überall verbrennen laut Prof. Schellnhuber, Leiter des PIK (Potsdamer Institut für Klimafolgenforschung).

Bemerkung: Man könnte auf die Idee kommen, ich hätte eine Phobie gegen das PIK. Die häufige Zitierung liegt daran, dass das PIK sich in Deutschland zum Wortführer des alarmistischen Klimawandels gemacht hat. Dies ohne Rücksicht auf wissenschaftliche Integrität.

Da gemäß Klimaübereinkunft jetzt alles klar ist – von einer weiteren Entwicklung des wissenschaftlichen Standes bei der Klimaforschung ist keine Rede – benötigt man auch keine Klimafolgenforschung mehr, kann also auch auf das PIK verzichten. Ob man dies dort auch so sieht?

Zurück:

Was bekommt man nun für sein Geld?

Die Emission des Treibhausgases soll reduziert werden, nach Geschmack und Willen der einzelnen Nationen. Dies nennt man Intended National Determined Contribution (INDC).

Christiana Figueres, Generalsekretärin der Klimarahmenkonvention der UN, hat nun die von ihrer Institution berechneten Werte bekanntgegeben, die durch Einsparung an Emissionen der bis Oktober von den einzelnen Nationen eingereichten INCDs erreicht werden. Dies sind 33 Gt CO2 bzw. eine Reduzierung von 4,2 pppmV in der Atmosphäre, falls die ganze Emission auch dort bleibt. Heute werden allerdings etwa 50% wieder von Ozeanen und Landbedeckung aufgenommen.

Damit kann man mit einfachen Überlegungen, den Temperatureffekt berechnen, um den die global gemittelte Temperatur niedriger ausfallen wird als bei “Business as Usual“ (siehe mein Artikel über die Sensitivität von CO

https://rlrational.wordpress.com/2015/12/16/sensitivitaet-von-co2-cop21-paris-1000-milliarden-e-spende-an-entwicklungslaender-fuer-globale-temperaturerniedrigung-von-005-c/ )

Das MIT (Massachusetts Institute of Technology), eine der Elite Universitäten der USA, hat nun mit aufwendigen Modellen berechnet, dass man unter der Voraussetzung, dass die genannten Einsparungen bis 2100 eingehalten werden, 0,2 °C an globaler Erwärmung einspart.

http://globalchange.mit.edu/research/publications/other/special/2015Outlook

Björn Lomborg, Professor an der Kopenhagener Business School, kommt mit einem anderen Modell zu einem ähnlichen Ergebnis: 0,17 °C.

http://wattsupwiththat.com/2015/11/10/lomborg-paris-climate-pact-will-reduce-temperature-increase-by-the-end-of-the-century-by-a-whopping-0-05c/

Lomborg gibt auch einen Wert für die Temperaturerniedrigung durch die INDCs bis 2030 an.

Diese beträgt 0,05 °C.

Bis dahin also eine Spende von 1000 Milliarden $ der Entwickelten Länder an die unterentwickelten, um die CO2 Emissionen zu verringern.

Dabei sind die Aufwendungen der einzelnen Entwickelten Länder für die internen Kosten der Reduktionsmaßnahmen nicht eingerechnet.

Aber es bestätigt die Ausführung von Ottmar Edenhofer (schon wieder PIK), dass es nicht um Klima geht, sondern um Politik und Umverteilung des Reichtums der Entwickelten Länder.

Das ist ein Geschäft!! Da können einem wirklich die Tränen kommen, wie sie nach Abschluss der Pariser Übereinkunft reichlich flossen.

RL

 

Filed under: Klima, Klima und Umwelt, Meine Kommentare, Temperaturanomalie, Wissenschaft, , , , , , , , , , ,

Sensitivität von CO2 – COP21 Paris: 1000 Milliarden € Spende an Entwicklungsländer – für globale Temperaturerniedrigung von 0,05 °C

Man kann es wirklich nicht glauben, dass man ausgehandelt hat, die Entwicklungsländer zu bewegen für 100 Milliarden $ pro Jahr die Pariser Übereinkunft zu unterschreiben, damit im Endeffekt eine globale Temperaturerniedrigung von 0,05 °C bis 2030 erreicht wird, gegenüber einem Zustand „Busines as Usual“, UNEP Emission Gap Report.

http://www.unep.org/publications/ebooks/emissionsgapreport2014/portals/50268/pdf/Appendix_2B.pdf

Diese Zahlung sollen die Entwickelten Länder ab 2020 zunächst bis 2030 für die Entwicklungsländer bereitstellen, danach sollen es mehr werden.

1 Billion, 1000 Milliarden €!!!!

Die Emission des Treibhausgases CO2 soll reduziert werden, nach Geschmack und Willen der einzelnen Nationen. Dies nennt man Intended National Determined Contribution (INDC).

Das MIT (Massachusetts Institute of Technology), eine der Elite Universitäten der USA, hat nun mit aufwendigen Modellen berechnet, dass man unter der Voraussetzung, dass die genannten Einsparungen (INDCs) bis 2100 eingehalten werden, 0,2 °C an globaler Erwärmung einspart.

http://globalchange.mit.edu/research/publications/other/special/2015Outlook

Björn Lomborg, Professor an der Kopenhagener Business School, kommt mit einem anderen Modell zu einem ähnlichen Ergebnis: 0,17 °C.

http://wattsupwiththat.com/2015/11/10/lomborg-paris-climate-pact-will-reduce-temperature-increase-by-the-end-of-the-century-by-a-whopping-0-05c/

Lomborg gibt auch einen Wert für die Temperaturerniedrigung durch die INDCs bis 2030 an.

Diese beträgt 0,05 °C.

Im Folgenden soll mit einem physikalischen Modell dieser Wert berechnet werden mit einer sehr einfachen mathematischen Relation.

Die Treibhauswirkung eines Treibhausgases bei Verdopplung seiner Konzentration in der Atmosphäre bezeichnet man als seine Klimasensitivität.

Im folgenden Artikel will ich für CO die Klimawirksamkeit beschreiben:

  1. Die allgemeine Relation, die die Temperaturwirkung eines Treibhausgases wiedergibt.
  2. Wie man daraus die globale Temperaturerniedrigung auf Grund der INDCs berechnet
  3. Wie man die globale Temperaturerhöhung durch weitere Emission von Treibhausgasen aus den gemessen Parametern der Atmosphäre ableiten kann

Artikel weiterlesen:

Sensitivität von CO2

 

Filed under: Energiewende, Klima, Klima und Umwelt, Meine Kommentare, Temperaturanomalie, , , , , ,

Ist die 2°C Grenze ohne jegliche Reduktion an Kohlenstoffdioxid Emissionen erreichbar?!


Die Kernfrage der derzeitigen Klimadiskussion ist, wie groß kann der Atmosphärische Treibhauseffekt durch Emission von Kohlenstoffdioxid (CO2) in diesem Jahrhundert überhaupt werden? Wenn alle fossilen Reserven an Kohle, Gas, Erdöl in diesem Jahrhundert verfeuert werden, so erhöht sich die Konzentration von CO2 in der Atmosphäre um einen Faktor 2 zur vorindustriellen Situation auf etwa 560 ppmV (Moleküle pro 1 Million Luftmoleküle).
Der hierdurch bestimmte Anstieg der global gemittelten Temperatur wird auch als „Treibhaus-Sensitivität“ des CO2 bezeichnet.
Man möchte durch politische Verhandlungen erreichen, dass die global gemittelte Temperatur durch Emission von CO2 unter 2°C bleibt.
Die Autoren Schmittner et al. haben sich dieses Themas angenommen – veröffentlicht in Science Express – und kamen zu einem verblüffenden Ergebnis.
Weiterlesen PDF:

Klimasensitivität Schmittner et al Science Direct

Filed under: Klima, Klima und Umwelt, , , , , , , ,

Widerlegung zur Veröffentlichung von Gerlich und Tscheuschner

G. Gerlich und R. D. Tscheuschner haben in einer Arbeit mit dem Titel „Falsification of the Atmospheric CO2 Greenhouse Effects within the Frame of Physics“ versucht, den Atmosphärischen Treibhaus Effekt zu widerlegen.
Sie glauben, dies mit Hilfe des II. Haupsatzes der Thermodynamik beweisen zu können.
Würde dies stimmen, so wäre damit ein für alle Mal die Diskussion um den Treibhauseffekt erledigt. Ein Widerspruch zum II. HS ist in der Physik gleichbedeutend mit einem KO-Schlag.
Leider sind den beiden Autoren, Theoretische Physiker, fundamentale Fehler im Zusammenhang mit der Strahlungstheorie unterlaufen. Nun wäre dies nicht weiter erwähnesnwert, wenn die beiden Autoren die Kritik an ihrenr Arbeit akzeptieren könnten.
Im beiliegenden PDF Artikel wird die Widerlegung begründet.
Sie erschien auch unter http://www.eike-klima-energie.eu/news-anzeige/kuehlt-das-treibhausgas-co2-die-bodennahe-atmosphaere/

mehr:
Wid_Gerlich PDF

Filed under: Klima, , , , , , ,

Klimawandel, Alarmisten, Skeptiker und Negierer

Jeder, der sich für den Klimawandel interessiert, und wer tut das heutzutage nicht, wird zunächst einmal bombardiert mit alarmistischen, katastrophalen Auswirkungen die der Klimawandel auf unser Leben und unsere kulturelle, zivilisatorische und ökonomische Zukunft hervorrufen soll. Verursacht werden soll diese Katastrophe durch das von uns auf Grund der Verbrennung fossiler Brennstoffe emittierte Kohlendioxid (CO2). Eine lautstarke Mehrheit von Klimaforschern hat diese Hypothese im Gleichklang mit den Medien, Umweltschutzverbänden und Politikern – oft sehr zum Eigennutz – wie eine Religion verkündet.
Dagegen steht eine große Anzahl von Wissenschaftlern, Klimatologen, Meteorologen und Physiker, die Gruppe der Skeptiker. Diese sehen diese alarmistischen Voraussagen sehr kritisch und sind der Meinung, dass die Emission von CO2 zwar einen Beitrag zu einer Klimaveränderung leisten kann, dieser so genannte Atmosphärische Treibhauseffekt jedoch auf keinen Fall als katastrophale Entwicklung zu sehen ist.
Dann gibt es noch eine sehr kleine Gruppe, eine handvoll Wissenschaftler und etliche Amateure, die den Atmosphärischen Treibhauseffekt sei er natürlichen Ursprungs oder durch die anthropogene Emission von CO2 hervorgerufen, als physikalische Wirkung abstreitet: die Gruppe der Negierer.

mehr:
Klimawandel Alarmisten, Skeptiker und Negierer PDF

Filed under: Meine Kommentare, , , ,

Der atmosphärische Treibhauseffekt

Das physikalische Prinzip des atmosphärischen Treibhauseffektes wird beschrieben. Arbeiten von Lindzen und Paltridge zeigen, dass eine vom IPCC angenommene Wasserdampfverstärkung nicht stattfindet, so dass eine katastrophale Klimaentwicklung durch die anthropogene Emission von Kohlendioxid keinesfalls erfolgen kann.

mehr:
Der Treibhauseffekt PDF

Filed under: Klima, , , ,