RL-Rational

Gott hat uns den Verstand gegeben, aber nicht verboten ihn zu benutzen!

Deutsche Braunkohle und globale Temperaturerhöhung

Nun hat sich die Braunkohle Kommission entschieden, bis ca. 2038 aus der Braunkohle (der deutschen!) zu verabschieden.

Da man keine Informationen , auch im Internet nicht, abgreifen kann, die beziffern wie groß der Einfluss eines Ausstieges auf die global gemittelte Temperatur ist, habe ich ein einfaches, aber anerkanntes Model (auch vom PIK, Potsdamer Institut für Klimafolgenforschung) bemüht, dies abzuschätzen.

Das Ergebnis dieser Rechnung ist hier dargestellt. Gespannt bin ich auf eine genauere Berechnung durch das PIK mit seinen aufwändigen Modellen, falls die sich überhaupt hierzu in der Lage sehen, oder bei ähnlichem Ergebnis dies eben gerade nicht veröffentlichen möchten.

Zusammenfassung:

Berechnungs-Basis:

Braunkohle Reserven in Deutschland ca. 40 Gt

SKE Faktor 0,3

50% der Emissionen bleiben in der Atmosphäre. Die anderen 50% werden von Ozeanen und Vegetation aufgenommen (ergibt sich aus den Emissionsmessungen).

Die weltweiten Reserven an SKE betragen ca. 1.250 Gt.

Berechnungsmodell:

Der Einfluss des CO2 auf die globale Temperatur ist proportional zum natürlichen Logarithmus seiner Konzentration in der Atmosphäre.

Diese Abhängigkeit wird von allen Klimawissenschaftlern akzeptiert (auch vom PIK, Potsdamer Institut für Klimafolgenforschung, Schellnhuber, Rahmstorf).

Für eine maximale Abschätzung habe ich die vom IPCC (Intergouvernmental Panel on Climate Change) favorisierte CO2 Sensitivität von 3°C bei Verdopplung seiner Konzentration von 280 ppmV vorindustriell auf 560 ppmV zugrunde gelegt. Gemäß Messungen der globalen Temperatur im vergangenen Jahrhundert ist sie nur halb so hoch (kleiner 1,5°C), womit das für 3°C berechnete Ergebnis halbiert wird.

Ergebnis:

Bei sofortiger Stilllegung aller Braunkohlekraftwerke in Deutschland erzielt man eine Reduzierung der globalen Temperatur dT um:

dT ~ 0,04 °C (bei 3°C Sensitivität von CO2)

Ein unmessbarer Wert!

Bei noch teilweiser Nutzung erniedrigt sich dieser Wert etwa proportional

17. Januar 2019

Dr. Rainer Link

Physiker

Filed under: Klima, Kohlendioxid Konzentration, Temperaturanomalie, , , ,

CO2 Grenzwert in der Atmosphäre in Abhängigkeit von seiner Lebensdauer

Das von den Menschen anthropogen in die Atmosphäre im Wesentlichen durch Verbrennung fossiler Rohstoffe emittierte CO2 wird nach einer bestimmten Zeit durch Vegetation und Ozeane wieder aufgenommen. Die typische Angabe für die Verweilzeit ist die Lebensdauer, die Zeit in der die Konzentration um einen Faktor 1/e=0,3679 abgenommen hat.

Die Veränderung der Konzentration von CO2 wird beschrieben einmal durch diese Abnahme, die wie bei all diesen Vorgängen exponentiell verläuft und zum anderen der anthropogenen Emission pro Zeiteinheit in die Atmosphäre.

dC(t)/dt = – C(t)/tau +dE/dt                                                              (1)

Dabei ist tau die Lebensdauer von CO2 in der Atmosphäre und C(t) die von den Menschen (anthropogen) hervorgerufene zeitabhängige Konzentration. dC(t)/dt ist ihre zeitliche Veränderung.

-C(t)/tau ist die Abnahme der anthropogen verursachten Konzentrationsänderung von CO2 und dE(t)/dt der pro Zeiteinheit in die Atmosphäre emittierte Betrag.

Es werden hier nur die durch den Menschen verursachten Anteile berücksichtigt, die sich zusätzlich zur vorindustriellen Konzentration in Höhe von ca. 280 ppmV CO2 addieren. Dabei ist davon ausgegangen, dass die vorindustrielle Konzentration einem Gleichgewichtszustand entsprach, in dem der natürliche Austausch von CO2 in der Atmosphäre im Wesentlichen mit der Vegetation und den Ozeanen erfolgte.

Die Lösung der Differentialgleichung (1) wird vereinfacht, wenn man annimmt,

dass die anthropogene Emission pro Zeiteinheit konstant gleich dE/dt=Ec ist, ebenso wie die Lebensdauer tau. Natürlich ist dies eine Näherung, die jedoch das Verhalten der Konzentration und wie man sehen wird, den Grenzwert qualitativ gut beschreibt.

Die Lösung der Gleichung (1) lautet:

C(t)=tau*Ec(1-e-t/tau)                                                                        (2)

 

Die Emission Ec(t) von CO2 in die Atmosphäre beträgt seit Jahren 4,4 ppmV/Jahr.

Das IPCC gibt in seinem fünften Sachstandsbericht Werte für tau zwischen 30 und 100 Jahren an.

Der wahrscheinlichste Wert für Tau beträgt 50 Jahre.

In der folgenden Graphik ist die Situation C(t) in ppmV als Funktion der Zeit t in Einheiten der Lebensdauer tau für die Werte Ec=4,4 ppmV/Jahr, tau =50 Jahre dargestellt, ausgehend von der Konzentration 400 ppmV, die bis 2018 gemessen wurde.

Der zugehörige Grenzwert beträgt 500 ppmV an Konzentration von CO2, wenn die Lebensdauer bei 50 Jahren bleibt und die anthropogene Emission von 4,4 ppmV/Jahr nicht vergrößert wird.

Dieser Zustand 500 ppmV wird voraussichtlich nicht einmal erreicht. Die fossilen Reserven an Brennstoffen betragen nur etwa 1250 Gt Kohlenstoff, die allemal bis zur Erreichung des Grenzwertes verbraucht sind.

Entsprechende Grenzwerte lassen sich mit einer einfachen Excel Tabelle auch für andere Lebensdauern z. B. tau = 30 und 80 Jahre berechnen.

Lebensdauer in Jahren 30 50 80
Grenzwert in ppmV 420 500 630

 

Bei einer Lebensdauer von 80 Jahren wird der Grenzwert von 630 ppmV, auf Grund der endlichen fossilen Reserven nicht erreicht werden können.

In der nächsten Tabelle wird für den wahrscheinlichsten Wert der Lebensdauer von 50 Jahren mit dem Grenzwert 500 ppmV, gemäß der von allen Klimawissenschaftlern anerkannten Gleichung (3) für die global gemittelte Temperaturänderung dT als Funktion der Konzentration von CO2 in der Atmosphäre angegeben. Den bei Verdopplung der Konzentration erreichten Temperaturwert nennt man die Sensitivität von CO2. Damit können die damit verbundenen heutigen Temperaturwerte und die bei Erreichen des Grenzwertes einfach berechnet.

dT=f*ln((t) /280)                                                                                (3)

Dazu wird zunächst der Wert für f aus der heutigen globalen Temperaturänderung dT(2018) seit vorindustriellem Wert und der heutigen Konzentration C(2018) bestimmt. Der so ermittelte Wert für f beinhaltet auch alle Rückkopplungen, die durch CO2 erfolgten, wie die Wasserdampfverstärkung und andere Veränderungen durch die Erhöhung der Co2 Konzentration.

Die heutige globale Temperaturänderung (Temperaturanomalie) beträgt gemessen 1,16 °C. Man geht jedoch davon aus (auch das IPCC), dass nur ca. 50% durch anthropogen emittiertes CO2 verursacht wurden, 50% natürlichen Ursprungs sind. In der Tabelle sind die folgenden Werte für 0,58, 0,8 und 1,16°C durch CO2 verursacht bei einer Lebensdauer von 50 Jahren angegeben.

Damit erhält man die Sensitivität für CO2 bei Verdopplung seiner Konzentration von 280 auf 560 ppmV.

dT (CO2 – Sensitivität) = f * ln(560/280))

Ebenso ergibt sich die Temperaturänderung, die von 280 ppmV bis zum Erreichen des Grenzwertes zu erwarten ist.

dT(Grenzwert) = f* ln(Grenzwert/280)

dT(t=2018)/°C 0,58 0,8 1,16
C(t=2018)/ppmV 400 400 400
f/°C 1,63 2,24 3,25
CO2 –Sensitivität/°C 1,13 1,55 2,25
dT(Grenzwert)/°C 0,94 1,3 1,88
dT(2118)- dT(2018)/°C 0,36 0,5 0,72

 

Die global gemittelte Temperaturerhöhung bleibt bis zum Erreichen des Grenzwertes von 500 ppmV bei einer angenommenen Lebensdauer von 50 Jahren allemal unter der im Übereinkommen von Paris 2015 (COP21) angestrebten 2°C Ziel – selbst wenn man annimmt, dass die bis heute gemessenen 1,16 °C nur auf die Erhöhung der CO2 Konzentration zurückzuführen ist.

Selbst das IPCC geht davon aus, dass mindestens 30% der Temperaturerhöhung natürlichen Ursprungs sein müssen (ergibt ca. 0,8°C).

Damit bleibt man auch bei weiter gleichbleibender Emission unter dem 1,5° C Ziel von COP24 in Katowice 2018.

PDF und Rechnung:

CO2 Grenzwert bei Berücksichtigung der Lebensdauer 190301

 

Filed under: CO2 Absorption, CO2 Emission, CO2 Konzentration, Klima, Kohlendioxid Konzentration, Temperaturanomalie, Wissenschaft, , , , , , , , , , ,

Die Deutsche Energiewende

In einem sehr umfangreichen, physikalisch und technisch korrekten Artikel, der dennoch auch für Nicht-Techniker leicht zu verstehen ist, hat Prof. Hans-Joachim Lüdecke die Wünsche, Grenzen und Möglichkeiten der Deutschen Energiewende zu den „Erneuerbaren“ Energien dargestellt.

https://www.eike-klima-energie.eu/2019/05/10/warum-die-energiewende-ein-totes-pferd-ist-und-der-spiegel-unsinn-schreibt/

(Bemerkung Rainer Link:

In diesem Zusammenhang möchte ich auf ein Essay von Prof. Fritz Vahrenholt in der Weltwoche hinweisen, das ebenso sehr lesenswert ist.

https://www.weltwoche.ch/ausgaben/2019-20/artikel-567117/das-4600-milliarden-fiasko-die-weltwoche-ausgabe-20-2019.html

Dieses Essay bezieht sich auf eine Studie „Energiesysteme der Zukunft“ der Union der Deutschen Akademien der Wissenschaften.

https://energiesysteme-zukunft.de/fileadmin/user–upload/Publikationen/pdf/ESYS–Analyse–Sektorkopplung.pdf

Unter anderem kann man hier nachlesen, dass z. B. eine CO2 Minderung um 85-90% bis 2050 in Deutschland die hübsche Summe von 4.500 Milliarden € kostet oder auf die deutschen Haushalte verteilt für jeden 320 €/Monat.

Für die Rettung der Erde sollte dies allerdings kein Thema sein, sofern nach der Deindustrialisierung Deutschlands noch genügend Menschen hinreichend viel verdienen.)

Zurück zum Artikel von Prof. Lüdecke. Die Abhandlung ist auf 10 Seiten in ebenso viele Kapitel aufgeteilt.

Ein Teil der Überschrift lautet: Warum die Energiewende ein totes Pferd ist…!

Das erinnert mich an den Spruch der Amerikanischen Indianer:

Wenn Du ein totes Pferd reitest, steig ab!

Nach den Ausführungen von Prof. Lüdecke, sollte man dies unbedingt befolgen, denn wie bekannt ist, gilt:

„It´s Physics, Stupid“

Oder frei übersetzt:

„Es ist eben Physik, Du Dummkopf“

Damit man nicht den ganzen Artikel lesen muss, obwohl es sich lohnt, habe ich in einer Zusammenfassung einige Kapitel der Arbeit in auszugsweisen Zitaten mit den entsprechenden Nummerierungen dargestellt.

 

  1. Die deutsche Energiewende

Die Bundesregierung plante ursprünglich, bis zum Jahr 2050 gegenüber 2008 den Stromverbrauch um 25% zu senken, den Anteil an erneuerbaren Energien am Bruttostromverbrauch auf 80% zu erhöhen, die Treibhausgasemissionen um 80 bis 95% zu verringern und die Zahl der Elektroautos auf 6 Millionen zu steigern…. Elektrische Energie machte 2017 etwa 1/6 der deutschen Primärenergie aus. ….Das Stromnetz selber ist kein Speichermedium. Ohne Speicherung muss Strom zum Zeitpunkt seiner Erzeugung sofort verbraucht werden.

Bemerkung Rainer Link:

Annalena Baerbock, Bundesvorsitzender der Partei „Die Grünen“, glaubt, die elektrische Energie wird in den Stromleitungen gespeichert!

It´sPhysics, Stupid!

Die Energiewende hat mit erheblichen Problemen zu kämpfen. Trotz im Jahre 2017 über 28.000 installierter Windturbinen, deren Nennleistung bereits alle ehemaligen deutschen Kernkraftwerke übertrifft, macht verbrauchter Windstrom dennoch nur etwa 3% der deutschen Primärenergie aus, Sonnenstrom und Strom aus Biomasse jeweils etwa 1%….

Deutschland hat heute die höchsten Strompreise Europas.

 

  1. Energie im Verlauf der Menschheitsgeschichte

…..

  1. Der entscheidende Begriff der Leistungsdichte

Der russische Eisbrecher Arktika wird von zwei kleinen Kernreaktoren an Bord mit einer Gesamtleistung von 55 MW angetrieben. Wollte man die Arktika mit Photovoltaik anstatt mit Uran betreiben, wären rechnerisch 5,5 Quadratkilometer Photovoltaik-Fläche erforderlich, die etwa 10 W Leistung pro m2 Solarpanelenfläche liefert. Mit Windstrom an Stelle von Uran wären 42 Windturbinen des Typs Enercon E 126 erforderlich, jede 198 m hoch und mit einer realen Leistung von 1,3 MW…. Die Frage nach den Gründen für den extrem hohen Aufwand der beide „Erneuerbaren“ Wind und Sonne für den Antrieb der Arktika beantwortet die Leistungsdichte

Leistungsdichte = Leistung / Fläche (1) oder

Leistung = Leistungsdichte x Fläche (2)

… Tabelle 1 zeigt Grobwerte von Leistungsdichten….

Tabelle 1: Leistungsdichten unterschiedlicher Methoden zur Erzeugung von elektrischem Strom, angegeben in W/m2 des Endprodukts  elektrische Energie unter Einbeziehung der jeweiligen Methoden-Wirkungsgrade.

…Neben der Leistungsdichte ist auch die Energiedichte als Energie pro Volumen oder pro Gewicht eine maßgebende Größe. Das Reichweiteproblem von Elektroautos wird mit ihr verständlich. Benzin hat nach Abzug der Wirkungsgradverluste eine Energiedichte von rund 4 kWh/kg, ein Lithium-Ionen- Akku dagegen von 0,18 kWh/kg. Ein Elektroauto muss daher grob das 4/0,18 = 22-fache Treibstoffgewicht eines Benzinautos mit sich führen. Da heute etwa 71% der Güter in Deutschland oft über weite Strecken und mit engen Zeitvorgaben auf der Straße transportiert werden, ist zumindest eine Umwandlung von LkW-Antrieben auf Strom unrealistisch. Hier sind nicht nur das zusätzlich zu transportierende Treibstoffgewicht in Form von Akkus sondern auch die langen Ladezeiten der Batterien die maßgeblichen Hinderungsgründe. Elektroautos sind nur für Innenstadt und Golfplatz sinnvoll.

 

  1. Die entscheidenden Nachteile zu kleiner Leistungsdichte

Bei zu kleiner Leistungsdichte sind sehr große Wirkflächen der betreffenden Methoden erforderlich. Dementsprechend steigt der Aufwand an Energie, Material und Kosten bei Bau und Betrieb, denn diese Wirkflächen müssen mit Technik zugebaut werden. Die folgenden Daten der Großwindanlage Enercon E 126 liefern ein stellvertretendes Beispiel: 198 m Gesamthöhe, überstrichene Propellerfläche 12470 m2 = 1,247 ha, Gewicht 3460 t plus 3500 t Stahlbetonfundament. Drei E 126 haben somit das Gesamtgewicht aller  300 Leopard2 – Panzer von je 68 t der deutschen Bundeswehr. Trotz 7,5 MW Nennleistung liefert die E 126 im bundesdeutschen Orts- und Jahres-Mittel aber nur 1,3 MW elektrische Leistung. Dies entspricht grob 7 Automotoren von je 200 kW.

…Neben der geringen Leistungsdichte des Windes gibt es weitere methodenspezifische Gründe für die erstaunlich geringe Leistungsausbeute aus Wind, die im Abschnitt 9. näher erläutert werden. Man müsste schon mehr als100 km Windturbinen  hintereinanderstellen, um die gleiche jahresgemittelte Leistung wie ein einziges großes Kohle- oder Kernkraftwerk zu erzielen. …..

 

  1. Der Erntefaktor als Maß für Energieeffizienz

Der Erntefaktor, englisch ERoEI (Energy Returned to Energy Invested), quantifiziert die bisherigen Ausführungen. Vereinfacht ausgedrückt ist er das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen.

…..

Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert, auf die sich die Aussagen des vorliegenden Beitrags stützen. Neben der Bedingung ERoEI > 1 gibt es noch die Forderung ERoEI > 7, denn unterhalb von 7 ist eine Methode volkswirtschaftlich nicht mehr sinnvoll….

Bild 2: Erntefaktoren für Methoden der Stromerzeugung gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern.

 

  1. Leistungsdichte bezogen auf Landschaftsfläche

Zur Angabe einer Leistungsdichte gehört die Spezifizierung der Fläche. Für Windturbinen im deutschen Jahres- und Ortsschnitt und ihre Installation in Windparks“ beträgt die Leistungsdichte bezogen auf Landschaftsfläche etwa 1 W/m2.… die zur heutigen Installation an Windrädern gehörige rechnerische Fläche entspricht etwa der Fläche Bayerns. In diesem Zusammenhang ist von Interesse, wie weit ein zukünftiger Windradausbau überhaupt noch gesetzlich zulässig ist. Die entscheidende Größe ist hier der minimale zulässige Abstand eines Windrads zur nächsten Wohnsiedlung. Windräder erzeugen Infraschall, dessen gesundheitsschädigende Wirkung durch wissenschaftliche Untersuchungen belegt ist. Die heute gründlichste Studie über gesundheitsschädliche Auswirkungen von Infraschall auf den Menschen wurde in Zusammenarbeit der Charité Berlin mit der Physikalisch Technischen Bundesanstalt PTT Braunschweig und zwei Hamburger Universitätskliniken erstellt. Die Quellenangaben dieser Studie liefern überdies einen guten Überblick zum heutigen wissenschaftlichen Kenntnisstand.

Wegen Infraschall ist inzwischen in Bayern der Mindestabstand 10 H vorgeschrieben, das bedeutet die zehnfache Gesamthöhe des betreffenden Windrads. Aus der Grafik Abb. 12 auf S. 38 einer Studie des Bundesumweltamts geht hervor, dass bei 2000 m Mindestabstand (dies entspricht 10 H bei 200 m hohen Windrädern) nur noch maximal 0,4% der bundesdeutschen Bodenfläche für den weiteren Windradausbau nutzbar ist. Ausgeschlossene Sondergebiete sind dabei nicht berücksichtig, so dass sich der reale Wert noch etwas verringert.

Der Ausbauplan der Bundesregierung für Windenergie erscheint daher unrealistisch.

 

  1. Die Fluktuation von Wind- und Sonnenstrom

Der zweite Fundamentalmangel von Wind- und Sonnenstrom ist besser bekannt und wird bereits von den Medien thematisiert. Er ist seine Wetterabhängigkeit. Zufallsstrom kann ohne weitere Maßnahmen nicht in das Stromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund für Glättung sorgen würde, hat eine ausführliche VGB-Studie widerlegt. Das gemessene Minimum dieser Studie an geliefertem Windstrom beträgt nur 4% der europaweit installierten Windrad-Nennleistung. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zurVersorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nachheutigem Stand der Technik.“ Diese Backup-Systeme sind heute schnell reagierende Gaskraftwerke (GuD). Diskussionswürdige Stromspeicherlösungen sind nicht in Sicht. Man muss daher für Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, welches die Gesamtkosten dieser „Erneuerbaren“ zumindest verdoppelt…

 Man benötigt also für Windräder und Photovoltaik noch einmal etwa die gleiche Leistung an fossilen Ersatz-Kraftwerken, denn schließlich ist die Lücke zu füllen, wenn Wind und Sonne fehlen…

 

  1. Photovoltaik in Ländern starker Insolation

……..

 

  1. Weitere Gründe für die unzureichende Leistung von Wind und Sonne

…….

 

  1. Eine grundsätzliche Sicherheitsgrenze für Wetter-Fluktuationsstrom

Die bisher geschilderten technischen und wirtschaftlichen Begrenzungen für die „Erneuerbaren“ Wind und Sonne sind zwar prinzipiell keine unüberwindbaren Hürden für ihren weiteren Ausbau, falls man auf Kosten, Naturschutz, Landschaftsschutz und den Gesundheitsschutz von Windradanrainern (Infraschall) keine Rücksichten nimmt. Es existiert allerdings eine Grenze seitens der Netzsicherheit. Grund dafür sind Netzschwankungen auf Grund der unsicheren Stromerzeugung  durch die „Erneuerbaren“ im Bereich von Sekundenbruchteilen bis zu wenigen Sekunden, die zum Zusammenbruch des gesamten Netzes führen können.

…Auch eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW geht auf diese Zusammenhänge ein. Der erforderliche Anteil von Grundlastkraftwerken hängt von der aktuellen Netzstruktur und ferner davon ab, welches Blackout-Risiko man noch toleriert. Die vorgenannte Publikation gibt eine Mindestleistung von 20 GW für den Regelblock Deutschland an. Mit den momentan vorhandenen Grundlastkraftwerken wäre damit die erforderliche Sicherheit noch gegeben. Dies wird sich aber mit zunehmendem Windradausbau, dem gesetzlichen Abschalten weiterer Kernkraftwerke sowie durch die aktuell diskutierte Abschaltung von Kohlekraftwerken in Richtung größerer Instabilität und immer höherer Black-Out-Gefahr ändern.

 

Bemerkung Rainer Link:

Stunden, Tage oder gar wochenlanger Ausfall des Stromes (Black Out) in Regionen Deutschlands ergibt Zustände, die man sich bestimmt nicht wünschen oder gar vorstellen möchte.

Wie gesagt:

It´s Physics, Stupid!!!

PDF:

Die Deutsche Energiewende

 

Filed under: CO2 Emission, Energiewende, Klima, Klima und Umwelt, Wissenschaft, , , , , ,