1

Wenn in ganz Europa die Lichter ausgehen – Überraschung: Auch im Winter kann es Flauten geben

stopthesethings

Der Punkt ist erreicht, an dem seriöse Menschen beginnen, ernsthaft über Stromerzeugung zu sprechen. Europa wurde von Windflaute heimgesucht, und der Strom aus Wind ist, wie vorhersehbar, stark zurückgegangen. Die Katastrophe eines Blackouts, die vor kurzen die Menschen auf dem ganzen Kontinent bedroht hat, wird sich in immer kürzeren Abständen wiederholen.

Die Vorstellung, dass moderne, industrielle Volkswirtschaften mit Sonnenschein und Wind betrieben werden könnten, war schon immer völliger Unsinn. Aber wie der gereizte Teenager, der es auf die harte Tour lernen will, muss sich Europa endlich mit den Konsequenzen auseinandersetzen, wenn man träumerische Ideologien vor bewährte Technik und Ökonomie bevorzugt.

Agorameter Okt2021 Deutschland

https://www.agora-energiewende.de/service/agorameter/chart/power_generation/24.09.2021/25.10.2021/today/

Aktuelle Energieversorgung.  Am 7-8. Okt. betrug der Gesamtbedarf mehr als 76 GW –  Es wurden 6 GW von Wasser und Biomasse geliefert, tagsüber noch etwas Sonnenstrom hinzu. – Der große Rest … wie üblich.

Wir können es uns nicht leisten, unser Land nach den Launen des Winds  auszurichten

RT, Rob Lyons

Europas Verzweiflung eine ideologische Netto-Null zu erreichen, die religiöse Hingabe an erneuerbare Energien wie Wind- und Sonne und ihre unwissenschaftliche Ablehnung der Atomkraft sind ein Rezept für eine unglaublich teure Katastrophe.

Die Energiepreise sind in den letzten Wochen in die Höhe geschossen. Während ein Teil dieses Anstiegs darauf zurückzuführen ist, dass die Weltwirtschaft aus einem durch die Sperrung verursachten Schlummer erwacht, läuten die Alarmglocken darüber, wie große westliche Volkswirtschaften im Wahnsinn in eine „Netto-Null“-Welt zu abhängig von angeblich heilsbringenden „erneuerbaren Energien“ geworden sind.

Das  Wall Street Journal  berichtete Anfang dieser Woche, dass schwache Winde in der Nordsee den Energienetzen große Kopfschmerzen bereiten. „Die plötzliche Verlangsamung der windbetriebenen Stromproduktion vor der Küste Großbritanniens in den letzten Wochen hat die regionalen Energiemärkte erfasst. Gas- und Kohlekraftwerke wurden hinzugezogen, um den Mangel an Wind auszugleichen.“

Bei all den Beschwörungen – und riesigen Subventionen – für erneuerbare Energien in den letzten Jahren sind sie ein Albtraum für eine moderne Gesellschaft geworden, in der rund um die Uhr Energie benötigt wird. Der Wind weht dieses Jahr weniger als sonst. Ein Energieberater erklärte  letzte Woche gegenüber der Financial Times :

„Es ist normal, dass die Winderzeugung saisonal schwankt, aber in diesem Sommer ist die Erzeugung noch niedriger als in den Vorjahren – alles hängt mit dem Sommer zusammen, den wir in ganz Europa hatten, in dem es warm und trocken und weniger windig war.“

Das Bestreben, die Gesellschaft klimaneutral zu machen, hat uns den Elementen ausgeliefert – [wie vor der „industriellen Revolution“ und] das genaue Gegenteil des menschlichen Fortschritts. Darüber hinaus befinden wir uns, wie die deutsche Energiepolitik zeigt, tatsächlich in einer Doppelfalle, denn es gibt nicht nur Windstille, sondern auch viel zu windige Zeiten.

Wie Fans erneuerbarer Energien gerne prahlen, hat in Europa die Stromerzeugung aus Windkraft einen immer größeren Anteil [aufs Jahr gerechnet]. In einem kürzlich erschienenen Artikel in Foreign Policy heißt es:  „…2020 war für Deutschland ein Paradejahr in der Produktion erneuerbarer Energien. Saubere Energiequellen – Windparks und Solaranlagen sowie Wasser- und Biogasanlagen – haben ihren Anteil am Stromverbrauch auf bis zu 46 % erhöht, was fast dem von Kohle, Gas, Öl und Atomkraft zusammen entspricht.“

Aber was passiert, wenn der Wind weht, aber gerade nicht so viel Strom gebraucht wird? Wie der Artikel in Foreign Policy feststellt: „Stürmische Tage können so windig sein, dass die Stromflüsse aus Windparks on- und offshore das Stromnetz überwältigen und sogar zum Zusammenbruch führen. Diese Stromtsunamis können die Stabilität der Energiesysteme auch der Nachbarländer bedrohen. Darüber hinaus können die Preise bei Stromüberschuss im Netz negativ werden und die Netzbetreiber zwingen, Großkunden wie Betreiber von Pumpspeichern für die Abnahme des Stroms zu bezahlen.“ Anstatt Strom zu verkaufen, sind deutsche Stromerzeuger gezwungen, diese Abnehmer dafür zu bezahlen, dass sie diesen Strom nehmen. Das ist die Ökonomie des Wahnsinns.

Aber es kommt noch schlimmer. Die im September 2010 von der Bundesregierung skizzierte Energiewende ist eine Politik der Umstellung auf kohlenstoffarme Energieträger. Der Tsunami mit Ausfall des dortigen Kernkraftwerks in Fukushima führte jedoch ein halbes Jahr nach seinem Ereignis dazu, dass die Regierung auch die deutschen Kernkraftwerke stilllegte und das Land ausschließlich von erneuerbaren Energien abhängig machen will.

Wie ein Artikel im Spiegel von 2019 enthüllte, ist das Resultat enorm teuer. In den vergangenen fünf Jahren hat die Energiewende Deutschland jährlich 32 Milliarden Euro gekostet. Eine in dem Artikel zitierte Schätzung beziffert die Gesamtkosten für die Verfünffachung der deutschen Wind- und Solarleistung auf 3,4 Billionen Euro.

Der Drang, immer mehr Windkraftanlagen zu errichten, provozierte laut den Autoren eine Gegenreaktion derer, die sowohl im Schatten dieser riesigen Maschinen lebten als auch immer mehr Kabel und Masten ertragen mussten, die sich über die Landschaft ausbreiteten. „Die Politiker fürchten den Widerstand der Bürger. Es gibt kaum ein Windenergieprojekt, das nicht bekämpft wird.“

Führen all diese Ausgaben zu geringeren Emissionen? Überhaupt nicht. Tatsächlich sind die Emissionen in Deutschland gestiegen, weil durch die Abschaffung der Kernkraft etwas anderes geschaffen werden musste, um die Lücken zu füllen, wenn der Wind nicht weht und die Sonne nicht scheint. Da war etwas anderes– warten Sie… – Kohle. Deutschland damit abhängig von den CO2 absondernden fossilen Brennstoffen geworden, dass die Regierung im vergangenen Jahr angekündigt hat, die Kohle erst 2038 auslaufen zu lassen.

Es ist eine Sache, erneuerbare Energien ins Stromnetz aufzunehmen. Wenn der Wind mit der richtigen Geschwindigkeit bläst und die richtige Nachfrage besteht, können sich Umweltschützer damit rühmen, dass die Stromerzeugung „kohlenstofffrei“ ist. Aber wenn die Nachfrage zu groß ist, müssen diese – noch vorhandenen, fossil befeuerten Gas- und Kohlekraftwerke mit großem Aufwand erst angeheizt werden. Die Anlagenbesitzer können Strom heutzutage nur für kürzere Zeiträume, oft unbekannter Dauer verkaufen [Einspeisevorrang, wenn wieder mal Wind oder Sonne da ist]. Trotz allem müssen die Kosten gedeckt werden. Und wenn die Nachfrage zu gering ist, wird Strom im Netz „verklappt“ (siehe oben), was ebenfalls Geld kostet.

Wind- und Solarenergie können eine moderne Wirtschaft einfach nicht zuverlässig und wirtschaftlich antreiben. Eine Möglichkeit, das Problem zu umgehen, besteht darin, Holz zu verbrennen (möglicherweise noch schlimmer für die Emissionen als Kohle) und zu behaupten, es sei kohlenstoffarm und erneuerbar, weil man dann wieder Bäume pflanzt, die Kohlenstoff aus der Atmosphäre aufnehmen. Selbst der Öko-Wachhund der britischen Regierung, der Committee on Climate Change [~Ausschuss für Klimaänderungen], glaubt das nicht und forderte 2018, dass große Biomasseanlagen vermieden werden sollten, es sei denn, sie werden von einer CO2-Abscheidung und -Speicherung begleitet.

Deutschland war eines der reichsten Länder der Welt. Aber selbst umweltfreundliche Deutsche beginnen zu erkennen, dass die derzeitige kohlenstoffarme Technologie – abgesehen von Kernkraft – zu teuer und unzuverlässig ist. Wenn angesichts eines so grundlegenden Problems die Politik zur CO2-Reduzierung beibehalten wird, wird das Ergebnis eine teure Katastrophe sein.

RT

https://stopthesethings.com/2021/10/20/when-the-lights-go-out-across-europe-wind-power-droughts-promise-mass-blackouts/

Übersetzt durch Andreas Demmig




Klimarückschlag in USA: Energie aus Kohle nimmt zu, wenn die Erdgaspreise steigen

Von Valerie Richardson – The Washington Times – Montag, 18. Oktober 2021

In den USA stieg die Stromerzeugung aus Kohle in diesem Jahr zum ersten Mal seit der Obama-Regierung an, angetrieben durch steigende Erdgaspreise – ein Rückschlag für die Biden-Klimaagenda und ein Zeichen dafür, dass das Vorgehen des Präsidenten bezüglich Verbot von „Fracking“ nach hinten losgehen könnte.

Die US Energy Information Agentur veröffentlichte die neuesten Statistiken, darin wird informiert, dass die durch Kohlekraftwerke erzeugte Elektrizität 2021 voraussichtlich um 22 % über dem Niveau des Vorjahres steigen wird, was den ersten Anstieg gegenüber dem Vorjahr seit 2014 darstellt.

Der Grund: Die Erdgaspreise begannen im April zu steigen und erreichten im Oktober ein 13-jähriges Hoch, angeheizt durch eine aufgestaute Nachfrage nach Produktengegen Ende(?) der Pandemie.

„Der US Energiemarkt nutzt in diesem Jahr mehr Strom aus Kohlekraftwerken, als Folge der deutlich gestiegenen Erdgaspreise und relativ stabiler Kohlepreise.“ So der kurzfristige Energieausblick der EIA im Oktober.

Angesichts der Tatsache, dass Erdgas bei der Verbrennung 50 bis 60 % weniger Kohlendioxid emittiert als Kohle, bedeutet der Anstieg der Kohleverbrennung für Präsident Biden einen Schritt in die falsche Richtung . Die Reduzierung der Treibhausgasemissionen zur Bekämpfung des Klimawandels ist ein Eckpfeiler seiner Agenda.

Auch in China und Europa erlebt Kohle ein Comeback . Der Übergang zu grüner Energie hat in einigen europäischen Ländern die Energiekrise verschärft.

„Es ist kein Geheimnis, dass der sauberste und zuverlässigste Brennstoff – Atomkraft – von den Grünen ermordet wurde“, sagte Clarice Feldman in einem Kommentar vom 10. Oktober im American Thinker. „Dann wurde Erdgas, das zweitsauberste, ihr Ziel, und jetzt suchen viele Orte verzweifelt nach Kohle, der angeblich schlechtesten Option.“

Die EIA prognostizierte, dass die US-Kohlewelle nur von kurzer Dauer sein werde, da die Versorgungsunternehmen seit 2010 etwa 30 % ihrer Kohleerzeugungskapazität stillgelegt haben. Seit 2013 wurden keine Kohlekraftwerke mehr [in USA] gebaut.

 „Für 2022 prognostizieren wir, dass die US-Kohleerzeugung als Reaktion auf die anhaltende Stilllegung von Erzeugungskapazitäten in Kohlekraftwerken und leicht zurückgehender Erdgaspreise um etwa 5 % zurückgehen wird“, so die unabhängige Daten- und Analyseabteilung des Energie Ministeriums.

Die US-CO2 Emissionen sind seit 2005 stetig zurückgegangen, vor allem dank des Übergangs von Kohle zu Erdgas bei der Stromerzeugung, angetrieben durch die reichlich vorhandenen einheimischen Vorräte, die durch die Schieferrevolution [… Fracking] erschlossen wurden.

Die Environmental Protection Agency [Umweltministerium] berichtete im April 2020, dass die gesamten Treibhausgasemissionen von 2005 bis 2018 um 10 % und die Emissionen des Stromsektors um 27 % gesunken sind.

Seit seinem Amtsantritt im Januar 2021 hat Herr Biden die Nutzung von fossilen Brennstoffen erschwert bzw. blockiert, zugunsten von Solar- und Windenergie. Seine Regierung hat von Kapitalinvestitionen in Bohrungen abgeraten. Dennoch steigt die weltweite Nachfrage nach Erdgas, da sich die Nationen von den Pandemie-shutdowns erholen.

Myron Ebell, Direktor des Zentrums für Energie und Umwelt am Competitive Enterprise Institute des freien Marktes, sagte, die Politik der Regierung habe den Energiemarkt behindert.

„Angesichts eines höheren Bedarfs an Wärme, Strom und Benzin in diesem Winter könnten Schieferproduzenten normalerweise innerhalb von sechs Monaten mit einer Produktionssteigerung reagieren“, sagte Ebell. „Aber die von der Biden-Harris-Regierung bereits ergriffenen Maßnahmen haben Investoren und Produzenten dazu gebracht, keine größeren Investitionen in neue Bohrungen zu tätigen, wenn die langfristigen Aussichten auf eine Kapitalrendite so risikoreich erscheinen.“

Am Donnerstag veröffentlichte das Weiße Haus seinen „Fahrplan für eine klimaresistente Wirtschaft“, der die Mobilisierung privater und öffentlicher Institutionen umfasst, um „klimabedingte finanzielle Risiken anzugehen“.

„Wenn uns dieses Jahr etwas gezeigt hat, dann ist es, dass der Klimawandel ein anhaltendes dringendes und systemisches Risiko für unsere Wirtschaft und das Leben und den Lebensunterhalt der normalen Amerikaner darstellt, und wir müssen jetzt handeln“, sagte die nationale Klimaberaterin des Weißen Hauses, Gina McCarthy, gegenüber Reportern.

Kathleen Sgamma, Präsidentin der Western Energy Alliance, warnte, dass das von Biden unterstützte Infrastrukturgesetz „die gleiche Energiepolitik enthält, die in diesem Winter Europa bedroht und hohe Energiepreise und Engpässe verursacht“.

„Insbesondere unterdrückt die Biden-Regierung Investitionen in Erdgas, indem siediese  überreguliert und den Zugang zu Kapital verweigert“, sagte Frau Sgamma. „Die Produzenten würden sehr gerne dazu beitragen, die hohen Preise zu senken, indem sie in neue Produktion investieren, aber ihnen wird Kapital verweigert.“

Mit den ersten Maßnahmen nach Amtsantritt, stornierte Herr Biden die Keystone-XL-Pipeline [von den Ölsandvorkommen in Alberta, Kanada zu Erdölraffinerien in den US-Bundesstaaten Illinois, Oklahoma und Nebraska] und neue Bohrgenehmigungen auf Bundesland. Die Securities and Exchange Commission (US-Börsenaufsichtsbehörde) hat im vergangenen Monat damit begonnen, Unternehmen unter Druck zu setzen.

„Die SEC plant Vorschriften um die Finanzmärkte neu auszurichten,um Überlegungen zum Klimawandel über die Marktrendite zu stellen“, sagte Frau Sgamma. „Dies ist eine Erweiterung des Aktionärs- und Klimaschutzaktivismus, der Banken und andere Finanzinstitute unter Druck gesetzt hat, Öl und Erdgas aus ihren Portfolios zu streichen.“

Sie nannte BNP Paribas und Bank of the West als Beispiele für Investoren, „die öffentlich keine weitere Finanzierung fossiler Brennstoffe angekündigt haben“.

„Ungefähr 80 % der US-Energieerzeugung stammen aus Kohle, Erdöl und Erdgas, aber „die US-Erdgaspreise waren volatiler als die Kohlepreise, daher bestimmen die Erdgaskosten oft den relativen Anteil von Erdgas und Kohle an der Erzeugung. “, die EIA-Analyse.

„Zwischen 2015 und 2020 blieben die Kosten für Erdgas, das an Stromerzeuger geliefert wurde, relativ niedrig und stabil. In diesem Jahr waren die Erdgaspreise jedoch deutlich höher als in den letzten Jahren. Die Kosten für die Lieferung von Erdgas an US-Kraftwerke seit Jahresbeginn beliefen sich auf durchschnittlich 4,93 US-Dollar pro Million britischer thermischer Einheiten (Btu), mehr als das Doppelte des Preises im letzten Jahr.“

Stan Dempsey, Präsident der Colorado Mining Association, sagte, die zunehmende Abhängigkeit von Kohle sei eine Erinnerung daran,

dass „aus Kohle erzeugter kostengünstiger Strom den Amerikanern weiterhin als zuverlässigste Energiequelle dient. Es ist noch nicht zu spät, den Trend der vorzeitigen Schließung von Kohlekraftwerken und Kohlebergwerken umzukehren, insbesondere wenn die Stromversorger versuchen, die für den bevorstehenden Winter benötigte Energie zu sichern“.

https://www.washingtontimes.com/news/2021/oct/18/climate-backfire-coal-fired-power-jumps-natural-ga/

Übersetzt durch Andreas Demmig

 

Interessanter Hinweis zum Bagger 255 des Aufmacher Bildes

https://de.wikipedia.org/wiki/Bagger_255

 




Die jahrelange unverantwortliche Vernachlässigung der Energieversorgung, hat Großbritannien „Putin ausgeliefert“

Net Zero Watch

London, 18. Oktober – Net Zero Watch warf der Regierung heute vor, die eigene Erdgasförderung aus der Nordsee und den riesigen britischen Schiefergasbecken bereits jahrelang unverantwortlich zu vernachlässigen und sich stattdessen auf unzuverlässige erneuerbare Energien zu konzentrieren.

Die Energiekrise und der Mangel an Gas im Vereinigten Königreich ist mittlerweile so schwerwiegend, dass offen diskutiert wird, Erdgas an industrielle Verbraucher zu rationieren, um die Versorgung für die Stromerzeugung und für die Hauswärmeversorgung zu sichern.

Als erstaunlicher Beweis für die Schwäche des Westens und Großbritanniens, gibt es inzwischen sogar eine offene Diskussion über die aufkommende Notwendigkeit, mit Russland „einen Deal zu machen“. [Anmelde-Notwendigkeit … telegraph.uk]

In BBCs Andrew Marr-Show gestern (17. Oktober) bot der russische Botschafter an, dem Vereinigten Königreich mit Notlieferungen von Gas, „die schwierigen Bedingungen“ im Land zu lindern.

[Der Aufmacher des DailyMail.uk beginnt mit:

  • Russlands Botschafter Andrei Kelin bestritt, dass Russland Gaslieferungen zurückhält
  • Er sagte auch, dass in Russland noch keine Entscheidung getroffen wurde, ob Putin an der Cop26-Klimakonferenz in Glasgow teilnehmen wird
  • Herr Kelin enthüllte auch, dass Russland „keine Eile“ hat, um Netto-Null-Emissionen zu erreichen

]

Der Botschafter stellte fest, dass Gazprom derzeit 3% des britischen Gasmarktes beliefert, dass sie jedoch offen für die „Gelegenheit“ wäre, diesen Anteil in der aktuellen Krise zu erhöhen.

Die britische Erdgasförderung ist seit dem Jahr 2000 um über 60 % zurückgegangen, wie die folgende offizielle Regierungsgrafik zeigt.

Abbildung : Gasförderung im Vereinigten Königreich 1999-2020. Quelle: BEIS Digest of UK Energy Statistics (DUKES 2021).

Trotz dieses Rückgangs und der Tatsache, dass Erdgas als Backup-Energie für Wind- und Solarenergie unverzichtbar ist, hat sich die britische Regierung geweigert, verbleibende Felder in der Nordsee zu erschließen. Kürzlich wurde für das Gasfeld Jackdaw, die Genehmigung verweigert und was noch schlimmer ist, die Erschließung von Schiefergasreserven wurde verboten.

Dr. Benny Peiser, Direktor von Net Zero Watch, sagte:

„Unpraktische und utopische Klimapolitiken haben zu einem wachsenden Risiko für die britische Gasversorgung und die nationale Sicherheit geführt und Großbritannien der Gnade Putins Russland ausgeliefert. Das war absolut vorhersehbar und es ist fast zu spät, das Problem kurzfristig zu beheben.

Unabhängig vom UN-Klimagipfel im November (COP26) muss die Regierung jetzt der nationalen Sicherheit Priorität einräumen, die Nordsee-Gasexploration sofort wieder aufnehmen und das effektive Verbot der Förderung von Schiefergas aufgeben.“

https://www.netzerowatch.com/net-zero-watch-governments-years-of-irresponsible-neglect-has-left-britain-at-mercy-of-putin/

Übersetzt durch Andreas Demmig




Die vielen [bislang bekannten] Parameter, die das Klima steuern: das „Klima-Metamodell“

Henri Masson

Das Metamodell versucht, die verschiedenen Theorien zu einem zusammenhängenden Ganzen zu verbinden. Das Ergebnis ist ein komplexes Netzwerk, in dem tatsächlich die Verbindungen (Pfeile) zwischen den Konzepten wichtiger sind als die Konzepte selbst.


Vor kurzem, übersetzte Chris Frey für unsere Leser bereits einen Meinungskommentar der Website science, climat et énergie (SCE) zum Grund der Auszeichnung des diesjährigen Nobelpreises.

https://klima.live/2021/10/14/ein-nobelpreis-fuer-mathematische-modelle/

Verlinkt war die Ausarbeitung von Henri Masson, über sein Klima-Metamodell


Die vielen [bislang bekannten] Parameter, die das Klima steuern: das „Klima-Metamodell“.

Henri Masson

Die grundlegende Energiequelle für das Klimasystem der Erde ist die Sonne. Die Intensität der Strahlung, die die Erdoberfläche erreicht, hängt von mehreren Faktoren ab:

  • Schwankungen in der abgestrahlten Sonnenenergie, die offensichtlich von der Position der Sonne im Verhältnis zum Massenschwerpunkt des Sonnensystems abhängen (was zu Torsionsspannungen zwischen den verschiedenen Schichten der Sonne führen würde) und somit vom begleitenden Gravitationskraftfeld (in der Himmelsmechanik wird die Untersuchung dieses Problems als „N-Körper-Problem“ bezeichnet, wobei N die Anzahl der betrachteten Himmelsobjekte ist; für das 3-Körper-Problem ist keine analytische Lösung bekannt, und sein Verhalten weist bereits chaotische Züge auf. Die Situation wird mit zunehmender Anzahl von Objekten immer komplexer. Die Keplerschen Gesetze liefern eine ungefähre Beschreibung des Zweikörperproblems). Der IPCC vernachlässigt diese Schwankungen und ihre charakteristischen (ungefähren) Zyklen (11 Jahre, 60 Jahre usw.).
  • Der Neigungswinkel der einfallenden Sonnenstrahlen hängt von der Jahreszeit und vom Breitengrad ab, deren Schwankungen jedoch von den Bahnen und von der stabilisierenden Kreiselwirkung des Mondes auf die Erde (und damit letztendlich vom Gravitationsfeld) abhängen. Dieser Faktor wird vom IPCC als konstant angenommen
  • Die Expositionsdauer, verbunden mit der Rotationsgeschwindigkeit der Erde, ist ein weiterer Faktor, dessen Schwankungen von den Gravitationskräften abhängen. Dieser Faktor wird vom IPCC als konstant angenommen
  • Die Absorption von Sonnenstrahlung und von der Erde reemittierter IR-Strahlung durch Treibhausgase (die Hauptursache, wenn nicht sogar die einzige Ursache der globalen Erwärmung, wenn wir dem IPCC glauben dürfen)
  • Bewölkung, abhängig von lokaler Hygroskopie und Temperatur (Definition des Kondensationspunktes von Wasserdampf). Die Keimbildung der wolkenbildenden Wassertropfen hängt von der Anwesenheit von Aerosolen (Mikrotropfen von Sulfaten und anderen organischen Schwefelverbindungen) und kosmischer Strahlung ab. (Svenmark-Hypothese, validiert durch das CERN CLOUD-Experiment). Kosmische Strahlung wird durch die Explosion entfernter Sterne erzeugt und von den solaren und terrestrischen Magnetfeldern mehr oder weniger abgelenkt. Wolken spielen eine wichtige thermostatische Rolle: Sie fungieren tagsüber als Jalousie, die einen Teil der einfallenden Sonnenstrahlung reflektieren und absorbieren und nachts als Abdeckung, indem sie die von ihnen emittierte Infrarotstrahlung an den Boden zurückgibt. Auf diese Weise begrenzen die Wolken die Temperaturschwankungen zwischen Tag und Nacht. Die schlechte Beschreibung der Wirkung von Wolken ist eine anerkannte Schwäche der IPCC-Modelle
  • Der Einschlag eines sehr großen Meteoriten (glücklicherweise extrem seltenes Ereignis) auf der Erde würde enorme Mengen an Staub und Hitze erzeugen. Einige haben die Hypothese aufgestellt, dass das große Aussterben (von Dinosauriern zum Beispiel) auf den Fall eines Mega-Meteoriten in Yucatan (Mexiko) zurückzuführen ist. Dieser Faktor wird vom IPCC für die Industrieperiode, auf die er seine Arbeit konzentriert, als nicht relevant erachtet.

Außerdem,

  • Die Farbe der Erdoberfläche ( seine Albedo ) definiert den Anteil der empfangenen Strahlungswärme, der von der Oberfläche reflektiert oder absorbiert wird. Besonders wichtig sind schneebedeckte oder eisbedeckte Oberflächen (Gletscher, Eiskappen), also weiß, die fast das gesamte empfangene Licht reflektieren. Diese eisige Oberfläche wird mehr oder weniger der Sonnenstrahlung ausgesetzt, die sie mit einer Geschwindigkeit und einer Intensität aufschmilzt, die insbesondere vom Winkel dieser Oberflächen in Bezug auf die Sonnenstrahlung abhängt und je nach Breitengrad und Neigungsänderungen variiert der Rotationswinkel der Erde (resultierend aus dem Gravitationsfeld). Dieser Faktor wird vom IPCC als konstant angenommen.
  • Die Ozeane sind ein riesiges Reservoir an Wasser, gelösten Gasen und Wärme. Das Herzstück des Temperaturregulierungsmechanismus (der Klimathermostat) befindet sich an der Schnittstelle Ozean-Atmosphäre; es entsteht durch Wärmeaustausch und die Verdunstung-Kondensation von Wasserdampf, möglicherweise Wolkenbildung. Darüber hinaus werden die Ozeane von starken Strömungen durchzogen, die das warme Oberflächenwasser der intertropischen Zonen in die Tiefe und in kältere Breiten verteilen, wodurch es möglich wird, den von der Erde aufgenommenen Wärmefluss etwas zu homogenisieren.
  • Die Biosphäre: Die Ausdehnung bewaldeter oder kultivierter Flächen von Pflanzen, der Tiere durch ihre Nahrungssuche und Wanderungen sowie der Mensch haben Einfluss auf die Landnutzung und damit auf deren Albedo. Pflanzen verändern durch Photosynthese, Tiere und Menschen durch ihre Treibhausgasemissionen (sei es physiologischer oder industrieller Natur) die Zusammensetzung der Atmosphäre, die laut IPCC die Temperatur des Planeten erheblich verändern kann
  • Vulkane, deren Eruptionen zu erheblichen Wasserdampf- und Staubemissionen führen, stören die Wolkendecke und die Gesamttransparenz der Atmosphäre (Sandsturmeffekt). Aber auch die Albedo von eisigen Oberflächen, auf denen sich Vulkanstaub absetzen kann, wodurch die von den gefrorenen Oberflächen aufgenommene Wärme erhöht wird, was ihr Schmelzen beschleunigt. Der größte Teil der vulkanischen Aktivität findet entlang der Kreuzungen der tektonischen Platten statt, insbesondere entlang des „Feuerrings“, der den Pazifik umgibt. Man kann sich vorstellen, dass Fluktuationen des auf die Erde einwirkenden Gravitationsfeldes Spannungen an der Grenzfläche dieser tektonischen Platten erzeugen, die bei einer Verwerfung einen Lavastrom auslösen. Außerdem, nicht zu übersehen ist die Existenz einer beträchtlichen (aber kaum bekannten) Zahl von unterseeischen Vulkanen, deren Emanationen die Zusammensetzung der Ozeane lokal verändern und ihre Temperatur erhöhen und letztendlich den Wärmeaustausch lokal beeinflussen. Dieser Faktor wird vom IPCC als konstant und nicht sehr wichtig angenommen

Das Metamodell versucht, die verschiedenen Theorien zu einem zusammenhängenden Ganzen zu verbinden. Das Ergebnis ist ein komplexes Netzwerk, in dem tatsächlich die Verbindungen (Pfeile) zwischen den Konzepten wichtiger sind als die Konzepte selbst. Die Systemtheorie erlaubt auch sehr schnell eine qualitative Analyse von Ursachen und Wirkungen. In der Tat sendet eine Ursache Pfeile aus, empfängt aber keine; Umgekehrt erhält ein Effekt Pfeile, sendet aber keine aus. Die Abbildung zeigt deutlich, dass:

  • Die „Ursachen“ stehen ganz oben im Diagramm: kosmische Strahlung, Gravitations- und Magnetfelder (die beiden hängen auf eine Weise zusammen, die die Physik noch nicht überzeugend erklären kann) sowie der gelegentliche Meteoriteneinschlag (einschließlich der Flugbahn) hängt vom Gravitationsfeld ab. All diese Faktoren sind schwer von Regierungen zu besteuern, die den Planeten retten wollen, indem sie eine Energiesteuer einführen, die tugendhaft sein soll.
  • Temperatur und CO2-Emissionen liegen inmitten eines Netzes von ein- und ausgehenden Pfeilen. Weder CO2 noch Temperatur wirken gegenseitig als Ursache oder Wirkung; es sind Relaisvariable, die beide von sehr vielen Faktoren direkt und vor allem indirekt über zahlreiche Rückkopplungsschleifen abhängen, deren erschöpfende Bestandsaufnahme noch zu erstellen ist. Es wäre mathematisch riskant zu versuchen, das eine (zB die Temperatur) zu verändern, indem man auf das andere einwirkt (zB das anthropogene CO2 reduziert). Der Effekt ist strukturell nicht vorhersehbar: nicht vorhanden, mehr oder weniger positiv oder mehr oder weniger negativ
  • Angesichts der Pfeile, die in diese Konzepte ein- und ausgehen, spielen die Schnittstelle Ozean-Atmosphäre und Wolken eine wichtige Rolle bei der Regulierung und Umverteilung von Energie im System. Ihr Studium sollte von Entscheidungsträgern bei der Vergabe von Forschungsgeldern in der Klimatologie als Priorität angesehen werden.

Angesichts der ausweglosen Situation bei den vom IPCC verwendeten Klimamodellen ist jedoch ein Paradigmenwechsel erforderlich. Ein Ansatz könnte darin bestehen, die mathematischen Modelle von Grund auf neu zu entwickeln. Dies würde bedeuten, nicht von einem lokalen Gleichgewicht in jeder Zelle auszugehen und dabei die Navier Stokes Gleichungen zu verwenden, um die Zellen miteinander zu verbinden. Vielmehr sollte man zuerst versuchen, die Struktur des Klimasystems zu verstehen und im zweiten Schritt seine innewohnende Dynamik zu analysieren. Dabei sollte man die zur Analyse komplexer Netze angebotenen Werkzeuge verwenden und die zugehörigen Übertragungsfunktionen identifizieren. Man verbindet somit ein Konzept mit einem weiteren durch Umkehrung der Faltungsfunktionen der hier maßgebenden Zeitreihen. Unglücklicherweise sind diese physikalisch-mathematischen Disziplinen (noch) nicht Gegenstand der akademischen Ausbildung von Meteorologen.

Geschrieben von Henri Masson, Professor (emeritus) an der Universität Antwerpen

https://www.science-climat-energie.be/un-meta-modele-climatique/

Übersetzt durch Andreas Demmig




So erstellen Sie Ihre Hockeyschläger-Grafik

Henri Masson, Professor (emeritus) an der Universität Antwerpen

Einführung

Dieser Aufsatz ist eine Reaktion auf die Wiedereinführung einer Hockeyschlägerkurve durch das IPCC in die SPM (Summary for Policy Makers) im AR6. Ursprünglich von Michael Mann in AR4 eingeführt und in AR5 nach der verheerenden Analyse von Mc Intyre, der die methodischen Mängel von Michael Mann aufzeigt, verschwunden war. Diese neue Kurve scheint im erweiterten Bericht AR6 nicht zu erscheinen, was einige Zweifel an ihrer wissenschaftlichen Bedeutung aufkommen lässt.

Aber gleichzeitig liegt diese manipulierte Grafik dem politischen Ziel des IPCC zugrunde, als Massen-Manipulationswaffe die Medien zu alarmieren und die Leute zu ängstigen. All dies rechtfertigt einen tieferen Einblick in die Methoden, die der IPCC verwendet, um diese Grafik zu generieren.

Fig 1- IPCC graph von summary for police makers an deciders SPM AR6 (source: https://www.ipcc.ch/assessment-report/ar6/) [… beispielslose Erwärmung …]

Die vom IPCC zur Konstruktion dieser Kurve verwendeten Daten sind eine Kombination aus vielen Proxys für die Daten aus der Vergangenheit und direkten Temperaturmessungen für die neuesten Daten (nach 1980).

Steve Mc Intyre hat diese neue Hockeyschlägerkurve in https://climateaudit.org/ bereits wissenschaftlich entlarvt .

In diesem Aufsatz wollen wir nun anhand eines fiktiven Beispiels, einige gängige methodische Tricks demonstrieren, die verwendet werden, um eine solche Kurve zu erstellen. Aus Spaß an der Übung werden wir uns in die Lage eines IPCC-Klimatologen versetzen, der die Datenwissenschaft entdeckt, in einem Buch mit einfachem „Data Mining für Dummies“ oder ähnliches.

Die parodistischen Teile dieses Aufsatzes sind kursiv geschrieben und in Wortkästen eingefügt, um Verwechslungen zu vermeiden.

Der illustrative Fall

In dieser Arbeit wird angenommen, dass die Geschichte der Temperaturanomalien durch Überlagerung von 3 Sinusoiden vernünftig simuliert werden könnte, was es ermöglicht, das mittelalterliche Optimum (~ Jahr 1 350), Maunder (~ Jahr 1650) und Dalton (~ Jahr 1820) Minimum und die gegenwärtige „Pause (oder „hiatus“) sehr angenähert zu reproduzieren, wie in Abbildung 2 gezeigt.

Wie bei meinen angesehenen Kollegen vom IPCC, müssen diese natürlichen Schwankungen vom menschlichen (anthropotischen) Beitrag getrennt werden; diese natürlichen Schwankungen müssen als unbedeutendes Rauschen betrachtet und als solches behandelt werden.

Tabelle 1 enthält Details zu den Parametern, die verwendet wurden, um diese Sinuskurven zu konstruieren.

Abbildung 2- Simulierte Temperaturaufzeichnung  unter Verwendung von 3 Sinussoids

Amplitude 2 0,4 0,2
Periode (Jahre) 725 180 60
Initialphase (grad) 260 60 60

Tabelle 1- Parameter der 3 im Modell verwendeten Sinussoids

Proxys sind, wie der Name schon sagt, ungefähre Schätzwerte für die Temperatur, aber leider für einige von ihnen auch für andere Faktoren wie Feuchtigkeit usw. Die über diese Proxys durchgeführten Messungen werden daher ernsthaft durch Rauschen verfälscht.

In der vorliegenden Arbeit wurden die Messungen von 50 Proxies simuliert, indem das „wahre Signal“ mit Zufallsrauschen multipliziert wurde. Diese Multiplikation entspricht Kalibrierungsfehlern der Proxys. Für den betrachteten Fall lagen diese Zufallsvariablen im Bereich von -2 bis +2 und verteilten sich über einen Zeitraum von 1100 Jahren, der von 1 000 bis 2 100 Jahren dauerte, mit einer zeitlichen Auflösung von einem Jahr.

Abb. 3 zeigt die „Messdaten“, wie sie von den 50 einzelnen Proxys erhoben wurden.

Abb. 3- Von den 50 verschiedenen Proxys gesammelte Daten

Wir alle wissen beim IPCC, dass Proxys mit viel Rauschen versehen sind. Lassen Sie uns also ihren Mittelwert und ihre Standardabweichung berechnen, wie es in der Sekundarschule gelernt wurde.

Für jedes Jahr wurden Mittelwert, Standardabweichung und Konfidenzintervalle der „gemessenen“ Daten gebildet. Die Konfidenzintervalle wurden willkürlich als Mittelwert + – Standardabweichung definiert, obwohl die Verteilung der „gemessenen“ Daten um die Summe der 3 Sinuskurven, die die „wahren“ Daten simulieren, gleichmäßig ist und keine Gauß-Verteilung.

Datenreduzierung

Abb. 4 überlagert die gemittelten simulierten Daten, wie sie von den Proxies gesehen werden, mit ihrer mittleren Standardabweichung. Einige Punkte der simulierten Daten überschreiten die durch die Standardabweichung gegebenen Grenzen.

In dem Vulgarisierungsbuch (Vereinfachungs Anleitung), das ich geöffnet habe, um ein wenig über Data Mining zu lernen (nicht mein Spezialgebiet, ich bin Glaziologe), habe ich entdeckt, dass Sie Ihre Daten bereinigen und Ausreißer entfernen müssen, die als „Schurken“-Punkte angesehen werden, weil diese Punkte wahrscheinlich von einem experimentellen Fehler resultieren. Seltsamerweise scheinen meine Daten in Zyklen „gepulst“ zu sein.

Durch einen Blick in Wikipedia habe ich festgestellt, dass eine bessere Methode zum Bereinigen der Daten mit einigen Ausreißern und Zyklen darin besteht, eine Trendentfernungstechnik anzuwenden, und dass die Verwendung von gleitenden Durchschnitten für diesen Zweck gängige Praxis ist (https://en.wikipedia .org/wiki/Moving_average ).

Abb. 5- Daten, gemessen durch Proxys und Glättungskurven des gleitenden 30-Jahres-Durchschnitts. Der zentrierte gleitende Durchschnitt reduziert „Randeffekte“ am Anfang und am Ende des Zeitfensters.

Glücklicherweise verbessert sich die Genauigkeit der Temperaturmessungen mit der Zeit; Seit 1980 verfügen wir über zuverlässige Thermometermesswerte, die durch Satellitenmessungen der NASA bestätigt werden.

Auf der anderen Seite sind wir uns alle beim IPCC einig, dass es außer eines massiven Beitrags anthropischer Treibhausgase, keine andere Erklärung für den enormen und extrem schnellen Temperaturanstieg gibt, den wir seit diesem Datum beobachtet haben.

Ab 1980 stellen unsere Daten somit die aktuellen Anomalien dar, und  es ist absolut legitim, die gemessenen Temperaturen seit diesem Datum zu den trendbereinigten Daten der Proxys hinzuzufügen.

Bei einer solchen Kurve bin ich mir ziemlich sicher, dass es leicht sein muss, die politischen Entscheidungsträger, die an der kommenden COP26 in Glasgow teilnehmen werden, davon zu überzeugen, viel Geld auf den Tisch zu legen. Dies wird natürlich in gewisser Weise „kaskadieren“, als nette weitere Zuschüsse für meine Forschungsaktivitäten, die vor dem Klima-Hype eher vertraulich blieben. Wenn nicht, muss ich mir einen anderen Job suchen.

Abb. 4- Zusammenfassung der Daten. In Rot die „gemessenen“ Daten und in Grau die Standardabweichung des Proxy-Rauschens (und seiner Symmetrie). Einige der Daten liegen außerhalb des (ungefähren) Konfidenzintervalls. Auch die Streuung der Daten ist im Laufe der Zeit nicht konstant, was für einen Auswerter von Daten, der die Existenz natürlicher Zyklen von Bedeutung nicht ahnt, eine Trendbeseitigung rechtfertigt.

Wenn man bedenkt, dass die WMO [Weltorganisation für Meteorologie, eine Sonderorganisation der Vereinten Nationen] die Absicherung zwischen Meteorologie und Klima auf eine Dauer von 30 Jahren gesetzt hat, erscheint es mir logisch und kohärent, die Daten mit einem gleitenden Durchschnitt einer Gesamtlänge von 30 Jahren zu glätten und auf diesen Weise jede meteorologische Störung zu eliminieren.

In Analogie zum Konzept der globalen Temperaturanomalie (und ich schaute erneut in Wikipedia, um mein Gedächtnis über dieses spezifische Konzept aufzufrischen, das wir beim IPCC ausgiebig als einzigen Klimaindikator verwenden: https://en.wikipedia.org/wiki/Temperature_anomaly), scheint eine Glättung der Daten durch einen rückwärts gleitenden Durchschnitt das am meisten angezeigte Verfahren zu sein. Um jedoch meine Computerkenntnisse zu zeigen, habe ich die in Abb. 5 gezeigte Grafik erstellt, in der ich die gemittelten „gemessenen“ Daten mit einem rückwärts, vorwärts und zentrierten gleitenden Durchschnitt von 30 Jahren vergleiche. Offensichtlich bietet die zentrierte Einstellung die beste Anpassung, indem sie die „Randeffekte“ am Anfang und am Ende des betrachteten Zeitfensters reduziert; Da ich vor meinen Kollegen als Perfektionist gelten möchte, werde ich dieses Verfahren übernehmen .

Auch in Anbetracht der Tatsache, dass meine Kollegen am IPCC den anthropischen Beitrag zum Klimawandel vom natürlichen trennen und sich nur auf den ersten konzentrieren, bin ich überzeugt, dass dieser zentrierte gleitende Durchschnitt ein zuverlässiges Bild des anthropischen Beitrags zum Klima liefern wird; und offensichtlich besteht unter uns Einigkeit darüber, dass der anthropische Beitrag vor der industriellen Revolution vernachlässigbar ist.

Abb. 5- Daten, gemessen durch Proxys und Glättungskurven des gleitenden 30-Jahres-Durchschnitts. Der zentrierte gleitende Durchschnitt reduziert „Randeffekte“ am Anfang und am Ende des Zeitfensters.

 

Glücklicherweise verbessert sich die Genauigkeit der Temperaturmessungen mit der Zeit; Seit 1980 verfügen wir über zuverlässige Thermometermesswerte, die durch Satellitenmessungen der NASA bestätigt werden.

Auf der anderen Seite sind wir uns alle beim IPCC einig, dass es keine andere Erklärung für den enormen und extrem schnellen Temperaturanstieg gibt, den wir seit diesem Datum beobachtet haben, als einen massiven Beitrag anthropischer Treibhausgase.

Ab 1980 stellen unsere Daten somit die aktuellen Anomalien dar und es ist absolut legitim, die gemessenen Temperaturen seit diesem Datum zu den trendbereinigten Daten der Proxys hinzuzufügen.

Mit einer solchen Kurve bin ich mir ziemlich sicher, dass es leicht sein muss, die politischen Entscheidungsträger, die an der kommenden COP26 in Glasgow teilnehmen werden, davon zu überzeugen, viel Geld auf den Tisch zu legen. Dies wird natürlich in gewisser Weise „kaskadieren“, als nette weitere Zuschüsse für meine Forschungsaktivitäten, die vor dem Klima-Hype eher vertraulich blieben. Wenn nicht, muss ich mir einen anderen Job suchen.

 

Abb. 6- Der Hockeyschläger rekonstruiert. Die grauen Linien geben das Vertrauensintervall an, das dem Proxy-Rauschen entspricht

Ich bin sehr froh, clever genug gewesen zu sein, die Messungen von Proxies erfolgreich zu detrendieren, sonst hätte meine Grafik natürlich immer noch nicht genügend überzeugt… aber weniger, als in Abb. 7 gezeigt. Einige Klimaskeptiker können sich auf die verbleibenden Zyklen konzentrieren, auch wenn diese nicht sehr signifikant sind, fallen sie in das Konfidenzintervall, was es mir ermöglicht, sie als Rauschen zu betrachten.

Abb. 7- Gemittelte Messwerte  über Proxies und Thermometer( -messungen) nach 1980

 

Abschluss

Die Hockeyschläger-Grafik in Abbildung 6, was ein zuverlässiges Abbild der in Abbildung 2 dargestellten „Rohdaten“ sein soll, ist eine „Fälschung“ und resultiert aus dem Missbrauch von Data-Mining-Techniken, basierend auf  Märchenhypothese , die nicht länger akzeptiert werden können. Als Übung im kritischen Denken ist der Leser eingeladen, die in dieser parodischen Anmerkung absichtlich eingeführten methodischen Fehler zu finden.

Zusatzmaterial :

Die Zahlen dieser Anmerkung wurden in einer Excel-Tabelle erstellt, die auf Anfrage erhältlich ist.

Interessenkonflikt

Der Autor bestätigt, dass kein Interessenkonflikt besteht und dass keine Finanzierung für diese Arbeit bereitgestellt wurde.

Weiterlesen

IPCC AR6 und SPM (Summary for Policy Maker)  https://www.ipcc.ch/assessment-report/ar6/

  1. Hyndman and G. Athanasopoulos, Forecasting https://otexts.com/fpp2/

https://www.science-climat-energie.be/2021/08/16/how-to-build-your-hockey-stick-graph/

Übersetzt durch Andreas Demmig