1

Suboptimale Spurensuche?

Ross McKitrick

1999 veröffentlichten Myles Allen und Simon Tett einen Artikel in der in der Zeitschrift Climate Dynamics (im Folgenden als „AT99“ bezeichnet), in dem sie ein Verfahren – den optimalen Fingerabdruck – beschrieben, um beobachtete Klimaveränderungen den zugrunde liegenden Ursachen zuzuordnen, mit besonderem Augenmerk auf den durch Treibhausgase verursachten Antrieb. Sie schlugen auch eine Methode vor, die als Residualkonsistenztest (RC) bezeichnet wird, um festzustellen, ob das statistische Modell gültig ist.

Das Optimal Fingerprinting, das manchmal auch als Optimal Detection bezeichnet wird, wurde sofort angenommen und vom IPCC in seinem Dritten Bewertungsbericht (TAR) von 2012 und wird seitdem in jedem IPCC-Bewertungsbericht erwähnt. TAR Anhang 12.1 trug die Überschrift „Optimale Erkennung ist Regression“ und begann:

Die Nachweismethode, die in den meisten Erkennungsstudien zum „optimalen Nachweis“ verwendet wurde, hat mehrere gleichwertige Darstellungen. Kürzlich wurde erkannt, dass es sich als ein multiples Regressionsproblem in Bezug auf verallgemeinerte kleinste Quadrate dargestellt werden kann (Allen und Tett, 1999; siehe auch Hasselmann, 1993, 1997.

2014 wies eine Gruppe von Autoren unter der Leitung von Jara Imbers, zu der auch Myles Allen als Koautor gehörte, auf die Auswirkungen hin, welche das statistische Verfahren in den vergangenen Jahren gehabt hatte:

Die Aussage des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC), dass es ’sehr wahrscheinlich‘ sei, dass anthropogene Emissionen das Klima beeinflussen, basiert auf einer statistischen Nachweis- und Zuordnungsmethode, die stark von der Charakterisierung der internen Klimavariabilität abhängt, wie sie von [Klimamodellen] simuliert wird .³

Die Förderung und das Vertrauen des IPCC in das Optimum Fingerprinting hält bis heute an.4 Sie wurde in Dutzenden und möglicherweise Hunderten von Studien im Laufe der Jahre verwendet. wo auch immer man in der Fachliteratur beginnt, alle Wege führen zurück zu Allen und Tett (oft über das Folgepapier Allen und Stott 2003). Außerdem stützt sich die Literatur fast ausschließlich auf den RC-Test zur Überprüfung der Gültigkeit der Ergebnisse. Also spielen die Fehler und Unzulänglichkeiten des Papiers auch zwei Jahrzehnte später noch eine akute Rolle.

Ich habe einen Artikel in Climate Dynamics veröffentlicht, der zeigt, dass das optimale Fingerprinting-Verfahren, wie es in AT99 und dem Nachfolgepapier angewendet worden war, theoretisch fehlerhaft ist und sinnlose Ergebnisse liefert.6 Es beweist nicht, dass alle Ergebnisse dieser Methode falsch sind, aber es zeigt, dass die Grundlage, auf der sie für richtig gehalten wurden, nicht vorhanden ist.

Über die Logik und die Implikationen meiner Ergebnisse

Eine sorgfältige Erklärung der Auswirkungen meiner Feststellung muss ein elementares Prinzip der Logik beachten. Wir können ohne Angst vor Widersprüchen sagen:

Angenommen, A impliziert B. Wenn A wahr ist, ist auch B wahr.

Ein Beispiel: Alle Hunde haben ein Fell. Ein Beagle ist ein Hund, also hat ein Beagle hat ein Fell. Wir können dies jedoch nicht sagen:

Angenommen, A impliziert B. A ist nicht wahr, also ist B nicht wahr.

Beispiel: Alle Hunde haben ein Fell; eine Katze ist kein Hund, also hat eine Katze kein Fell. Aber natürlich können wir auch sagen:

Angenommen, A impliziert B; A ist nicht wahr, also wissen wir nicht, ob B wahr ist.

Beispiel: Alle Hunde haben ein Fell. Ein Delphin ist kein Hund, also wissen wir wissen wir nicht, ob ein Delfin ein Fell hat.

Betrachtet man die Auswirkungen meiner Ergebnisse, so ist „A“ das mathematische Argument, das Allen und Tett anführten, um ‚B‘ zu beweisen, nämlich die Behauptung, dass ihr Modell unvoreingenommene und genaue Ergebnisse liefert. In meiner Kritik habe ich gezeigt, dass ‚A‘, ihr mathematisches Argument, falsch ist. Wir haben also keine Grundlage, um etwas über „B“ zu sagen, und schon gar nicht, dass ihr Modell unvoreingenommene und genaue Ergebnisse liefert. Die Kritik trifft auch auf den RC-Test zu: Er liefert nichtssagende Antworten. In meinem Artikel führe ich die Bedingungen auf, die nachgewiesen werden müssen, um die Behauptungen über ihre Methode zu bestätigen. Ich glaube nicht, dass dies möglich ist, aus Gründen, die in dem Papier genannt werden, aber ich lasse die Möglichkeit offen. In Ermangelung eines solchen Beweises lassen die Ergebnisse ihres Verfahrens über die letzten 20 Jahren keine Aussagen über den Einfluss von Treibhausgasen auf das Klima machen. Hier werde ich versuchen, die wichtigsten Elemente des statistischen Arguments zu erläutern.

Regression

Die meisten Menschen mit einem gewissen Maß an wissenschaftlicher Bildung sind mit dem Gedanken vertraut, eine Linie der besten Anpassung durch eine Daten-Punktwolke zu ziehen. Dies wird als lineare Regression bezeichnet. Betrachten Sie Abbildung 1. Sie zeigt für eine Stichprobe von Ehepaaren das Alter der Ehefrau im Vergleich zum Alter des Ehemannes:

Abbildung 1: Ehepaare: Altersvergleich von Ehefrauen und Ehemännern

Es besteht ein eindeutiger Zusammenhang zwischen beiden: Ältere Männer haben ältere Ehefrauen und umgekehrt. Sie können sich leicht vorstellen, eine gerade Linie der durch die Punkte zeichnen. Es ist üblich, die horizontale Achse als x-Achse und die vertikale Achse als y-Achse zu bezeichnen. Die Linie kann mit zwei Zahlen definiert werden: der Steigung und dem Achsenabschnitt auf der y-Achse. Wenn die Steigung positiv ist, sind höhere Werte auf der Werte auf der x-Achse auch mit höheren Werten auf der y-Achse verbunden. Dies ist im obigen Beispiel eindeutig der Fall; jede vernünftige Linie durch die Stichprobe würde sich nach oben neigen. Aber in anderen Fällen ist es nicht so offensichtlich. Abbildung 2 zeigt zum Beispiel den Wert von Immobilien im Verhältnis zu ihrer Nähe zu einer Hauptverkehrsstraße:

Abbildung 2: Vergleich von Immobilienpreisen relativ zur Nähe einer Autobahn

Hier kann eine Linie der besten Anpassung nahezu horizontal verlaufen, aber auch ansteigend sein. Um zu veranschaulichen, warum die statistische Theorie für die Interpretation der Regressionsanalyse wichtig ist, sollte man sich eher Abbildung 2 als Abbildung 1 vor Augen halten. Wir haben selten Daten, bei denen die Beziehung so offensichtlich ist wie im Beispiel des Ehepaares. Viel häufiger versuchen wir, subtile Muster aus viel mehr streuenden Daten herauszufinden.

Es kann besonders schwierig sein, zu erkennen, ob Steigungslinien positiv sind, wenn wir in mehreren Dimensionen arbeiten. In Abbildung 2 gibt es viele andere Variablen als die Nähe zu einer Autobahn, die die für Schwankungen bei den Immobilienwerten verantwortlich sein könnten. Wenn, sagen wir, es drei mögliche Einflussfaktoren für den Wert von Einzelhandelsimmobilien gibt, müssen wir schätzen.

Beachten Sie, dass Regressionsmodelle eine Korrelation herstellen können, aber Korrelation ist keine Kausalität. Ältere Männer verursachen nicht, dass ihre Frauen älter sind; es ist nur so, dass Menschen, die heiraten, dazu neigen, jemanden aus der gleichen Altersgruppe zu wählen. Wenn wir feststellen, dass weiter von Autobahnen entfernt liegende Grundstücke wertvoller sind, könnte das bedeuten, dass die Entfernung zu einer Autobahn den Immobilienwert beeinflusst, oder es könnte bedeuten, dass Autobahnen tendenziell auf Land gebaut werden, das aus anderen Gründen weniger wertvoll war. Regressionsmodelle können die Interpretation der Kausalität unterstützen, wenn es andere Gründe für einen solchen Zusammenhang gibt, aber man muss hierbei sehr vorsichtig vorgehen und kann erst nach einer strengen Prüfung beurteilen, ob das Modell wichtige erklärende Variablen ausgelassen hat.

Stichproben und Varianz

Unabhängig davon, wie wir den Steigungsparameter (oder die Parameter) schätzen, brauchen wir eine Möglichkeit zu testen, ob er definitiv positiv ist ist oder nicht. Das erfordert ein wenig mehr Theorie. Abbildung 1 war eine Darstellung einer Stichprobe von Daten. Es handelt sich eindeutig nicht um die gesamte Sammlung von Ehemännern und Ehefrauen auf der Welt. Eine Stichprobe ist eine Teilmenge einer Grundgesamtheit. Wenn wir eine statistische Analyse durchführen, müssen wir die Tatsache berücksichtigen, dass wir mit einer Stichprobe arbeiten und nicht mit der gesamten Grundgesamtheit. (Grundsätzlich gilt: Je größer die Stichprobe, desto repräsentativer ist sie für die Gesamtbevölkerung.)

Die Linie der besten Anpassung durch die Stichprobe kann immer nur eine Schätzung des wahren Wertes der Steigung liefern, und da es sich um eine Schätzung handelt, können wir nur von einem Bereich möglicher Werte sprechen. Die Regression ergibt also eine Verteilung möglicher Schätzungen, von denen einige wahrscheinlicher sind als andere. Wenn Sie eine Linie durch die Daten mit einem einfachen Programm wie Excel an die Daten anpasst, gibt es vielleicht nur den zentralen Schätzung, aber die zugrunde liegende Theorie liefert eine Verteilung von möglichen Werten.

Die meisten Menschen sind mit dem Gedanken einer Daten zusammen fassenden „Glockenkurve“ vertraut. Ein Beispiel wäre die Verteilung der Zensuren in einer Klasse, bei der viele Werte um den Mittelwert gruppiert sind, aber immer weniger werden, je weiter man sich vom Mittelwert entfernt. Die Streuung einer Verteilung wird durch eine Zahl zusammengefasst der sogenannten Varianz. Ist die Varianz niedrig, ist die Verteilung eng, ist sie hoch, ist sie breit (Abbildung 3).

Die Regressionsanalyse liefert also neben der Schätzung der Steigung auch einen Schätzwert für die Varianz. Ein eng verwandtes Konzept ist die Standardabweichung der Steigung – wiederum ein Maß dafür, wie wie eng die Punkte in der Stichprobe um die gerade Linie streuen, die wir an sie angepasst haben.7 Die statistische Theorie sagt uns, dass solange das Regressionsmodell eine Reihe von Bedingungen erfüllt, mit 95-prozentiger Wahrscheinlichkeit den wahre Wert der Steigung (der den man erhalten würde, wenn man eine Stichprobe der gesamten Population nehmen könnte) innerhalb von etwa plus/minus zwei Standardabweichungen der Schätzung der Steigung erhält. Dies wird als 95%-Konfidenzintervall Intervall bezeichnet.

Abbildung 3: Varianz

Wir können also Regressionsverfahren anwenden, um eine Linie durch eine Stichprobe von Daten – z. B. Häufigkeit von Hurrikanen und Temperatur – zu ziehen, und wenn die geschätzte Steigung mehr als zwei Standardabweichungen über Null liegt, können wir sagen, dass wir „zuversichtlich“ sind, dass ein Anstieg der Temperatur zu einer Zunahme der Hurrikane führt. Wenn dies nicht der Fall ist, sagen wir dass die Beziehung positiv, aber statistisch nicht signifikant ist.

Bias, Effizienz und Konsistenz

Die Steigungsschätzung wird mit Hilfe einer Formel ermittelt, in welche die Anzahl der Stichprobendaten eingeht und die eine Zahl erzeugt. Es gibt viele Formeln die verwendet werden können. Die gängigste Formel ist die Ordinary Least Quadrate (OLS).8 OLS liefert auch einen Schätzwert für die Varianzen eines jeden Koeffizienten.

Es ist möglich, die Verteilung der Steigungsschätzungen mit Hilfe eines nach der Wahrscheinlichkeit gewichteten Durchschnitts auf einen einzigen Wert herunterzubrechen. In der Statistik wird dies als Erwartungswert bezeichnet. Mit Hilfe der statistischen Theorie lässt sich zeigen, dass, solange das Regressionsmodell eine Reihe von Bedingungen erfüllt, der Erwartungswert gleich dem Wert für die Grundgesamtheit ist. In diesem Falle sagen wir, dass der Schätzer unvoreingenommen ist. Wenn die oben genannte Gruppe von Bedingungen erfüllt ist, ist auch die Varianzschätzung unverzerrt.

Da es neben der OLS-Schätzung viele weitere mögliche Schätzformeln gibt, müssen wir uns überlegen, warum wir OLS den anderen Formeln vorziehen. Ein Grund ist, dass OLS unter allen Optionen, die zu unverzerrten Schätzungen führen, die geringste Varianz aufweist.9 Sie nutzt also die verfügbaren Daten am besten aus und liefert das kleinste 95%ige Konfidenzintervall. Wir nennen dies Effizienz.

Einige Formeln (oder „Schätzer“) liefern uns geschätzte Steigungs-Koeffizienten oder Varianzen, die bei einem kleinen Stichprobenumfang verzerrt sind, aber mit zunehmendem Stichprobenumfang verschwinden. Die Verzerrung und die Varianz gehen dann gegen Null, so dass die Verteilung auf den wahren Wert kollabiert. Dies wird als Konsistenz bezeichnet. Ein inkonsistenter Schätzer hat die unerwünschte Eigenschaft, dass wenn wir immer mehr Daten erhalten, wir keine Sicherheit haben, dass unsere Koeffizienten der Schätzungen näher an die Wahrheit herankommen. Bei inkonsistenten Schätzern kann die Varianz mit zunehmendem Stichprobenumfang schrumpfen, aber die Verzerrung erreicht nie Null, was bedeutet, dass die Schätzung nicht zum wahren Wert konvergiert.

Wann sind Schätzungen zuverlässig?

Ich habe mehrfach auf „eine Reihe von Bedingungen“ hingewiesen, die ein Regressionsmodell erfüllen muss, damit OLS unvoreingenommene, effiziente und konsistente Schätzungen liefert. Diese Bedingungen sind in jedem einführenden Ökonometrie-Lehrbuch aufgelistet und werden als Gauß-Markov-Bedingungen (GM) bezeichnet. Ein Großteil des Bereichs der Ökonometrie (dem Zweig der Statistik, der versucht, Regressionsanalyse zur Erstellung von Wirtschaftsmodellen zu nutzen) ist auf das Aufspüren von Fehlern in den GM-Bedingungen konzentriert und daruf, wenn diese gefunden werden, Abhilfemaßnahmen vorzuschlagen.

Einige Ausfälle der GM-Bedingungen implizieren nur, dass die Varianz-Schätzungen verzerrt sind; die Steigungsschätzungen bleiben unverzerrt. Mit anderen Worten, wir erhalten eine sinnvolle Schätzung des Steigungsparameters, aber unser Urteil darüber, ob er signifikant ist oder nicht, ist unzuverlässig. Andere Ausfälle der GM-Bedingungen bedeuten, dass die Schätzungen sowohl der Steigung als auch der Varianz verzerrt sind. In diesem Fall kann die Analyse verfälscht und völlig bedeutungslos sein.

Ein Beispiel für ein schlechtes Forschungsdesign: Angenommen, wir haben Daten aus Hunderten von US-Städten über viele Jahre, die sowohl die die jährliche Zahl der Straftaten in der Stadt und die Zahl der Polizeibeamten auf den Straßen zeigen. Wir können eine Linie durch die Daten ziehen, um um zu prüfen, ob die Kriminalität zurückgeht, wenn mehr Polizisten eingesetzt werden. Es gibt jedoch mehrere Probleme, die wahrscheinlich zum Scheitern von mehreren GM-Bedingungen führen würden. Erstens besteht die Stichprobe aus Klein- und Großstädten zusammen, und wir können sehr unterschiedliche Kriminalitätsstatistiken in größeren und kleineren Städten erwarten. Wenn wir das nicht berücksichtigen, erhalten wir verzerrte Schätzungen der Varianzen der Steigungskoeffizienten.

Zweitens gibt es Verzögerungseffekte: Eine Veränderung der Zahl der Polizeibeamten kann erst nach einer gewissen Zeit zu einer Veränderung der Kriminalität führen. Auch dies kann die Steigungskoeffizienten und Varianzschätzungen verzerren. Drittens kann die Kriminalität zwar von der Zahl der Polizeibeamten abhängen, die Zahl der Polizeibeamten kann aber auch von der Höhe der Kriminalität abhängen, so dass beide Variablen durch die jeweils andere Variable bestimmt werden: eine ist nicht eindeutig außerhalb des Modells bestimmt. Dies kann die Koeffizienten stark verzerren und zu falsche Schlussfolgerungen führen (z. B. dass mehr Polizeiarbeit zu einer höheren Kriminalitätsrate führt).

Schließlich hängen sowohl Kriminalität als auch Polizeiarbeit von Faktoren ab, die nicht im Modell enthalten sind, und wenn diese externen Faktoren nicht mit dem Ausmaß der Polizeiarbeit korreliert sind, werden die Steigungs- und Varianzschätzungen verzerrt sein.

Daher ist es von entscheidender Bedeutung, ein Versagen der GM-Bedingungen zu testen. In der Ökonometrie gibt es eine umfangreiche Literatur zu diesem Thema, das Spezifikationstest genannt wird. Studenten, die Regressionsanalyse lernen, lernen Spezifikationstests von Anfang an. Wenn ein Regressionsmodell für die Wirtschaftsforschung verwendet wird, würden die Ergebnisse niemals für bare Münze genommen werden, ohne dass zumindest einige elementare Spezifikationstests angegeben werden.

Bei einigen Verstößen gegen die GM-Bedingungen besteht die Abhilfe in einer Transformation der Daten vor der Anwendung von OLS. Ein Beispiel wäre die Umwandlung aller Daten in Pro-Kopf-Werte. Wenn wir eine Datentransformation anwenden, um einen Verstoß gegen eine oder mehrere GM-Bedingungen zu beheben, sprechen wir von der Anwendung der Generalized Least Squares (GLS). Die Anwendung einer GLS-Transformation bedeutet nicht, dass wir davon ausgehen können, dass die GM-Bedingungen automatisch gelten; sie müssen immer noch getestet werden. In manchen Fällen reicht eine GLS-Transformation nicht aus, und weitere Änderungen am Modell sind erforderlich, um unverzerrte und konsistente Schätzungen zu erhalten.

Das Verfahren von Allen und Tett

Verschiedene Autoren hatten vor AT99 vorgeschlagen, beobachtete Klimamesswerte – z. B. Veränderungen der Temperatur, der Hurrikanhäufigkeit oder des Auftretens von Hitzewellen – mit Klima-Simulationen mit und ohne Treibhausgase zu vergleichen. Wenn die Einbeziehung von Treibhausgasen zu einer deutlich besseren Übereinstimmung mit den Beobachtungen führt, könnten die Wissenschaftler die menschlichen Emissionen als Ursache verantwortlich machen. Diese Verfahren wird als „Fingerprinting“ bezeichnet.

Diese Autoren hatten auch argumentiert, dass die Analyse durch eine Anpassung der Daten an die lokalen Klimaschwankungen gestützt werden muss, indem Gebiete mit einem von Natur aus stabileren Klima stärker gewichtet werden und Gebiete, in denen das Klima „unruhiger“ ist, weniger stark. Die erforderlichen Gewichtungen werden anhand der so genannten „Klima-Rausch-Kovarianz-Matrix“ berechnet, die die Variabilität des Klimas an jedem Ort misst und für jedes Paar von Orten angibt, wie ihre Klimabedingungen miteinander korrelieren. Die damit verbundene Mathematik würde den Rahmen dieser Abhandlung sprengen, aber für das Verständnis der Kernfragen ist es einfach notwendig zu verstehen, dass einer der erforderlichen Schritte darin besteht, die Inverse der Matrix zu berechnen.

Dies erwies sich jedoch in der Praxis als schwierig. Anstatt die Matrix anhand von Beobachtungsdaten zu berechnen, haben Klimatologen lange Zeit lieber Klimamodelle bevorzugt. Es gab zwar Gründe für diese Entscheidung, führte jedoch zu vielen Problemen (die ich in meinem Beitrag erörtere). Eines davon war, dass die Klimamodelle keine ausreichende Auflösung haben, um alle Elemente der Matrix unabhängig voneinander zu identifizieren. Dies bedeutete, dass die Matrix keine Inverse hatte.11 Daher waren die Wissenschaftler gezwungen, eine Annäherung zu verwenden, die als „Pseudo-Inverse“ bezeichnet wird, um die benötigten Gewichte zu berechnen. Dies führte zu weiteren Problemen.

Der Fehler

Die Argumentation von Allen und Tett lautete in etwa so: Sie stellten fest, dass die Anwendung eines Gewichtungsschemas das Fingerprinting Modell mit einer GLS-Regression vergleichbar macht. Und da ein richtig spezifiziertes GLS-Modell die GM-Bedingungen erfüllt, liefert ihre Methode unvoreingenommene und effiziente Ergebnisse. Das ist eine leichte Vereinfachung ihrer Argumentation, aber nicht viel. Und der Hauptfehler ist offensichtlich. Man kann nicht wissen, ob ein Modell die GM-Bedingungen erfüllt – es sei denn, man testet auf spezifische Verstöße. AT99 hat die GM-Bedingungen falsch formuliert, eine wichtige Bedingung ganz weggelassen und es versäumt, irgendwelche Tests für Verletzungen vorzuschlagen.

In der Tat haben sie die ganze Idee der Spezifikationsprüfung entgleisen lassen, indem sie argumentierten, dass sie nur testen müssten, ob die Rauschkovarianzschätzungen des Klimamodells „zuverlässig“ seien (ihr Begriff, den sie nicht definierten), und sie schlugen etwas vor, das sie die Residual Consistency (RC) nannten. Sie boten keinen Beweis dafür, dass der RC-Test das tut, was er angeblich tut.12 Tatsächlich lieferten sie nicht einmal eine mathematische Aussage darüber, was er testet; sie sagten nur, dass wenn die von ihnen vorgeschlagene Formel eine kleine Zahl ergibt, die Regression des Fingerabdrucks gültig ist. In meiner Studie habe ich erklärt, dass es leicht Fälle geben kann, in denen der RC-Test eine kleine Zahl ergeben würde, selbst bei Modellen, die bekanntermaßen als falsch spezifiziert und unzuverlässig gelten.

Zusammenfassend lässt sich also sagen, dass Allen und Tett mit ihrem Verfahren nicht sicherstellen konnten, dass die GM-Bedingungen erfüllt waren, und konnten daher nicht beurteilen, ob ihre Schätzungen zuverlässig waren. Wie ich in meinem Papier dargelegt habe, versagt die Methode von Allen und Tett, wie sie in ihrem Papier dargelegt ist, automatisch bei mindestens einer GM-Bedingung, wahrscheinlich sogar mehreren. Daher müssen die Ergebnisse als unzuverlässig angesehen werden.

In den Jahren seit der Veröffentlichung des Papiers sind jedoch niemandem die Fehler in der AT99-Diskussion über die GM-Bedingungen aufgefallen, niemand bemerkte das Fehlen einer Ableitung des RC-Tests, und keine der nachfolgenden Anwendungen der AT99-Methode wurde einer konventionellen Spezifikationsprüfung unterzogen. Das heißt, wir haben keine Grundlage für die Akzeptanz von Behauptungen, die sich auf das optimale Fingerprinting-Verfahren stützen.

Nebenbei: die leichte Modifikation

Der optimale Fingerabdruck-Ansatz von Allen und Tett wird mit nur einer geringfügigen Änderung seit 20 Jahren von den Klimawissenschaftlern verwendet.

Die leichte Änderung erfolgte 2003, als Myles Allen und ein anderer Koautor, Peter Stott, vorschlugen, von GLS auf einen anderen Schätzer mit der Bezeichnung Total Least Squares (TLS) überzugehen.13 Dabei wird die Klimavariabilität nach wie vor gewichtet, aber die Steigungskoeffizienten werden mit einer anderen Formel geschätzt. Die Begründung dafür war, dass die vom Klimamodell generierten Variablen in der Fingerprinting-Regression selbst ziemlich „verrauscht“ sind, was dazu führen kann, dass GLS Koeffizientenschätzungen liefert, die nach unten verzerrt sind. Das ist richtig, aber Ökonometriker gehen mit diesem Problem mit einer Technik namens Instrumentalvariablen (IV) an. Wir verwenden TLS nicht (in der Tat verwendet es fast niemand außerhalb der Klimatologie), weil TLS unter anderem dann, wenn das Regressionsmodell falsch spezifiziert ist, eine Überkorrektur vornimmt und den Ergebnissen eine Verzerrung nach oben verleiht. Außerdem ist sie im Vergleich zur OLS extrem ineffizient. IV-Modelle können konsistent und unverzerrt sein. TLS-Modelle können das nicht, es sei denn, der Forscher macht einige restriktive Annahmen über die Varianzen im Datensatz, die selbst nicht getestet werden können; mit anderen Worten es sei denn, der Modellierer ’nimmt das Problem weg‘. Ich werde dies in einer nachfolgenden Studie behandeln.

Implikationen und die nächsten Schritte

Optimales Fingerprinting erfüllt nicht die GM-Bedingungen. Allen und Tett behaupteten fälschlicherweise das Gegenteil, und spätere Autoren zitierten und beriefen sich auf diese Behauptung. Das Verfahren (einschließlich der TLS-Variante) liefert Ergebnisse, die zufällig richtig sein könnten, aber im Allgemeinen verzerrt und inkonsistent sind und daher nicht als zuverlässig angesehen werden können. Nichts in der Methode selbst (einschließlich der Verwendung des RC-Tests) erlaubt es den Wissenschaftlern, mehr als das zu behaupten.

Neben der Untersuchung der Verzerrungen, die durch die Verwendung von TLS in Fingerprinting-Regressionen eingeführt werden, untersuche ich die Auswirkungen der Anwendung grundlegender Spezifikationstests auf Fingerprinting-Regressionen und die Behebung der daraus resultierenden Fehler.

Soweit dieser Beitrag. Es folgt noch eine längere Erwiderung auf Kommentare dazu sowie eine Liste von Referenzen.

Das vollständige PDF ist hier:

PDF Embedder requires a url attribute

Übersetzt von Christian Freuer für das EIKE

Zusammenfassung aus dem Vortrag von R.McKittrick auf der 14.Climate Conference des Heartland Institutes

—————————————-

Es folgt noch ein Kommentar hierzu von der EIKE-Redaktion (Michael Limburg):

Was Ross herausgefunden hat, ist für mich und viele andere, die mit den Grenzen der Statistik einigermaßen vertraut sind, wirklich keine Überraschung. Aber es ist sehr gut erklärt für alle, die 1. wirklich gläubig sind und 2. sich für die Grenzen dieser Methoden interessieren, aber nicht in der Lage sind, die Methode so klar zu entwickeln wie Ross es tut. So z.B. für mich.
Aber es gibt noch einen weiteren Aspekt, den Ross (zumindest habe ich ihn noch nicht gesehen) in seiner Kritik völlig ausklammert. Nämlich, dass die „Fingerabdruck“-Methode selbst unecht ist. (in einem Sinne von „unberechtig“). Das liegt daran, dass sie als Grundlage annimmt, dass CO2 einen zurechenbaren Einfluss auf die Lufttemperatur hat. (Diese Temperatur selbst ist ein unwissenschaftlicher Begriff, sobald man sich mit „Mitteltemperatur“ beschäftigt. Eine Temperatur braucht in der Physik immer einen Ort und ein Medium, wo sie gemessen wird, um überhaupt ein gültiger Begriff zu sein). Die Modellierer sind also gezwungen, diese Abhängigkeit in ihre Modelle einzubauen. Sonst kann der Computer nicht rechnen. Also ist alles, was die Modelle zeigen, das was die Programmierer ihnen vorher gesagt haben. Das ist in meinem Verständnis ein Zirkelschluss, aber keineswegs ein Beweis. Noch schlimmer ist, dass sie alle natürlichen Kräfte, insbesondere die der Sonne, außen vor lassen.




Die katastrophale Datenbasis von EM-DAT erzeugt katastrophale Daten

Kip Hansen

Die Weltorganisation für Meteorologie der Vereinten Nationen (UN WMO) hat einen 90-seitigen Bericht mit dem Titel „WMO Atlas Of Mortality And Economic Losses From Weather, Climate And Water Extremes (1970-2019)“ [pdf hier] veröffentlicht. Das Büro der Vereinten Nationen für Katastrophenvorsorge (UNDRR) und das Centre for Research on the Epidemiology of Disasters (CRED) haben am Internationalen Tag der Katastrophenvorsorge, dem 13. Oktober 2020, gemeinsam einen 28-seitigen Bericht mit dem Titel „The human cost of disasters: an overview of the last 20 years (2000-2019)“ [pdf hier] veröffentlicht.

Beide Berichte selbst sind „Daten-Katastrophen“, sind doch die Daten, auf denen sie beruhen, so fehlerhaft, dass sie nicht für den Zweck geeignet sind. Der Fehler ist oder sollte für jeden, der auch nur einen Blick auf die Daten wirft, offensichtlich sein.

Der Bericht Human Cost… behauptet, „zu bestätigen … wie extreme Wetterereignisse die Katastrophenlandschaft im 21. Jahrhundert dominiert haben.“ Und „Im Zeitraum von 2000 bis 2019 wurden 7.348 größere Katastrophenereignisse registriert. … Dies ist ein starker Anstieg gegenüber den vorangegangenen zwanzig Jahren. Zwischen 1980 und 1999 waren es 4.212 Katastrophen …“

Der WMO-Bericht „Atlas of Mortality…“ betont, dass „die Zahl der Wetter-, Klima- und Wasser-Extreme zunimmt und in vielen Teilen der Welt als Folge des Klimawandels häufiger und schwerwiegender werden wird.“

Beide Berichte stützen sich in hohem Maße, fast ausschließlich, auf die so genannte EM-DAT-Katastrophen-Datenbank von CRED. Die Datenbank ist sehr umfangreich, deckt eine Vielzahl von Informationen ab und sieht in ihrer Gesamtheit so aus wie diese Darstellung aus Our World In Data:

Dieses Bild finden Sie hier. Auf derselben Seite können Sie die zugrundeliegenden Daten herunterladen und in Tabellenform ansehen. Die Daten reichen bis 2019, dem letzten vollständigen, verifizierten Jahr im Datensatz.

Einige Leser werden sich vielleicht daran erinnern, dass ich vor ein paar Jahren mehr als einmal über das gleiche Bild geschrieben habe. Und warum? Weil etwas mit den Daten so offensichtlich falsch ist, dass ich die Frage nicht auf sich beruhen lassen konnte. Ich habe den Zeitraum von 1970 bis 1999 erlebt. Ich war ein Erwachsener. Ich habe das Weltgeschehen im Allgemeinen verfolgt. Ich reiste und segelte durch ganz Südeuropa, Nordafrika und die Karibik. Ich bin kein Genie, aber ich war mir ziemlich sicher, dass, wenn sich die Katastrophen um mich herum vervierfacht hätten, ich mir dessen zumindest bewusst gewesen wäre. Aber ich hatte keine Vervierfachung von Naturkatastrophen gesehen.

Voller sturer Hybris schrieb ich also eine E-Mail an die Datenbankmanagerin von CRED/EM-DAT. Sie heißt Regina Below. Sie war sehr hilfsbereit und sehr reaktionsschnell. Ich werde einfach eine Kopie der relevanten Teile unseres E-Mail-Austauschs im Jahr 2019 einfügen:

Meine per E-Mail gestellte Frage:

Betreff: EM-DAT DB – „Genannte“ Katastrophen

Hallo EM-DAT,

Ich bin freiberuflicher Journalist und schreibe über wissenschaftliche Themen.  Ich habe mir einige Ihrer Daten angesehen, wie hier dargestellt:

[ Bild oben, aber nur bis 2018 ]

Die gezeigten Daten stimmen nicht mit meinem Verständnis von globalen Naturkatastrophen überein, da sie einen gewaltigen Anstieg von 1970 bis etwa 1998 zeigen.  Meine Vermutung ist, dass 1970 bis 1998 eine Zunahme der BERICHTE und nicht der tatsächlichen Naturkatastrophen zu verzeichnen ist.

Können Sie dies bitte bestätigen – oder mich korrigieren, wenn ich falsch liege.

Vielen Dank, Kip Hansen

Antwort von EM-DAT:

Hallo Mr. Hansen,

danke für Ihre E-Mail. Sie haben recht, es ist eine Zunahme der Berichte. Ich übermittlere Ihre E-Mail an Prof. D. Guha-Sapir, deren Eingaben sie vielleicht hinzufügen will.

Freundliche Grüße Regina

Also sollte die bei Our World In Data wie folgt richtig gestellt werden:

In den beiden jüngsten Berichten der Vereinten Nationen werden dekadische Daten verglichen:

„Die Anzahl der Katastrophen, der damit verbundenen Todesfälle und der wirtschaftlichen Verluste, die in der Datenbank erfasst sind, wurden für den 50-Jahres-Zeitraum sowie für die einzelnen Jahrzehnte (1970-1979, 1980-1989, 1990-1999, 2000-2009 und 2010-2019) ausgewertet, um signifikante Katastrophen und Bereiche mit Diskrepanzen sowie erkennbare Trends im Zeitverlauf aufzuzeigen.“ (WMO Atlas der Sterblichkeit…)

(UNDRR, „Human Cost of Disasters…“)

Sowohl Regina Below als auch ihr Direktor bei CRED EM-DAT waren Gutachter für den WMO-Bericht:

„Den folgenden Personen wird ebenfalls für die Durchsicht der Veröffentlichung gedankt: Regina Below (Centre for Research on the Epidemiology of Disasters (CRED) Emergency Events Database (EM-DAT)),… Debarati Guha (CRED EM-DAT)…“ (WMO Atlas der Sterblichkeit…)

Regina Below ist die EM-DAT-Datenbankmanagerin und Professorin Debarati Guha-Sapir war bis vor kurzem Direktorin des Centre for Research on the Epidemiology of Disasters (CRED). Beide Fachleute wissen, dass die Daten vor 1999-2000 oder so ungültig sind, da es sich „um eine Zunahme der Meldungen handelt und nicht um eine Zunahme der Naturkatastrophen.

Regina Below hat dies in ihrer E-Mail vom August 2019 an mich deutlich erklärt. Sie kopierte ihre E-Mail an Guha-Sapir zu dieser Zeit. Guha-Sapir wusste es also auch. Jeder, der sich mit Katastrophen oder Katastrophenhilfe befasst, hätte das gewusst – es wäre unmöglich, es nicht zu wissen.

Dennoch schreiben Elite-Experten riesige offizielle Berichte der Vereinten Nationen über Daten, von denen bekannt ist und über die offen berichtet wird, dass sie lediglich Verbesserungen der Meldemechanismen widerspiegeln – und verwenden diese Daten so, als handele es sich um reale Daten über reale Katastrophen.  Und die Berichte verwenden diese falschen, irreführenden Daten, um den falschen Eindruck zu verbreiten, dass „die Dinge schlimmer werden“, und so Angst in den Herzen und Köpfen einer vertrauensvollen Bevölkerung zu wecken.

Die Wahrheit ist, dass die Dinge BESSER werden.

Das zeigt sogar die EM-DAT-Datenbank (die durch das Versäumnis, die Unzulänglichkeiten der frühen Daten zu erkennen, korrumpiert wurde):

Todesfälle pro Jahrzehnt

Die EM-DAT-Aufzeichnungen zeigen, dass sich die Zahl der Todesfälle durch wetter-, klima- und wasserbedingte Katastrophen zwischen 1970 und 2019 fast um den Faktor drei verringert hat. Die Zahl der Todesopfer ist von Jahrzehnt zu Jahrzehnt gesunken – von über 50 000 Todesfällen in den 1970er Jahren auf weniger als 20 000 in den 2010er Jahren. In den 1970er und 1980er Jahren wurden durchschnittlich 170 Todesfälle pro Tag gemeldet. In den 1990er Jahren sank dieser Durchschnittswert um ein Drittel auf 90 Todesfälle pro Tag, um dann in den 2010er Jahren weiter auf 40 Todesfälle pro Tag zu sinken (Abbildung 4). (WMO-Atlas der Sterblichkeit…)

Wie ist das zu verstehen? In den frühen Daten fehlen viele Daten über Todesfälle in den 1970er bis 1990er Jahren (aber sie werden allmählich besser, wenn man sich der Gegenwart nähert), aber selbst der kleine Anteil der tatsächlich gemeldeten Todesfälle in den 70er und 80er Jahren ist GRÖSSER als die genauer gemeldeten Todeszahlen seit der Jahrhundertwende! Das bedeutet, dass die Dinge nicht nur besser sind, sondern viel besser.

Der folgende Teil des EM-DAT-Datensatzes zu Naturkatastrophen ist zuverlässig:

Alle Naturkatastrophen zeigen einen abnehmenden Trend.

Kommentar des Autors:

Die Menschen werden von diesem Unsinn getäuscht, der ständig von Journalisten verbreitet wird, die ihre heilige Pflicht gegenüber ihren Lesern und Zuhörern vergessen haben (oder sich dafür entscheiden, sie zu ignorieren). Die Menschen werden von Wissenschaftlern getäuscht, denen das Prestige und die finanziellen/beruflichen Vorteile, die sich aus der Zustimmung zu wissenschaftlichen Kontroversen ergeben, wichtiger zu sein scheinen als ihre persönliche Integrität und ihre Pflicht, unvoreingenommen die Wahrheit zu suchen und zu berichten. Und viel, viel zu viele in beiden Berufen „machen einfach mit, um mitzumachen“.

Wenn Sie jemanden treffen wollen, der sein Engagement für die Wissenschaft und ihre Ideale schätzt, besuchen Sie einen öffentlichen Auftritt von Willie Soon… oder Will Happer… oder David Legates… oder Tim Ball… oder Pat Michaels… oder William Briggs… oder Lord Christopher Monckton… die Liste ist noch viel länger, das sind nur einige, die ich in der letzten Woche getroffen habe.

Ich möchte nur, dass Sie wissen, dass, wenn Sie den guten Kampf für Realismus in Bezug auf das Klima kämpfen – den guten Kampf für Meinungsfreiheit – den guten Kampf, um Ihre Kinder vor Indoktrination in öffentlichen Schulen zu schützen – den guten Kampf für unsere Rechte und Pflichten gemäß der US-Verfassung und deren Äquivalente in Ihrem eigenen Land →

Link: https://wattsupwiththat.com/2021/10/21/em-dat-disaster-database-creating-data-disasters/

Übersetzt von Christian Freuer für das EIKE

 




Nur die Reichsten überleben: Smart Homes und Energie-Rationierung

Presseerklärung des GWPF vom 19. Oktober 2021

Denkfabrik warnt: Energie-Rationierung steht vor der Tür!

Wenn der Wind nicht weht, wird es in den Häusern kalt!

Haushalte, die auf Wärmepumpen umstellen, laufen Gefahr, wochenlang abgeschaltet zu werden, heißt es in einem neuen Papier der Global Warming Policy Foundation. Das liegt daran, dass die Wärmestrategie der Regierung das grundlegende Problem der Unterbrechung der Energieversorgung nicht angeht.

Dem Autor des Berichts Andrew Montford zufolge werden Netzbetreiber ohne die Möglichkeit, Strom in großen Mengen zu speichern, gezwungen sein, Geräte wie Wärmepumpen und Ladegeräte für Elektrofahrzeuge abzuschalten, wenn der Wind nicht weht. Bei einer langen Flaute werden die Haushalte ganz abgeschaltet werden müssen. Intelligente Stromzähler der zweiten Generation, die derzeit landesweit installiert werden, werden es dem Netz ermöglichen, Geräte aus der Ferne zu steuern.

Montford erklärt, dass die Technologien, von denen allgemein angenommen wird, dass sie gegen die Unterbrechung der Stromerzeugung helfen, in Wirklichkeit nur von geringem Nutzen sind: „Wir haben nicht genügend geeignete Standorte für Pumpspeicherkraftwerke, und Batterien und Wasserstoff sind viel zu teuer“, sagt er. „Die einzige Technologie, die uns hier helfen kann, basiert auf fossilen Brennstoffen, aber ebendiese hat die Regierung ausgeschlossen“.

Und nicht nur eine Flaute wird dazu führen, dass Geräte abgeschaltet werden müssen. Das Verteilernetz, das den Strom auf Straßenebene weiterleitet, wurde für viel geringere Lasten ausgelegt als in einer Net-Zero-Welt erforderlich sein werden. Das heißt, wenn zu viele Menschen Strom benötigen, müssen die Netzbetreiber die Nachfrage wieder rationieren.

Der Direktor des GWPF Dr. Benny Peiser sagt, dass der Bericht eine Warnung an die Politiker sei:

„Familien in der Kälte und im Dunkeln zu lassen, wird zu einigen sehr unglücklichen Wählern führen. Das wird nicht gut ausgehen“.

Der Bericht mit dem Titel „Survival of the Richest: Smart Meters and Energy Rationing kann hier heruntergeladen werden.

Link: https://www.thegwpf.org/publications/smart-homes-energy-rationing/

„Ohne signifikante Erzeugung durch Gas oder Kernkraft oder auch erheblicher Wasserstoff-Speicherung, werden wir die Versorgung einstellen, und zwar in einer Form der natürlichen Auslese unter dem Motto „Nur die Reichsten überleben“.

Übersetzt von Christian Freuer für das EIKE

 




Nutzlose „grüne“ Energie fährt gegen die Wand

Francis Menton, Manhattan Contrarian

Bei der Beilegung von Rechtsstreitigkeiten wird manchmal von einem „Win-Win“-Szenario gesprochen – einer Vergleichsstruktur, bei der beide Seiten einen Vorteil erzielen und gleichzeitig den Sieg erringen können. Was ist nach diesem Kriterium „grüne“ Energie (auch intermittierende Wind- und Solarenergie genannt)? Die Öffentlichkeit zahlt Hunderte von Milliarden Dollar an Subventionen, damit diese Dinge realisiert werden können, und erhält im Gegenzug: plötzliche Verknappung und steigende Preise für Kohle, Öl, Gas und Strom; außerdem eine drastisch verringerte Zuverlässigkeit des Stromnetzes, was zu regelmäßigen Stromausfällen und dem Risiko weiterer Stromausfälle führt – und trotz alledem geht der Verbrauch fossiler Brennstoffe nicht zurück. Es ist ein „verlieren, verlieren, verlieren“.

[Fettdruck vom Übersetzer]

Während die Welt die Pandemie allmählich überwindet und die internationale Wirtschaft wieder versucht, die normale Verbrauchernachfrage zu befriedigen, kann man überall sehen, wie die grüne Energie gegen die Wand fährt. Es ist nur eine Frage, welche Datenpunkte man zur Unterhaltung sammeln möchte.

Über die aktuelle Energiekrise in Europa und Asien wird in den US-Medien so gut wie gar nicht berichtet. Aber bei Bloomberg News gibt es am 4. Oktober eine große Story. Bloomberg News, das ist Mike Bloomberg – der Mann mit vier Privatjets und mindestens zehn Häusern, der sein öffentliches Leben der Aufforderung widmet, seinen „Kohlenstoff-Fußabdruck“ zu verringern. Aber jetzt scheinen die Leute von Bloomberg News plötzlich herausgefunden zu haben, dass periodische Energiekrisen eine unvermeidliche Folge der zunehmenden Abhängigkeit von Wind und Sonne sind, auf die man sich nicht verlassen kann. Die Überschrift des Artikels lautet [übersetzt] „Globale Energiekrise ist die erste von vielen in der Ära der grünen Energie“. Der Bloomberg-Artikel selbst ist hinter einer Bezahlschranke versteckt, aber ausführliche Auszüge finden Sie bei Climate Depot hier, wo sie ihn einen „Moment der Klarheit“ nennen:

In den nächsten Jahrzehnten könnte es mehr energiebedingte Inflation, Brennstoffknappheit und Wachstumseinbußen geben, da die Stromversorgung anfällig für Erschütterungen ist … Die Welt erlebt gerade die erste große Energiekrise der sauberen Energiewende. Es wird nicht die letzte sein. … Die Produktion von Wind- und Solarenergie ist im letzten Jahrzehnt sprunghaft angestiegen. Aber beide erneuerbaren Energiequellen sind notorisch unbeständig – sie sind zu bestimmten Zeiten verfügbar und zu anderen nicht. Und Strom lässt sich im Gegensatz zu Gas oder Kohle nur schwer in nennenswerten Mengen speichern. Das ist ein Problem, denn im Stromnetz müssen Angebot und Nachfrage ständig perfekt ausgeglichen sein. Gerät dieses Gleichgewicht aus den Fugen, kommt es zu Stromausfällen.

Das ist kein Scherz.

Der jüngste Ort, an dem es aufgrund eines unzuverlässigen Netzes zu Stromausfällen kommt, ist China. (Frühere Stromausfälle, die auf eine übermäßige Abhängigkeit von unzuverlässiger Wind- und/oder Solarenergie zurückzuführen sind, gab es 2016 in Südaustralien, 2020 in Kalifornien und im Februar dieses Jahres in Texas). Aus der New York Times, 27. September:

Stromausfälle und sogar Blackouts haben in den letzten Tagen Fabriken in ganz China verlangsamt oder geschlossen, was eine neue Bedrohung für die sich verlangsamende Wirtschaft des Landes darstellt und möglicherweise die globalen Lieferketten vor der geschäftigen Weihnachtseinkaufssaison im Westen weiter beeinträchtigt. Die Ausfälle haben den größten Teil Ostchinas erfasst, wo der Großteil der Bevölkerung lebt und arbeitet.

Aber hat uns die New York Times nicht gerade erst am 8. Oktober mitgeteilt, dass China sowohl bei der Solarenergie als auch bei der Windenergie „weltweit führend“ ist? Irgendwie scheint beides nicht zu helfen, wenn die Stromnachfrage plötzlich ansteigt. Erst gestern berichtete der Guardian, dass das jüngste Stromchaos China dazu veranlasst, das, was es „Energiesicherheit“ nennt, wieder in den Vordergrund zu rücken, womit der Guardian fossile Brennstoffe meint, insbesondere Kohle:

China plant den Bau weiterer Kohlekraftwerke und hat angedeutet, dass es seinen Zeitplan zur Senkung der Emissionen überdenken wird. … In einer Erklärung nach einer Sitzung der Nationalen Energiekommission in Peking betonte der chinesische Ministerpräsident Li Keqiang die Bedeutung einer regelmäßigen Energieversorgung, nachdem weite Teile des Landes durch Stromausfälle in Fabriken und Haushalten in die Dunkelheit gestürzt worden waren. China hat zwar Pläne veröffentlicht, um den Höhepunkt der Kohlenstoffemissionen bis 2030 zu erreichen, aber die Erklärung deutete an, dass die Energiekrise die Kommunistische Partei dazu veranlasst hat, den Zeitplan für dieses Ziel zu überdenken und einen neuen „gestaffelten Zeitplan und Fahrplan für den Höhepunkt der Kohlenstoffemissionen“ aufzustellen. … „Die Energiesicherheit sollte die Prämisse sein, auf der ein modernes Energiesystem aufgebaut wird, und die Fähigkeit zur Selbstversorgung mit Energie sollte verbessert werden“, hieß es in der Erklärung.

Im Vereinigten Königreich hat sich nun endlich jemand die Zeit genommen, um zu berechnen, wie viel es kosten würde, genügend Batteriespeicher bereitzustellen, um das Land durch eine längere (zehntägige) Periode der Dunkelheit und Windstille im Winter zu bringen, wenn man von einem Netz ausgeht, das zu 100 % aus Wind- und Solarenergie besteht. Die Berechnung wurde von den Professoren Peter Edwards und Peter Dobson von der Universität Oxford sowie von Gari Owen von Annwvyn Solutions im Auftrag von Net Zero Watch, einem Projekt der Global Warming Policy Foundation, erstellt. (Umfassende Offenlegung: Ich bin im Vorstand des amerikanischen Ablegers dieser Organisation). Die Antwort, die Edwards, Dobson und Owen geben, beläuft sich auf etwa 3 Billionen britische Pfund. Zum Vergleich: Das BIP des Vereinigten Königreichs lag im Jahr 2020 bei knapp 2 Billionen britischen Pfund. Und wenn Sie sich die Berechnungen von Edwards/Dobson/Owen ansehen, werden Sie feststellen, dass sie von einem Energieverlust von Null auf dem Hin- und Rückweg in und aus den Batterien ausgehen. Das ist eine ziemlich günstige Annahme, wenn man bedenkt, dass ein reines Wind- und Solarsystem in der Praxis den ganzen Weg vom Sommer bis zum Winter Energie speichern müsste. Wie viel Prozent der Akkuladung Ihres Mobiltelefons bleibt übrig, wenn Sie das Gerät sechs Monate lang unangeschlossen im Regal stehen lassen? Aber das ist sowieso alles nur Fantasie, also was soll’s?

Und schließlich hat die Energy Information Agency des Energieministeriums gerade (am 6. Oktober) ihren jährlichen internationalen Energieausblick herausgegeben. Dies ist die weise Prognose unserer weisesten Gurus, wie sich die Erzeugung und der Verbrauch von Energie in den drei Jahrzehnten von heute bis 2050 verändern werden. Sicherlich werden uns diese Leute dann zeigen, wie die Welt innerhalb dieses Zeitraums, wenn nicht sogar viel früher, den wahren Weg zu Netto-Null-Kohlenstoffemissionen erreichen wird.

OK, hier ist das Schlüsseldiagramm:

Moment mal! Könnte es wirklich sein, dass sie sagen, dass alle wichtigen fossilen Brennstoffkategorien (Erdöl, Erdgas und Kohle) bis 2050 weiter zunehmen werden, ohne dass es Anzeichen dafür gibt, dass selbst dann ein Rückgang zu verzeichnen sein wird, anstatt sich auf dem Weg in die Vergessenheit zu befinden? Ja, das ist genau das, was sie sagen. In der Tat sind die prognostizierten Verbrauchssteigerungen bei zwei dieser Energieträger ziemlich dramatisch – bis zu 50 % bei Erdgas und 40 % bei Erdöl. Ja, für die so genannten „erneuerbaren Energien“ wird ein dramatischer Anstieg prognostiziert, aber nach dreißig Jahren werden sie laut EIA immer noch nur etwa 25 % des „Primärenergieverbrauchs“ ausmachen, was weniger ist als Erdöl allein und kaum ein Drittel des kombinierten Beitrags von Erdöl, Erdgas und Kohle.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/10/17/useless-green-energy-hitting-the-wall/

Übersetzt von Christian Freuer für das EIKE

 




5 Billionen Dollar im Jahr 2021 an globalen Schulden/Eigenkapital (bis jetzt), „Ausstieg aus fossilen Brennstoffen“ in vollem Gange, die Welt hat kaum noch Erdgas/Kohle, und der Winter kommt

Terry Etam, Public Energy Number One

Als unabhängige Stimme der Energiewirtschaft habe ich keine Konzernredakteure oder Anwälte und auch keine geschniegelten, silberhaarigen Führungskräfte, die meine Kommentare bremsen. Es macht oft Spaß, direkt und ungefiltert zu sagen, was viele denken.

Doch trotz dieser Freiheit fällt es mir schwer, das Chaos zu beschreiben, das sich in der Energiewelt abspielt. Es ist nicht so, dass ich Angst habe, auf Zehen zu treten, es ist nur so, dass die Makroszene so lächerlich ist, dass sie sich jeder Beschreibung und jedes gesunden Menschenverstands entzieht. Und die Gouverneure und Medien der Welt haben Angst, dies zu sagen, weil sie jetzt vom Klimakartell als Geiseln gehalten werden.

Sie glauben, ich sei verrückt? Hören Sie mich an. Es wird nicht lange dauern.

In Europa, China und Indien herrscht derzeit ein wildes Gerangel, um die Versorgung mit Kohlenwasserstoffen vor dem Winter zu sichern. Die Preise für Erdgas und Kohle sind auf einem Rekordhoch und die Ölpreise auf einem Dreijahreshoch. Um Flüssiggas (LNG) wird ein Bieterkrieg geführt. Mehr als die Hälfte der indischen Kohlekraftwerke verfügt über Vorräte für weniger als drei Tage, obwohl die Regierung empfiehlt, mindestens zwei Wochen vorrätig zu haben.

Und der Winter steht vor der Tür. Das Problem könnte katastrophal sein.

Beobachten Sie gleichzeitig, was auf den Kapital-/Schuldenmärkten geschieht. Für die Zwecke dieser Diskussion sind zwei Punkte von Bedeutung. Der erste ist, dass die Bewegung für den Ausstieg aus fossilen Brennstoffen weiterhin stark ist. Institutionen in aller Welt springen stolz auf diesen Zug auf; Fondsmanager legen eifrig grüne Fonds auf und wenden sich von allem ab, was mit Kohlenwasserstoffen zu tun hat. Pipeline-Projekte werden auf Eis gelegt, weil die Bauherren sich die Kopfschmerzen einfach nicht antun wollen (siehe z. B. die Penn East Gaspipeline).

Gleichzeitig haben die Unternehmen laut einem Artikel in der Financial Times im Jahr 2021 die Anleihe- und Aktienmärkte mit aller Macht angezapft. Weltweit wurden Aktien im Wert von mehr als 1 Billion Dollar und Anleihen im Wert von fast 4 Billionen Dollar ausgegeben. Zu den Unternehmen, die sich an den Aktienmärkten engagieren, gehören große Einzelhändler, EV-Hersteller, Banken, Telekommunikationsunternehmen usw. – ein wahres Who’s Who der Industriegiganten.

Doch der Welt gehen die Brennstoffe aus, die sie alle benötigen, um zu funktionieren. Die globalen Versorgungsketten liegen in Trümmern, und das wird sich sehr bald noch verschlimmern, wenn die Kohlenwasserstoffpreise weiter steigen.

Im Großen und Ganzen läuft es darauf hinaus, dass die Erzeuger des Brennstoffs, an dem es der Welt mangelt, den sie verzweifelt sucht und den sie innerhalb weniger Monate zum Überleben braucht, keinen Zugang zu den Kapitalmärkten haben, während alle Nutzer dieses Brennstoffs die Schulden- und Aktienmärkte anzapfen, um weiteres Wachstum anzukurbeln, wofür mehr Kohlenwasserstoffe benötigt werden.

Die Regierungen der Welt stehen daneben, tun so, als gäbe es nur eine minimale „vorübergehende“ Inflation, tun so, als würden die Billionen, die in grüne Energie fließen, überhaupt irgendetwas bewirken, und schwitzen bei dem Gedanken, dass das alles aus den Fugen geraten könnte, ganz gewaltig. Die Zentralbanken haben keine Ahnung, was sie tun, wie ihr offenkundig albernes Gerede darüber beweist, dem Inflationsproblem voraus zu sein.

In ein paar Monaten wird die Kampagne „divest fossil fuels“ [weg von fossilen Treibstoffen] wie die dümmste Bewegung der Geschichte aussehen.

Link: https://wattsupwiththat.com/2021/10/18/5-trillion-in-2021-global-debt-equity-raised-so-far-divest-fossil-fuels-in-full-swing-the-world-running-short-of-natural-gas-coal-and-winter-is-coming/

Übersetzt von Christian Freuer für das EIKE