f t g m
  • "Volllaststunden" im Windpark-Glossar

  • "Bundesrechnungshof zur Energiewende" in Erneuerbare Energien

  • "Klimasteuer - worauf, von wem und warum?" in Erneuerbare Energien

  • "Grundlastkraftwerk" im Windpark-Glossar

  • "Leistungskoeffizient" im Windpark-Glossar

  • "Rückbau von Windrädern - eine vernachlässigte Aufgabe" in Erneuerbare Energien

Copyright 2024 - Custom text here

Wütende Physiker*innen

 

 

INHALT

Vom Wetter zum Klima - die Ad--hoc-Analyse

Anforderungen an Kausalitätsaussagen

Woran erkennt man Kausalität?

   Naturwissenschaftlich-technische Bedingtheiten

   Modellhaft formulierte Regelmäßigkeiten

   Befolgen von Gesetzen und Normen

Wie gehr Attribution?

   Der Kausalität erste Stütze (Fn 3/1)

   Der Kausalität zweite Stütze (Fn 3/3)

Attribution ohne Kausalität bleibt Willkür

 

Vom Wetter zum Klima - die Ad-hoc-Analyse

 Handlungsempfehlungen setzen zweckgerichtetes Denken voraus. Wie an anderer Stelle gezeigt, werden Handlungen zur Einhegung einer von einigen Autoren beobachteten Zunahme der Wahrscheinlichkeiten für katastrophale Wetterereignisse gesucht. Sollten sie sich dennoch ereignen, so müssten die dafür Verantwortlichen in Haftung genommen werden. Es wären daher mit großem Aufwand Kausalketten sowohl was örtlichen, zeitlichen oder sachlichen Bedingungshintergrund des Wetterereignisses als auch vermuteten Schadereignisses angeht, zu ermitteln. Für Abhilfe und Lösbarkeit dieser eigentlich unlösbaren Fragestellungen wird an einem mathematisch gestützten Schlussfolgerungsverfahren geforscht, eigentlich in Umkehrung des Zusammenhangs, nach den in der Psychologie bekannten Methoden „Attributionstheorie“ (Zuordnungstheorie) genannt. Zu schweigen von den Einflüssen bereits seit Generationen in der Atmosphäre befindlicher Schadgasbestände.

Den Wetterkatastrophen die dafür verantwortlichen Umweltschädigungen nach wissenschaftlichen Methoden zuzuordnen, hat sich eine Gruppe jüngerer Wissenschaftler aufgemacht. In Deutschland ist hiermit innerhalb weniger Jahre vor allem Friederike Otto bekannt geworden, Physikerin, mit entsprechenden Lehraufträgen an britischen Universitäten (vgl. Otto, Friederike, Wütendes Wetter, Berlin 2019).

Zum Beginn

 

Anforderungen an Kausalitätsaussagen

Soeben (03.06.2024) hat der Expertenrat der Bundesregierung für Klimafragen zum wiederholten Male das Verfehlen der Klimaziele moniert. Offenbar hat diese Bundesregierung, ebenso wie eine bis vier vor ihr, die Ursachen für ein weiteres Ansteigen der Erderwärmung sowie die Wirkung ihrer Gegenmaßnahmen nicht richtig eingeschätzt. Das bedeutet, dass etwas mit den behaupteten Kausalitätsbeziehungen zwischen dem Anstieg der Erderwärmung und den dafür in Anspruch genommenen Verhaltensweisen nicht stimmt (s. hierzu auch https://das-sanssouci-projekt.org/oekologische-oekonomie.html). Die Schlussfolgerung ist daher, an Kausalitätsaussagen zu richtende Anforderungen zu beachten, und zwar nach bestem Bemühen und so weitgehend wie möglich. Diese Forderung speist sich aus zwei unabweisbaren Ansprüchen. Erstens: Es werden in der Klimapolitik Schädigungen von Personen an Leib und Leben durch Folgen der (z. B.) Emission von Treibhausgasen behauptet. Diesen Personen ist das Recht gegeben, von der Regierung ihres Gemeinwesens mittels geeigneter Maßnahmen Schutz gegen diese Schädigungen zu verlangen, soweit die Regierung Macht und Mittel dazu hat. Den Nachweis der Eignung schuldet die Regierung. Zweitens: Der politische Souverän ist der Inhaber der Haushaltsmacht (l’État c‘est moi). Soweit er Dritten Vollmachten darüber übertragen hat, z. B. einem Parlament, kann auch er den Einsatz geeigneter Mittel verlangen. Es ist nur leider oft so, dass die Bevollmächtigten kein gleich laufendes Interesse daran haben, ihrem Handeln möglichst reine Zweck-Mittel-Beziehungen (mithin: Kausalität) zu unterlegen, sie sind daher gelegentlich vom Souverän daran zu erinnern. Gegen diese Forderung bietet die die philosophische Ausflucht: non propter hoc, cum hoc! keine Handhabe. Sowohl Schadensereignisse als auch das Ergreifen von Gegenmaßnahmen bedeutet eine massive Veränderung der Wohlfahrtslagen von Individuen, sie haben daher ein dringendes, berechtigtes Interesse, über die Gründe aufgeklärt zu werden.

Zum Beginn

 

Woran erkennt man Kausalität ?

   Naturwissenschaftlich-technische Bedingtheiten

Mit dem obigen Zitat wollte Hume zur Vorsicht gegenüber eilfertigen Schlussfolgerungen über die Bedingtheiten des gemeinsamen Auftretens zweier Variablen in auffälliger Gleichentwicklung oder auffälliger gegenläufiger Entwicklung mahnen. Auch einige Naturwissenschaftler sind dort zurückhaltend: Sie wissen nur, dass in der Vergangenheit Wiederholungen eines Experiments immer nur eine Bestätigung der Ergebnisse der vorherigen Experimente erbracht haben. Das müsse für folgende Experimente jedoch nicht gelten; der hierfür als Kausalität geforderte innere Zusammenhang der an dem Experiment beteiligten Variablen wird dem Vorgang verweigert. Die Frage der Kausalität kann aber auch dahingestellt bleiben, wenn die stattgefundenen Experimente bestimmte Aussagen der Wiederholbarkeit, z. B. zur Gebäudesicherheit, einen Vertrauensvorschuss in die Neu-Errichtung anderer Gebäude rechtfertigen: Erfahrung ersetzt Kausalität.

Das weniger stringent über diese Probleme nachdenkende Publikum fragt hingegen in vielen Zusammenhängen zu wenig danach, ob bei seinen Kausalitätsbehauptungen für korrelierte Entwicklungen von Variablen nicht auch noch der Einfluss weiterer Variabler zu berücksichtigen wäre (vgl. z. B. Bauer, Thomas K.; Gigerenzer, Gerd; Krämer, Walter: Warum dick nicht doof macht und Genmais nicht tötet. Frankfurt am Main 2016, S. 218 ff. mit zahlreichen Beispielen).

Hinzu kommen die Fälle der nicht eindeutigen Kausalität: Bestimmt die Nachfrage den Preis oder ist es umgekehrt? Wie lange bleibt die Richtung einer Kausalitätsbeziehung innerhalb eines u. U. auch sehr kleinen Zeitraums erhalten? Mathematiker sehen keine Veranlassung, an Hand dieser Fragestellung danach zu forschen, ob der Veränderung der einen Variablen zunächst die Veränderung der anderen Variablen vorausgegangen sein muss oder ob es sich umgekehrt verhält. Mit der Festlegung der einen Variablen als der unabhängigen und der anderen als der abhängigen können sie ihre Arbeit beginnen.

Zum Beginn

 

   Modellhaft formulierte Regelmäßigkeiten

Ökonomen, die dasselbe tun wollen, wären besser selbst Mathematiker geworden. Sie wollen jedoch den in der Wirtschaft handelnden Menschen in den Mittelpunkt stellen und müssen daher sein Handeln als kausal für die Entwicklung anderer Variablen annehmen oder genau erklären, warum die Entwicklung einer anderen Variablen kausal für ein wohldefiniertes Handeln (die Reaktion) eines Menschen ist. Dafür ist die hinter der einfachen Funktion y=f(x) stehende vereinfachende ceteris-paribus-Bedingung schrittweise aufzudröseln, die mit jedem Schritt zeigt, welch eine vergiftete Vereinfachung sie ist. Mit jedem Schritt wird ein weiterer kleiner oder großer Einflussfaktor sichtbar, der ebenfalls Kausalität für sich beanspruchen darf. Meistens gestaltet sich die Suche nach einer adäquaten Methode für dessen Berücksichtigung schwieriger als gedacht.

Zum Beginn

 

   Befolgen von Gesetzen und Normen

Man will darauf vertrauen, dass Menschen sich gesetzeskonform verhalten und geht daher davon aus, dass Gesetze und Normen das Verhalten steuern, also kausal für dieses Verhalten sind. Der Gesetzgeber sorgt sogar durch Schadensersatzpflichten (§ 823 BGB) und Strafandrohungen im Strafgesetzbuch für eine sehr strenge Kausalität zwischen Gesetzen und anderen Normen für die Handlungen der Individuen. Die Besonderheit der Kausalitätsbeurteilung in diesem Bereich für die Vorhersage eines wirtschaftlichen Verhaltens liegt in dem Umstand, dass Menschen die Tatbestände, die die Rechtsfolgen auslösen, natürlich auch nicht zu verwirklichen brauchen. Dann wäre die Einführung einer CO2-Abgabe auf Benzin an der Zapfsäule für die Erhöhung des Steueraufkommens wie für das Gegenteil dessen, nämlich eine Verringerung des Aufkommens, weil die Benzinkäufer mit Einführung der Abgabe auf nicht abgabenbelastete Mobilitätshilfen umstiegen, ohne Gesetzesbestimmungen zu verletzen. Dies gäbe Veranlassung, bei der Suche nach Kausalitäten menschlichen Wirtschaftsverhaltens die Gesetze der Logik nicht außer Acht zu lassen (vgl. z. B. https://das-sanssouci-projekt.org/erneuerbare-energien/298-klimasteuer-worauf-von-wem-und-warum.html).

Otto und andere behaupten, und hätten zu belegen, Kausalitäten der naturwissenschaftlich/technischen Art, den Erfahrungswissenschaften der Ökonomie sowie der Epidemiologie. In diesen Wissenschaften „sind reproduzierbare Experimente (die kontrafaktorische Tests erlauben, d. Verf.) nicht oder nur unter einem erheblichen finanziellen und organisatorischen Aufwand möglich. Daher bleiben hier oft nur Beobachtungsstudien mit all ihren Mängeln übrig … Das zentrale Problem liegt dabei darin, dass ausnahmslos jede empirische Untersuchung mit einer nicht zu beobachtenden Situation – der sogenannten kontrafaktorischen Situation, einer „Was-wäre-wenn-Frage“ – konfrontiert ist.“ (Gigerenzer e. a., S. 227). Welches methodische Erfordernis ergibt heute daraus für die hier zu fordernden Kausalitätsnachweise?

Wetteranomalien aller Art <-- Erderwärmung  <--  CO2-Emissionen im Bestand und aktuell hinzutretende mit Benennung der Emittenten ist die behauptete Kausalkette. Dabei ist zu berücksichtigen, dass die Untersuchung der Zusammenhänge zwischen CO2-Emission und Erderwärmung erst sehr spät begonnen haben: 1970 war man noch besorgt, dass aktuelles Wirtschaften den nachfolgenden Generationen die Erde unbewohnbar machten, weil ihnen fossile Energieträger nicht mehr in ausreichendem Umfange zur Verfügung stehen könnten (s. z. B. Forschungsgeschichte des Klimawandels, WIKIPEDIA). Dass unter diesen Voraussetzungen ausreichende Bestätigungen für Kausalität wegen naturwissenschaftllich/technischer Bedingtheiten gefunden werden können, scheint nicht sicher. Reproduzierbare Experimente scheiden als Untersuchungsobjekte ebenfalls aus: Die Beobachtung, dass in Industriestaaten beständig Schadgase emittiert werden bei gleichzeitig zu beobachtendem ebenso beständigem Abschmelzen der Polkappen, kann man ja wohl nicht als Experiment bezeichnen. Für Kausalitätsuntersuchungen bleiben daher nur Einzelfallbeobachtungen einschließlich der kontrafaktorischen Tests, wie ja auch der Name Attributionsmethode schon nahelegt: die Zuordnung bestimmter Ereignisse zu bestimmten vorausgehenden Handlungen.

Zum Beginn

 

Wie geht „Attribution“?

   Der Kausalität erste Stütze (Fn 3/1)

Die Fußnote "1" des Kapitels 3 findet sich zu folgender Aussage (S. 69): „Im Juli 2010 breitete sich eine Hitzewelle im Westen Russlands aus. In Moskau litten die Menschen unter Temperaturen von bis zu 40° und im Umland brannten Wälder und Moore. Hunderte Menschen starben durch die Folgen der Hitze. Wissenschaftler*innen aus Boulder in Colorado kamen in einer Attributionsstudie zu dem Ergebnis, dass die Hitzewelle ‚weitgehend natürliche Ursachen‘ gehabt habe. In einer weiteren Studie wiesen Wissenschaftler aus Potsdam aber nach, dass mit einer Wahrscheinlichkeit von 80 Procent der Hitzerekord nicht aufgetreten wäre, hätte es den Klimawandel nicht gegeben. Die Medien berichteten von widersprüchlichen Ergebnissen1. Hatte sich unser junges Fach gleich mit der zweiten Studie selbst widerlegt?“

Die Diktion verrät bereits, wo Ottos Herz schlägt; im Weiteren aber wird die Zitation zur Farce. Zitiert wird hier die kurze Wiedergabe eines Gesprächs, das der Wissenschaftsreporter Brandon Keim, nach eigenen Angaben der Faszination von Wissenschaft, Kultur, Geschichte und Natur erlegen, mit dem Co-Autor einer Studie, die im Potsdam Institut für Klimafolgenforschung (PIK) entstand, Stefan Ramstorf, führte. „If you roll dice only once, it doesn’t tell you anything about probabilities. Roll them 100,000 more times, and afterwards I can say, on average, how many times I’ll roll a six“. Das verwendete Rechenmodell war ein DICE-Modell, das auf der Grundlage der Durchschnitts-Julitemperaturen die Durchnschnittstemperaturen simulieren sollte, wenn man Voraussetzungen änderte. Die Durschnitts-Julitemperaturen „provided a baseline temperature trend. Parameters for random variability came from the extent to which each individual July was warmer or cooler than usual. After running the simulation 100,000 times, ‚we could see how many times we got an extreme temperature like the one in 2010‘. … After that , the researchers ran a simulation that didn’t include the warming trend, then compared the results. ‚For every five new records observed in the last few years, one would happen without climate change. An additional four happen with climate change. … there is an 80 percent probability‘. … that climate change produced the Russian heat wave.“

Es handelt sich hierbei um eine mündliche Überlieferung und zwar dazu noch um eine „vermittelte“. Otto überlässt dem Leser die weitere Quellenforschung. 

Mit der ihr von Keim im Oktober 2011 auf diese Weise vorgestellten Methode erklärt sie sich voll einverstanden: „Hatte der Klimawandel also die Wahrscheinlichkeit für die Hitzewelle erhöht? Die Antwort lautet sehr eindeutig „Ja“. (S. 70).  Gleichwohl bleibt Otto in diesem und den beiden folgenden Kapiteln wortreich beim Thema, der dringenden Arbeit an Jeden überzeugenden Methoden und peer reviews überflüssig zu machen. 

Im Folgenden angeführte Zitate und Seitenangaben beziehen sich auf die PDF-Version des pnas-Artikels vonStefan Rahmstorf und Dim Coumo: Increase of extreme events in a warming world, PNAS, November1, 2011, Vol. 108, no. 44, S. 17905 - 17909.

Gesucht ist die Wahrscheinlichkeit für ein weiteres Auftreten von extremen Wetterereignissen, genauer: von Hitzerekorden; hierfür wird die Monte-Carlo-Simulation angewendet. Bekannt ist den Autoren eine vollständige hundertjährige Zeitreihe von Durchschnittswerten der Temperaturen aller Juli-Monate. Sie wird benutzt, „to generate synthetic temperature series of 100 values each (representing 100 y) as random uncorrelated ‚noise‘ with various trends added“ (S. 17905). Die Temperaturen werden nicht mit ihren Werten erfasst, sondern mit ihren Standardabweichungen vom Median jeder der 100-jährigen Temperaturreihen. Mit ‚noise‘ ist der Bereich des ‚Gaussschen Rauschens‘ (wohl auf Hinweis der Gleichverteilung der Daten in diesem Bereich) gemeint. Die Kurve der Standardabweichungen wird für die Zwecke der Ermittlung von Wahrscheinlichkeiten für Extremwetterereignisse mit einem Trend > 0 versehen, weil die Abwesenheit einer zeitlichen Steigerungsrate ein Schwergewicht dieser Ereignisse auf den Beginn des Untersuchungszeitraums legen würde (vl. ebenda). Zudem gelte: „The case with warming trend … has more unprecedented  heat extremes overall“ (ebenda). Ein Zwischenschritt in der Analyse, vor Eliminierung des Jahres 2010 mit seinem Extrem-Juli-Durchschnittswert aus dem Vergleich, wirft ein Schlaglicht auf die Geeignetlheit der Monte-Carlo-Simulation für das hier gestellte Problem (S. 17907) „Next we apply the analysis to the mean July temperatures at Moscow weather station … for which the linear trend over the past 100 y is 1,8°C and the interannual variability is 1,7° C … giving a 64% probability that a heat record  is because of the warming trend. …  If instead we use the more realistic nonlinear warming trend, … the expected, the expected record number is 0,85, which implies an 88% probabbility … that a heat record in the last decade is due tot he observed warming trend.

Haben die Manipulationen an der eingangs beschriebenen aus Moskauer Zeitreihe gewonnen Kurve der Standardabweichungen Einfluss auf das Ergebnis der Untersuchung wie möglicherweise die Erhöhung der Wahrscheinlichkeit für das Auftreten von Extremwetter-Ereignissen? Sie haben, und zwar gewollt: „Recent observational studies have shown that, for heat records, the stationarity assumption does not hold“ und „In climate data, nonstationarity can have two principal causes: a shifting mean value or a changing shape of the probability distribution with time“ (S. 17905). Wir erinnern, dass die Ausgangsfrage dieser Untersuchung eine Abhängigkeit extremer Wetterereignisse (Hitzerekorde!) von gestiegener Erderwärmung zu zeigen, wie auch der Titel dieser Veröffentlichung belegt. Dieses Ergebnis nehmen die Autoren vorweg, indem sie die „stationäre“ Funktion der aus den Moskauer Wetteraufzeichnungen gewonnenen Kurve der Standardabweichungen einer linearen Transformation um den den Wert “ 0“ übersteigenden Faktor 1,078 unterziehen. Ein gleicher Manipulationsschritt wird an späterer Stelle wiederholt. Das Ergebnis ist auf diese Weise schon in den Prämissen angelegt. Damit ist das Urteil über diesen Kausalitätsversuch eigentlich gesprochen.

Oder kann ein kontrafaktorischer Test ihn noch retten? Schwer, denn hierfür taugte eine solche Beweisführung nicht – es soll ja eine Wahrscheinlichkeitsaussage verifiziert werden. Wenn man dagegen die Manipulation an der stationären Verteilungskurve der Standardabweichungen als Ereignis nähme, so hätte das Ereignis, die Moskauer Hitzewelle, ohne das begründende Ereignis der Manipulation stattgefunden Ein Ereignis, über das eine Wahrscheinlichkeit seines Eintretens formuliert ist widerlegt mit seinem Nicht-Auftreten jedoch nicht die Wahrscheinlichkeitsaussage. Dass bei einem Werfen des Würfels die Wahrscheinlichkeit eine 6 zu würfeln = 1/6 beträgt, ist unter den Gesetzen der Wahrscheinlichkeitstheorie richtig, sichert aber nicht das tatsächliche Fallen der 6, auch bei 100-maligem Werfen nicht. 

Die hier vorgestellte Methode ist untauglich für die ihr zugewiesene Aufgabe, eine Wahrscheinlichkeitsaussage über das Auftreten von Wetteranomalien auf Grund von Erderwärmung zu machen. Für alle Arten von Extremwettern wird Erderwärmung verantwortlich gemacht und auch für das jeweilige Gegenteil des Extremwetters: Dürre paart sich mit Überflutung, Extremhitze mit Extremkälte. Bleiben wir bei Temperaturgeschehen und nehmen wir das Gegenteil des soeben besprochenen Phänomens: https://www.zeit.de/gesellschaft/2024-01/kaeltewelle-usa-wetter-wintereinbruch-verkehrschaos-tote. Mit dem Monte Carlo Modell in der Fassung von Rahmstorf und Coumou sind derartige Kältewellen nach der Wahrscheinlichkeit ihres Auftretens nur durch radikale Umkehr der Bedrohungslage zu beschreiben: Ohne aus dem positiven Trend der Temperaturverteilung einen negativen zu machen als dem Trendfaktor ein Minuszeichen voranzustellen, und damit eine Erdabkühlung vorauszusetzen, werden sich extreme Kältewellen nicht zu erkennen geben. Das Prognose-Dilemma ist vollkommen, wenn am selben Ort der Klimadatensammlung innherhalb eines Jahres sowohl Hitzerekorde als auch Kälterekorde auftreten.Denkbar war diese Konstellation im Falle Moskaus ohnehin, aber sie realisiert sich gerade für den Nordosten der USA: Nach der Kältewelle im Januar dieses Jahres ist New York nun (Ende Juni 2024) von einer Hitzewelle bedroht, die an der Atlantikküste der USA 34°C erreichen kann (https://www.augsburger-allgemeine.de/panorama/hitzewelle-in-den-usa-heiss-wie-seit-jahrzehnten-nicht-mehr-id71128091.html).

Zum Beginn

 

Der Kausalität zweite Stütze (Fn 3/3)

Auf eher feuilletonistische Weise wird in Ottos angezeigtem Buch über zwei Gespräche mit der amerikanischen Wissenschaftsbürokratie, Untersuchungen von Otto e. a. über ein dreitägiges Extremwetter-Ereignis in Nordengland/Südschottland mit Starkregen betreffend, berichtet (S. 74 ff.). Die Beschreibung des Ereignisses, Untersuchungsmethoden und Ergebnisse entnehmen wir Climate change increases the probability of heavy rains in Northern England/Southern Scotland like those of storm Desmond—a real-time event attribution revisited - IOPscience  und zitieren nach der PDF-Datei. Welche Methodenfragen ggf. mit der Wissenschaftsbürokratie zu erörtern waren, ergibt sich daraus leider nicht. Auf S. 2, linke Spalte oben ist angedeutet, dass durch weitere Datensammlung und -auswertung ein für Prognosen ausreichendes Vertrauensintervall gesichert werden konnte.

Gegenstand der Untersuchungen war Sturm Desmond, der, vom Atlantik über Irland hinweg kommend Anfang Dezember 2015 entlang des Englisch-Schottischen Grenzgebiets das Land flutete. Die Untersuchungen unterschieden sich nach je nach vermuteter Ursache oder dem Aussageziel entsprechend anzuwendenden voneinander unabhängigen Methoden der wahrscheinlichkeitstheoretischen Zuordnung (probabilistic event attribution, ebenda, unten). Hierfür werden vier Vorgehensweisen unterschieden:

  1. statistische Analyse der Wetterbeobachtungen,
  2. Trendermittlung durch‚ coupled climate models‘,
  3. Bildung und Analyse sehr großer Ensembles regionaler Klimamodelle und schließlich
  4. Analyse der Abweichungen von aktuellem Klima von dem Klima, wie es sich ohne CO2-Emissionen eingestellt hätte.

Unabhängig voneinander, wie behauptet, sind diese getrennt aufgeführten Klimaeinflüsse sicher nicht. Wie auf den ersten Blick schon bei Nr 2. und Nr. 4. ersichtlich; fraglich ist auch, ob ihre Kriterien überhaupt einheitlichen Unterscheidungsebenen angehören.

Betrachten wir Punkt 4., den Otto schwergewichtig interessierenden Klima-/Wetterbestimmungs-grund. Der hier geforderte Vergleich verlangt, dass außer einer CO2-emissionsverursachten Erderwärmung alle sonstigen Einflüsse auf das Wetter der Vergleichsperiode und des Vergleichsorts ausgeschaltet werden. Am besten wäre diese Voraussetzung zu erfüllen, wenn sämtliche aktuellen Messergebnisse und deren Vergleichswerte unter identischen äußeren Umständen erhoben worden wären, bzw. abweichende Bedingungen exakt mit ihren Auswirkungen herausgerechnet oder durch glaubwürdige Wahrscheinlichkeitsverteilungen ersetzt werden könnten.

Ereignis und Datenerhebung

S. 2, rechte Spalte unten ist dazu recht ungenau: Benennungen der betroffenen Regionen sind nicht eindeutig: (Northwest England, Northeast England, Northern England, Sothern Scotland, Eskdalemuir), in welcher Region befinden sich die Stationen mit 09:00–09:00 – 24-Std.-Messungen? Bereits in dieser Beschreibung der Datensammlung stecken Prädikatszuweisungen, die an diese Stelle verfrüht sind und der Analyse vorbehalten bleiben sollten: „orographically-driven maxima in Cumbria“ S. 2, rechte Spalte unten) oder“much less rain due to the mountaineous terrain“ (S. 3, linke Spalte oben) – außerdem widersprüchlich, denn Gebirge zählt ja schließlich auch zur orographischen Situation. Für eine weitere Betrachtung, die des gesamten Monats Dezember 2015, wird die regionale Aufteilung bezüglich Englands wieder aufgehoben und durch die beiden Regionen Nortwest England und Northeast England ersetzt (S. 3, rechte Spalte unten). Welche Gründe gibt es dafür, welche Auswirkungen auf das Untersuchungsergebnis?

Das Wetterereignis

Gebiet: 54°-57° N, 6°W-2°W; „this area encompasses the two regions Northern England and Southern Scotland as defined in the UK Met Office HadUKP observations“ (S. 3, linke Spalte unten).

Zeit: 04.12.2015, 0:00 h – 06.12.2015, 24:00 h (nach Anpassung w. unterschiedlicher Tages-Messabschnitte unterschiedlicher Wetterstationen im Messgebiet)

Mengen: Northwest England:    Eintageswert   19;4 mm                 Zweitageswert    33,1 mm
                  Southern Scotland:     Eintageswert   34,0 mm                 Zweitageswert    60,0 mm
                  Eskdalemuir:             Eintageswert   75,7 mm                  Zweitageswert  139,4 mm

 

Es folgen Manipulationen der Zweitageswerte für jedes Jahr seit 1931. Diese wurden vom UK Met Office mittels 15 Wetterstationen in Nordwest England und neun Stationen in Süd Schottland für den Durchschnitt der auch durch Sturm Desmond betroffenen Regionen; Otto e. a. erfassten diese mit ihren Tageswerten sowohl als auch mit ihren Zweitages-Summen, letztere waren die Grundlagen der folgenden Untersuchungen „for similar reasons as mentioned above“. Zur Analyse schreiben die autoren: „The two-daily maxima occurring over the period October-February where computed for each year. This encompasses the season of heavy large-scale precipitation in this area and excludes the season of heavy thunderstorms  in the (late) summer. Adding the months of October and November increases the signal-to-noise ratio greatly. These maxima were fitted to a generalised extreme value distribution function (GEV), as is appproptiatefor block maxima … The GEV depends on time by scaling it with the the low-pass filtered global mean temperature anomaly T‘ (GISTEMP …), a proxy for anthropogenic climate change“ (S. 4, rechte Spalte mitte, Hervorh. d. d. Verf.).

Was wir der Datensammlung der UKMet Office von 1931 bis 2015 durch diese Manipulationen angetan?

Die Behauptung, dieser Zeitraum umgreife mit der Periode von 1931 bis 2012 den Zeitraum des menschengemachten Klimawandels bis zur beobachteten Wetteranomalie ist absurd. Fragen, mit denen einer solchen Behauptung beispielsweise ausgewichen wird, sind:

  1. An welcher Vergleichsperiode werden die Jahre der mit einen Steigerungsindex von 1931 bis 2015 versehenen des anthropogenic climate change gemessen, die nicht anthropogenic gesteigert ist?
  2. Welche Erscheinungen des climate change oder welche Wetteranomalien lassen sich durch einen solcen Vergleich zeigen?
  3. Wie würde verfahren werden, wenn UKMet Office entsprechende Wetterdaten für die Jahre1820 bis 2015 veröffentliche hätte es akzeptiert werden müsste, dass bis etwa 1890 nicht von einer menschengemachten Erderwärmung gesprochen werden könnte? Wären ebenfalls alle Perioden dieses Zeitraums in die Analyse einzubeziehen? Müssten diese Perioden mit einem Mischindex versehen werden oder müsste dieser Zeitraum in Perioden des menschengemachten und andere des nicht menschengemachten Klimawandels unterschieden werden?
  4. Drängt die Anthropogenetik des Klimawandels andere im Beitrag erwähnte Ursachen wie die Orographie des Geländes in ihrem Einfluss auf das Wetter zurück?

Diese Fragen sind durch die Sachwissenschaft der Klimaforschung zu untersuchen, die hierfür geeignete Methoden vorsieht (vorsehen sollte). Vorliegend erleben wir jedoch die Bemäntelung dessen mit dem Hilfsmittel-Schleier der Stochastik.

Hinzu kommen hier noch die Unklarheiten  über die Exaktheit der Vergleichsgebiete des Niederschlags, auch durch Abweichungen bei den Positionen der Messstationen in unterschiedlichen Zeiträumen und zu unterschiedlichen Zeitpunkten des Datenvergleichs.

Dieses war festzustellen anhand der “observational analysis“, gilt grundsätzlich aber für die weiteren angestellten Berechnungen ebenso, denn die Manipulationen am Datenmaterial bleiben auch bei den anderen vorgenommenen statistischen Berechnungsweisen bestehen.

 

Attribution ohne Kausalität bleibt Willkür

Zum Beginn

 

Wird fortgesetzt ...