Mrz 112018
 

Kürzlich veröffentlichte das Umweltbundesamt (UBA) eine Studie zur Gesundheitsbelastung durch Stickstoffdioxid NO2 unter der Überschrift: „Stickstoffdioxid führt zu erheblichen Gesundheitsbelastungen. UBA-Studie ordnet Gesundheitsbelastung durch Stickstoffdioxid in Deutschland ein“. In der Presse wurde die Zusammenfassung der Ergebnisse dieser Studie weit stärker verkürzt, als sie auf der Webseite des UBA ohnehin schon knapp dargestellt ist. Die Zahl von knapp 6000 Todesfällen und 437.000 Erkrankungen pro Jahr wurde medial verbreitet: „Stickoxide brachten 2014 Tausenden den Tod.“ (n-tv) Das war noch eine vergleichsweise sachliche Formulierung. Die Präsidentin des UBA, Maria Krautzberger, wird auf ihrer Pressekonferenz zitiert mit dem Satz: „Die Ergebnisse, die wir vorstellen, sind die Untergrenze“, die wirklichen Zahlen lägen wohl höher. Daraus leitete sie die Forderung ab, Grenzwerte weiter zu senken, was, so die weitere Folgerung in der Presse, ohne Fahrverbote für Diesel-PKW kaum möglich sei. Ein kleiner Satz aus der kurzen Pressemitteilung selbst wurde allerdings seltener (z.B. in der FAZ) mitgeteilt: „Epidemiologische Studien ermöglichen zwar keine Aussagen über ursächliche Beziehungen. Jedoch liefern sie zahlreiche konsistente Ergebnisse über die statistischen Zusammenhänge zwischen negativen gesundheitlichen Auswirkungen und NO2-Belastungen.“

Es lohnt sich, genauer hinzuschauen darauf, was die Studie tatsächlich leistet, was ihr Ziel ist und welche Methoden sie dafür wählt, außerdem welche Einschränkungen und Vorbehalte die Autoren machen. Verantwortet wird die Studie vom Helmholtz Zentrum München GmbH, Institut für Epidemiologie, Arbeitsgruppe „Environmental Risks“. Sie ist auf den Seiten des UBA frei verfügbar,  für den Laien aber nicht ohne weiteres verständlich. Es helfen die in der Studie selbst angebotene Einleitung, Methodenerklärung und ausführliche Zusammenfassung. Die Studie ist nicht allein für das Thema Stickoxide und ihre gesundheitlichen Auswirkungen aufschlussreich, sondern paradigmatisch dafür, auf welche Weise wissenschaftliche Studien durchgeführt, aufgegriffen, zusammengefasst, medial gedeutet und in ihrer extrahierten Quintessenz verbreitet werden. Die komplexe Differenziertheit einer solchen Studie kann darin fast völlig verlorengehen.

Der genaue Titel der Studie lautet: „Quantifizierung von umweltbedingten Krankheitslasten aufgrund der Stickstoffdioxid-Exposition in Deutschland.“ Es geht also um Quantifizierung, um die größenmäßige Feststellung der Verbreitung von Stickoxiden in Deutschland 2007 – 2014, ferner um den quantifizierten Anteil der Bevölkerung unterschiedlicher Altersgruppen und Wohngebiete, der wiederum unterschiedlichen Mengen von NO2 ausgesetzt ist, und schließlich, am wichtigsten, um zahlenmäßige Aussagen zu gesundheitlichen Folgen bzw. um die Art und Zahl der durch NO2 bedingten Krankheitsfälle einschließlich Todesfällen. Entsprechende Untersuchungen wurden natürlich nicht alle neu vom Helmholtz Institut durchgeführt, sondern die Studie sichtet vorhandene Untersuchungen zum Thema NO2 in vergleichbaren Ländern (USA, Kanada, Schweiz), greift auf vorhandene Modelle und Erhebungen zurück und verbindet sie mit dem Kenntnisstand aus epidemiologischen Untersuchungen und Ergebnissen. Dies wird akribisch aufgelistet, dokumentiert und vielfach tabellarisch zusammengefasst. Die Gründlichkeit und Transparenz der in der Studie unternommenen Aufarbeitung scheint mir kaum zu bemängeln.

Stadtverkehr

(c) BMVI

Zentral sind dabei die methodisch bedingten Voraussetzungen und Einschränkungen. Man halte sich das vor Augen: Es wird auf Fakten in Form von Messwerten an einzelnen Stationen im Lande zurückgegriffen, ferner auf Daten von Krankheitsfällen und -verläufen, die klinisch / epidemiologisch dokumentiert sind. Die vorhandenen Rohdaten sagen für sich noch gar nichts, solange sie nicht in ein computergestütztes Modell eingepasst werden, das zum Beispiel aus einzelnen Messdatenreihen die NO2-Konzentration für ein ganzes Land feinkörnig ( 1 qkm) hochrechnet. Dasselbe gilt für die Berechnung, welche Teile der Bevölkerung welcher Konzentration ausgesetzt sind: Es geht um Modellierungen und Hochrechnungen, wie sie in diesen und anderen Bereichen wissenschaftlich üblich und bewährt sind. Es bleiben aber Modelle. Diese Modelle der NO2 -Konzentration und Exposition werden nun korreliert mit ebensolchen Modellen (Hochrechnungen aus Einzeldaten entsprechend einem angenommenenen Verlaufsmodell) aus der Krankheitsstatistik und der epidemiologischen Forschung. Schließlich werden diese erhobenen Korrelationen bewertet, und zwar auf ihre Evidenz (Stichhaltigkeit, Beweiskraft) bezüglich eines Wirkungszusammenhangs zwischen NO2-Belastung und zu erwartenden Krankheitsbildern und -verläufen hin. Diese Bewertungen werden noch einmal differenziert nach starker, moderater und schwacher Evidenz. Ich fasse zusammen: Die Studie fasst andere Studien zusammen und wertet sie aus hinsichtlich vorhandener Modellrechnungen, Korrelationen und Bewertungen entsprechend wissenschaftlicher Methodik und Exaktkeit. Vor allem Computermodelle und die mathematische Statistik sind hierfür zentral. Dieses Verfahren ist nachvollziehbar und wissenschaftlich bewährt, denn wie sonst sollte man aus relativ verstreuten Einzeldaten (von z. B. einigen hundert Messstationen oder konkreten klinischen Verläufen) irgendeine allgemeine Aussage gewinnen und Schlussfolgerungen treffen? Dies geschieht nach bestem Wissen und bewährter Methodik. Aber es sind Modelle (mit begrenzten Rahmen- und Ausgangsbedingungen), Hochrechnungen (mit Fehlerquote), Korrelationen (statistische Zusammenhänge ohne Kausalität), Bewertungen (nach offengelegten Maßstäben) und Schlussfolgerungen, die sich nach Meinung der Autoren der Studie daraus ergeben. Darauf stützen sich dann die Darstellungen und Schwerpunkte in der Vorstellung der Studie durch das UBA und die Bewertungen und Meinungsäußerungen in den Medien. Nebenbemerkung: Ähnlich verfährt auch die Klimaforschung, allerdings auf der Basis eines weitaus größeren empirischen Datenmaterials. Denn schaut man sich die hier besprochene Studie auf die empirischen Daten hin an, dann ist das Material selbst vergleichsweise dürftig, am solidesten sind die an den Messstationen erhobenen Daten sowie klinische Befunde. Diese aber sind empirisch nicht zu verallgemeinern, sondern nur in Modellrechnungen darstellbar – wie in anderen Studien vorgelegt. Studien berufen sich also hier legitimatorisch auf andere Studien. Man muss dies als eine methodische Einschränkung werten.

Als Beispiel für Bewertungen und Maßstäbe, wie sie in der Studie verwandt werden, nenne ich hier den Begriff der „starken Evidenz“. Sie wird so definiert:

Starke Evidenz: Es liegt eine ausreichend große Anzahl von Studien vor, die eine konsistente Verbindung zwischen NO2 und Endpunkt aufzeigen. „Ausreichend“ kann je nach Endpunkt unterschiedlich definiert sein. Der Zusammenhang zwischen NO2 und Endpunkt ist bestätigt, d. h. mehrere Studien kommen zu einem vergleichbaren Ergebnis, und es liegen keine Studien vor, die dem Zusammenhang widersprechen (Nullergebnisse sind kein Widerspruch!). Der Zusammenhang wurde in verschiedenen Populationen mit variierenden Studienmethoden nachgewiesen. [S. 25]

„Endpunkt“ bedeutet die Krankheit bzw. den Krankheitsverlauf, der im Zusammenhang mit NO2-Belastung stehen könnte. Aufgelistet werden 12 Befunde, darunter Diabetes, Bluthochdruck, Herzinfarkt, Asthma. Die Bewertung „ausreichend bestätigt“ liegt dann vor, wenn mehrere Studien zu einem vergleichbaren Ergebnis kommen. Bemerkenswert ist dabei, dass ausdrücklich „Nullergebnisse kein Widerspruch!“ sind. Wenn also eine Studie keinen Zusammenhang zwischen NO2-Belastung und Befund herstellen kann, wird das faktisch als Bestätigung eines Zusammenhangs gewertet; ein Widerspruch liegt nur dann vor, wenn eine entsprechende Studie dem Zusammenhang von NO2-Belastung und medizinischem Befund ausdrücklich zuwiderliefe, also z. B. eine sinkende Asthmarate korrelierte. Dass „Nullergebnisse“ hier als Bestätigung gerechnet werden, halte ich in unserem Zusammenhang für höchst fragwürdig.

Darüber hinaus werden aber weitere Einschränkungen in der Studie selbst genannt. Denn einerseits gilt:

Wie den Übersichtsarbeiten der amerikanischen Umweltbehörde (U.S. EPA, 2016), des Schweizerischen Tropen- und Public Health Instituts in Basel (Swiss TPH; Kutlar Joss et al., 2015), des REVIHAAP-Projekts („Review of evidence on health aspects of air pollution“; WHO, 2013a) und von Health Canada (2016) zu entnehmen ist, konnten in Kurzzeitstudien Zusammenhänge zwischen einer Erhöhung der NO2-Belastung und einer Zunahme der Gesamtmortalität und insbesondere der Mortalität aufgrund von Atemwegs- und Herz-Kreislauferkrankungen gezeigt werden. [S. 19]

Die Studie spricht hier in anderem Zusammenhang von „biologischer Plausibilität“, was immer das genauer bedeuten mag. So weit, so gut. Aber andererseits räumt die Studie ein:

Die gesundheitlichen Wirkungen werden häufig auch bei niedrigen NO2-Konzentrationen gefunden (Brunekreef et al., 2012; Brunekreef and Holgate, 2002). Jedoch können einige der beobachteten gesundheitlichen Folgen derzeit noch nicht allein NO2 zugeschrieben werden, da andere verkehrsbedingte Luftschadstoffe ähnliche räumliche Verteilungen wie NO2 aufweisen. Speziell die sehr begrenzte Anzahl von Studien, die z. B. ultrafeine Partikel (Partikel mit einem aerodynamischen Durchmesser kleiner als 0.1 μm) als Störgröße in ihren Analysen berücksichtigen, lässt hier nur limitierte Schlussfolgerungen zu. Zudem ermöglichen epidemiologische Studien keine Aussagen über ursächliche Beziehungen. Die zahlreich vorhandenen epidemiologischen Studien liefern jedoch konsistente Ergebnisse über die Zusammenhänge zwischen NO2-Belastungen und ihren negativen gesundheitlichen Auswirkungen. [ebd.]

Hier sind wir am eigentlichen Knackpunkt. Zunächst kann man auch innerhalb der Logik der Studie fragen, wie plausibel die Korrelation, interpretiert als Wirkungszusammenhang, für bestimmte NO2-Konzentrationen ist, wenn sich offenbar einzelne Krankheitsbilder- und -verläufe gleichermaßen bei hoher und niedriger Konzentration feststellen ließen, also eher den Hinweis boten, dass da zwischen NO2 – Exposition und medizinischem Befund womöglich gar kein unmittelbarer Zusammenhang besteht, sondern die genannten „anderen Luftschadstoffe“ (warum nur „verkehrsbedingt“?) ebenso korrelieren – oder auch nicht. Aus meiner Sicht entwerten diese Aussagen und Einräumungen die weitreichenden Schlussfolgerungen der Studie ganz erheblich. Es geht nur um „Modelldaten“ und vermutete Zusammenhänge, um nicht weniger, aber auch nicht um mehr.

Dies gilt noch mehr für die beiden letzten Sätze in dem eben zitierten Absatz. Es sind nur „limitierte Schlussfolgerungen“ erlaubt, denn „epidemiologische Studien machen keine Aussagen über ursächliche Beziehungen“. Noch mehr und stärker gilt das für statistisch erhobene Korrelationen generell. Das räumt die Studie ebenfalls ein, ausdrücklich auch in dem zusammenfassenden Pressestatement. Korrelationen liefern keine Kausalität. Statt dessen muss man sich mit „konsistenten Ergebnissen über die statistischen Zusammenhänge“ begnügen, was immer das „konsistent“ im Einzelnen bedeutet. Das musste vor einigen Jahren auch Google erfahren, als es aus gehäuften Suchanfragen nach Grippemedikamenten eine Voraussage für auftretende Grippeerkrankungen ableiten wollte. Es konnte von der Wirklichkeit nicht gestützt werden, weil offenbar die Korrelate falsch angesetzt waren: Die Suche nach Grippemitteln korrelierte allenfalls mit der Sorge vor Grippeerkrankung, nicht aber mit tatsächlichen Erkrankungen. Die Ableitung von Wirkungszusammenhängen aus statistischen Mustern und Korrelationen bleibt immer problematisch, weil hier oft die Vermutung einer Konsistenz zu einer faktischen Evidenz umgedeutet wird. Dies scheint mir hier in der Studie durchgängig der Fall zu sein. Die in der Presse verkündeten Ergebnisse, zumal hinsichtlich von Mortalitätsraten, werden von der Studie in keiner Weise gedeckt. Es handelt sich allenfalls um statistische Möglichkeiten, sofern man alle anderen definierten Ausgangsbedingungen gelten lässt.

Der Satz „NO2 tötet“ ist eine unzulässige Verallgemeinerung und wissenschaftlich evident nicht belegbar. Die Gesamtmortalität wird als schwach bewertet (im oben eingeschränkten Sinn: es gibt nur widersprechende oder unzureichende Studien), allenfalls die „Respiratorische Mortalität“ (Atemwegserkrankungen) wird als korrelativ „stark“ bewertet, auch wenn sich das bei Kurzzeiteffekten nicht bestätigen ließ (vgl. S. 27). Auch hier gilt, dass der Zusammenhang mit anderen Luftbelastungen nicht ausreichend geklärt und ein Wirkungszusammenhang (Kausalität) nicht bestätigt werden konnte.

Aus den hier vorgestellten Beobachtungen und Überlegungen hinsichtlich der Aussagekraft und Tragweite der diskutierten Studie lässt sich so viel sagen: Die in der Pressemitteilung formulierte Verallgemeinerung des UBA ist schlicht durch die Studie nicht gedeckt, es handelt sich um eine einseitige Interpretation einer vermuteten Tendenz:

Die Studie zeigt unter anderem, dass acht Prozent der bestehenden Diabetes mellitus-Erkrankungen in Deutschland im Jahr 2014 auf Stickstoffdioxid in der Außenluft zurückzuführen waren. Dies entspricht etwa 437.000 Krankheitsfällen. Bei bestehenden Asthmaerkrankungen liegt der prozentuale Anteil der Erkrankungen, die auf die Belastung mit NO2 zurückzuführen sind, mit rund 14 Prozent sogar noch höher. Dies entspricht etwa 439.000 Krankheitsfällen.

Diese Tatsachenaussagen werden durch die Studie selbst nicht gestützt. Die in der Presse verbreitete Zahl von fast 6000 Todesfällen ‚durch NO2‘ entbehrt jeder evidenten Grundlage. Es handelt sich dabei um eine statistisch mögliche Randaussage im Rahmen der limitierten Aussagekraft der verschiedenen Studien und ihrer modellhaften Auswertung. Sie dramatisiert und skandalisiert in unzulässiger Weise. So wird aus transparenter Wissenschaft – Pseudowissenschaft. Unbestreitbar ist jedoch:

NO2 wirkt als sehr reaktives Oxidationsmittel. Die relativ geringe Wasserlöslichkeit von NO2 führt dazu, dass der Schadstoff nicht in den oberen Atemwegen gebunden wird, sondern in tiefere Bereiche des Atemtrakts (Bronchiolen, Alveolen) eindringt. Dort kann NO2 bei Kontakt mit Alveolargewebe Zellschäden auslösen und entzündliche Prozesse verursachen sowie zu einer Hyperreagibilität der Bronchien führen. Hyperreagibilität gilt als ein Risikofaktor für die Entwicklung allergischer Atemwegserkrankungen. [S. 19]

Darum sollte es gehen: Um eine angemessene Bewertung der Luftverschmutzung in unserem Land, maßgeblich verursacht durch den Straßenverkehr. Darüber besteht Einigkeit. Dass alles dafür getan werden muss, Umweltbelastungen, insbesondere Luftverschmutzung, Emissionen, zu reduzieren, steht außer Frage. Selbst vermutete und plausible Wirkungszusammenhänge zwischen verschiedenen Schadstoffen, darunter bestimmt auch NO2, CO2, Feinstaub usw., und dem vermehrten Auftreten von z. B. Atemwegs- und Koronarerkrankungen reichen aus, um politisch nachhaltig aktiv werden zu müssen. Eine wissenschaftlich verantwortete, aber eigentlich nur vermutete und als „evidenzbasiert“ behauptete Studie hilft hier eher nicht weiter. Sie befördert allenfalls eine Instrumentalisierung wissenschaftlich begrenzter Aussagen zu ideologischen Versatzstücken, mit denen die eigene Meinung legitimiert werden soll.

Reinhart Gruhn

Update: Siehe auch hier: Die erfundenen Toten (Spiegel)

 11. März 2018  Posted by at 13:30 Gesellschaft, Statistik, Wissenschaft Tagged with: , , , , , , , ,  Kommentare deaktiviert für Das NO2 – Dilemma
Nov 282013
 

[Kultur]

Kann Technik obszön sein? Obszön bedeutet im allgemeinen Sinne „das Moralgefühl verletzend“ (so Langenscheidt). Moral und Anstand verletzen kann aber nur ein Verhalten, keine Sache. Sofern bei Technik nur an Gegenstände, Artefakte, gedacht wird, kann das nicht obszön genannt werden. Meint Technik hingegen in einem weiteren Sinne die technische Lebenswelt, ist menschliches Verhalten darin eingeschlossen. Dann sind Wertungen eines Verhaltens als obszön, anstößig, die allgemeinen Werte und Sitten betreffend, möglich.

Ist Technik im Sinne der technischen Lebenswelt obszön? Es mag sinnvollen und weniger sinnvollen Gebrauch von Technik geben, es mag technische Einrichtungen geben, deren Nutzen unmittelbar auf der Hand liegt und für alle ersichtlich und darum erstrebenswert ist (z. B. Waschmaschinen) ebenso wie es technische Apparate gibt, deren Funktion und Zweck fast ausschließlich negativ bewertet werden müssen (z. B. Atombombe, selbst wenn US-Militärhistoriker es noch als positiv anführen, einen für die eigene Seite verlustreichen Krieg schnell beendet zu haben). Man könnte nun fast alles moderne Kriegsgerät anführen, dessen technische Perfektionierung stets der Vernichtung und Zerstörung dient, deren „Verbesserung“ allenfalls in der größeren Zielgenauigkeit, effektiveren Wirkungsweise oder der Vermeidung bzw. Herbeiführung bestimmter verheerender Nebenwirkungen besteht.

Schon hier könnte es nahe liegen, von obszöner Technik zu sprechen. Meine Anführungsstriche beim Wort „Verbesserung“ zeigen das an. Verbesserte Waffen sind solche, deren Vernichtungsfähigkeit verbessert wird, die also letztlich tödlicher, zerstörender, grausamer sind (z. B. Streubomben). Streubomben sind zwar von einigen Staaten geächtet, aber nicht von den Großmächten und von keinem Staat im Nahen Osten. Selbst bei einer völkerrechtlichen Ächtung einer bestimmten Waffenart (z. B. Landminen) wird weder deren heimliche Produktion noch tatsächlicher Einsatz verhindert. Außerdem hat bisher die technologische Weiterentwicklung der Waffenarsenale eher dazu geführt, dass für eine geächtete bzw. überholte Art längst modernere und effektivere Alternativen zur Verfügung stehen.

Solange Menschen, Gruppen, Staaten existieren, die um Macht und Einfluss konkurrieren, wird es auch Waffen zur Durchsetzung eigener Interessen und zur Bekämpfung und Vernichtung der Gegner geben. Zu Feinden erklärt entbehren Individuen sogar oft jedes menschenrechtlichen Schutzes (Folter, Tötung). Technik steht zu einem großen (größten?) Teil im Dienst der Militärs und der Waffenindustrie. Der militärisch-industrielle Komplex ist eine mächtige Realität (Geheimdienste, Rüstungsforschung, Waffenexporte). Die Stichworte zeigen, dass kein Land davon aus zu nehmen ist, auch Deutschland nicht. Dass technischer Fortschritt dem Leben dient und bessere Lebensverhältnisse schafft, klingt demgegenüber wie Hohn. Kann man Kriegstechnik darum nicht zu Recht als obszön bezeichnen?

Monokultur

Unangenehmes Thema. Wir lieben doch Technik und unsere technischen Spielzeuge. Was soll an einem E-Mobil oder Smartphone schon verwerflich sein? Nun ja, so einfach ist das leider auch hierbei nicht. Nicht allein dass die Bedingungen der Produktion problematisch sind (Auslagerung in Billiglohnländer ohne Sozial- und Umweltstandards), sondern auch der verstärkte Einsatz Seltener Erden insbesondere bei Schlüsseltechnologien (IT, Chemie, Feststoffe) ist grundsätzlich  problematisch. Seltene Erden sind überwiegend giftige „Metalle“, deren Auswirkungen auf Organismen nur wenig erforscht sind. Hinzu kommen erhebliche Probleme beim Abbau und Umgang mit diesen Elementen.

Mining, refining, and recycling of rare earths have serious environmental consequences if not properly managed. A particular hazard is mildly radioactive slurry tailings resulting from the common occurrence of thorium and uranium in rare earth element ores.[60] Additionally, toxic acids are required during the refining process.[15] Improper handling of these substances can result in extensive environmental damage. [Wikipedia, engl.]

Auch bei der Verbesserung der Batterieleistung von E-Mobilen spielen Seltene Erden eine große Rolle. Offenbar handeln wir uns da Probleme ein, deren Auswirkungen bisher kaum bekannt geschweige denn öffentlich diskutiert und angemessen bewertet sind, ganz zu schweigen davon, dass Seltene Erden eben selten sind und damit eine strategische Bedeutung gewinnen. Damit ist klar: Weder E-Mobilität noch IT-Technik ist eindeutig und nur positiv zu bewerten. Dass die negativen Implikationen und Folgen so wenig bekannt sind und kaum diskutiert werden, macht die Gefahren eher noch größer. Die bisweilen von technikverliebten Zeitgenossen skandalisierte Zweiteilung der Gesellschaft in IT-Besitzer und IT-Habenichtse (oft verkürzt auf eine Online- bzw. Offline-Generation) ist nun wirklich das geringste Problem. Es ist ein typisches sekundäres Luxus-Problem, das von den primären Problemen allenfalls ablenkt.

Man könnte nun weitere Technologien (im Sinne von Technik-Systemen) durchgehen und auf deren jeweilige Ambivalenz (vorsichtig gesagt) hinweisen: Der drohende Mangel an lebenswichtigem Phosphat, der in der Phosphatdüngung bislang hemmungslos (wörtlich: ohne Hemmung, weil ohne Problembewusstsein) eingesetzt wird, siehe die Infos bei ARTE Futur. Oder das weltweit in den Ozeanen vagabundierende Plastik, das in die Nahrungsketten eindringt und dem man bisher außer Achselzucken nichts entgegen setzt. Oder die bislang nur recht verschwiegen behandelten Langzeitgefährdungen durch den massiven Einsatz von Pestiziden (neueste Technik: „gebeiztes“, d. h. mit Pestiziden imprägniertes Saatgut) und da besonders durch Neonicotinoide. Wer nach so viel Negativem noch mag, schaue sich die gestrige Sendung von NetzNatur (SRF, 3sat) an. Das Bienensterben ist nur die Spitze des Eisberges; das Verschwinden der Biodiversität in unseren agrotechnischen Lebensräumen ist offenbar eine biologische Zeitbombe – und keineswegs ein Anlass zu romantischer Naturschwärmerei.

Von den Folgen und Auswirkungen der sog. Ersten Technischen Revolution, also der klassischen Industrialisierung, habe ich noch gar nicht geredet und will es auch nur als Stichwort erwähnen. Dieser Themenbereich ist zumindest weitgehend bekannt und gut dokumentiert. In Geschichte sind wir gut, in Zukunft weniger.

Beim näheren Hinsehen zeigt sich, dass unsere durch Technik geprägte Lebenswelt vorsichtig gesagt ambivalent ist, allerdings ambivalent nur der Sache nach. Denn technische Instrumente haben ja an sich keinen positiven oder negativen Wert. Den gewinnen sie erst durch ihren Zweck und ihren Gebrauch. Allenfalls eine eher positive oder eher negative Möglichkeit steckt in den Apparaten, weil sie bereits durch den menschlichen Geist und dessen Interessen und Absichten konstruiert sind. [Die möglicherweise weit reichenden Implikationen dieses Gedankens möchte ich hier nicht weiter verfolgen.]

Wird Technik aber verwirklicht, „gebaut“ und eingesetzt, verliert sie einen großen Teil der Ambivalenz. Sie dient nun dem für sie bestimmten Zweck, bisweilen bringt sie auch noch Folgezwecke und Folgenutzen – und unerwartete Folgewirkungen mit sich. Diese Zwecke technischer Instrumente sind fast durchweg ideologisch verbrämt. Technik, so hört man, dient der Erleichterung von schwerer menschlicher Arbeit. Technik dient der Mobilität, dem Komfort und damit (unterstellt) höherer Lebensqualität. Technik ermöglicht bessere Kommunikation und Beteiligung usw. Irgendwo stimmt das ja auch. Aber es ist nur die halbe Wahrheit, oft, so vermute ich, weit weniger als die halbe Wahrheit. Und genau da beginnt es obszön zu werden. Denn die Kosten im Bereich der Biosphäre und im Bereich „Arbeit & Soziales“ werden regelmäßig und absichtlich unterschlagen. Das konnte nicht nur die Atomindustrie gut.

Der Einsatz von technischen Mitteln dient nüchtern betrachtet zum größten Teil einem lebensbedrohenden Vernichtungspotential (Militär) oder einer massiven Gewinnmaximierung bzw. Kapitalvermehrung (Monopole und monopolähnliche Firmenkomplexe, weniger Google als vielmehr z. B. Monsanto, Syngenta uva.). Der jeweilige Technik-Nutzen dient in erster Linie macht- und wirtschaftpolitischen Zwecken, was oft genug zusammen fällt. Man muss wahrlich kein Marxist sein, um dies zu erkennen. Jede noch so abwegige technische Spielerei wird als lebensdienlich oder Komfort erhöhend verkauft („life companion“). Die sozialen und vor allem auch ökologischen Folgelasten werden tunlichst verschwiegen oder klein geredet. Da das Ausmaß der Schäden durch unsere technisch-industriellen Lebenswelten noch kaum zu ermessen, aber in der Klimaveränderung bereits mehr als nur zu ahnen ist, da dieses Ausmaß aber die menschliche Lebensbasis, die Lebenstauglichkeit unseres Planeten für künftige Generationen angreift und gefährdet, da die Lernfähigkeit und die Bereitschaft und Willigkeit für entscheidende Änderungen der Lebensstile, insbesondere unserer westlichen Überflussgesellschaften kaum vorhanden ist, da also die rasant wachsenden Möglichkeiten der Technik das Potential der Gefahren Weltzerstörung und Selbstvernichtung des Menschen ebenso rasant vergrößern, da – – – ich halte ein.

Ich kann es kaum anders denn als obszön bezeichnen, was sich vor unseren Augen und in unserer Lebenswirklichkeit abspielt. Die Verklärung von Technik, Technikkultur und technologischen Zukunftsvisionen steht in schreiendem Gegensatz zur tatsächlichen Gegebenheit, Produktion und Indienstnahme von Technik. Dazu braucht es nicht erst die NSA. Die Obszönität, die Unmoral liegt im Auseinanderklaffen von vorgespiegelter Glücksverheißung und welt- wie selbstzerstörerischer Wirklichkeit. Vielleicht ist es tatsächlich ein faustisches Problem: Der Geist der technischen Weltveränderung geht nicht, geht nie wieder in die Flasche zurück. Es könnte ein heilender Geist sein, die Möglichkeit zum Guten und zum Nutzen für das Leben sind ja da. Für einen kleineren Teil der Menschheit haben sich die Lebensbedingungen durch den Einsatz moderner Technologien drastisch verbessert (Gesundheit, Wohlstand), aber zu einem hohen Preis für die große Mehrheit und zu Lasten der Biosphäre. De facto haben sich bisher stets die zerstörerischen Kräfte durchgesetzt. Gewalt, Macht und Gier sind einfach zu real, zu dominant. Solange der Mensch Mensch ist, wird sich das kaum ändern. [Absatz update 29.11.]

[Update 21.12.: Link zum Thema Seltene Erden ]

 28. November 2013  Posted by at 14:46 Kultur, Technik Tagged with: , , ,  Kommentare deaktiviert für Obszöne Technik
Jul 262013
 

Der Tunnelblick ist ein bekanntes Phänomen. Der Begriff stammt zunächst aus der Augenheilkunde und meint dort die „konzentrische Einengung des Gesichtsfeldes auf einen zentralen Rest“ (Wikipedia). Umgangssprachlich bezeichnet der Begriff aber eher „im übertragenen Sinne die Unfähigkeit oder Unwilligkeit, Dinge wahrzunehmen, die außerhalb dessen liegen, wofür sich der Betroffene aktiv interessiert“ (ebd.). Man sagt dann auch mit einem veralteten Bild, einer habe Scheuklappen auf. Mir scheint allerdings, dass der Tunnelblick ein recht allgemeines Phänomen der Wahrnehmung ist, das die Konzentration der Aufmerksamkeit auf einen bestimmten, für wichtig erachteten Gegenstandsbereich kennzeichnet. Wenn diese Konzentration auf einen einzigen Bereich sehr stark und die Verengung der Wahrnehmung  länger anhaltend ist, dann wird daraus eben das, was man mit dem „Tunnelblick“ zutreffend bezeichnen kann. Es handelt sich um eine eingeschränkte Wahrnehmung meiner Umwelt.

Dass diese Einschränkung durchaus sinnvoll sein kann, zeigt die Bewegung im Straßenverkehr oder das Verhalten bei Gefahr. Alles kommt dann darauf an, sich auf das Wesentliche und Wichtigste zu beschränken. Damit liegt man im Allgemeinen richtig. Es kann aber durchaus passieren, dass man dabei einen plötzlich seitlich auftauchenden Fußgänger übersieht oder dass man einen etwas „abwegigen“ Ausweg aus einer Gefahr nicht erkennt. Die Konzentration der Wahrnehmung auf einen engeren Bereich, der durch unsere Alltagserfahrung definiert ist, hat also Vor-, aber auch Nachteile. Im Alltag dürften die Vorteile bei weitem überwiegen, sonst wäre diese evolutionäre Fähigkeit unseres Wahrnehmungsvermögens kaum so entwickelt, wie sie jetzt ist. Bei der Arbeit ist es wichtig, sich zu konzentrieren und nicht ablenken zu lassen. „Multitasking“ ist gut für Computer, offenbar weniger gut für Menschen.

Weltklima (Wikimedia)

Weltklima (Wikimedia)

In der öffentlichen Diskussion politischer Themen ist die Lage aber etwas anders zu beurteilen. Denn hier sollte es doch darum gehen, wichtige Themen umfassend und unter vielerlei Aspekten zu diskutieren. Außerdem sollte ein einzelnes Thema nicht andere, ebenso wichtige Themen verdrängen. Beides aber geschieht praktisch nicht. Themen werden möglichst vereinfacht und mit einer Schwarz-weiß-Schablone erklärt, und das Thema im Vordergrund lässt andere Themen in den Hintergrund treten oder ganz vergessen. Dieses Phänomen einfach mit der Funktionsweise der öffentlichen Medien zu erklären, die jeweils nur einen Fokus in den Mittelpunkt stellen und meist auch wenig differenziert darstellen (das zu tun wäre aber die erwartbare Leistung eines „Qualitätsjournalismus“), greift aus meiner Sicht zu kurz. Medien tun dies nur, weil die Aufmerksamkeit der Kunden und Nutzer – also von uns – meist nur auf einen einzigen Themenkomplex beschränkt ist. Sie tragen damit dem „Tunnelblick“ unserer Wahrnehmung und ihrer Verarbeitung Rechnung.

Man kann das am Beispiel vieler Themen der letzten Zeit fest machen. Ohne dass jeweils ein bestimmtes Thema endgültig geklärt oder gar gelöst wäre, gerät es doch durch andere Themen in Vergessenheit. Oft reicht ein konkreter, spektakulärer Anlass, um solch eine Änderung des öffentlichen Fokus auszulösen. Derzeit ist das Thema Internet-Sicherheit und Belauschtwerden durch die Amerikaner dran (schon dies ist eine verkürzte, undifferenzierte Kennzeichnung). Die Person Snowden ist bereits aus dem Blickfeld.  Aber andere große Themen sind völlig in der Versenkung verschwunden, als ob sie gar nicht existierten – bis zum Zeitpunkt irgend eines aktuellen Anlasses, wo man sich dann plötzlich daran erinnert: Ja, da war doch schon mal was…

Nehmen wir das Thema Klimaveränderung und Erderwärmung. Es ist der Sache nach so dringend und aktuell wie eh und je, eher noch stärker, da sich viele Prognosen bestätigen, – es interessiert derzeit nur niemanden (abgesehen von den damit befassten Profis). Auch das Thema Energieversorgung ist ja mit dem Ausstieg aus der Atomenergie in Deutschland keineswegs erledigt, befriedigend gelöst und in nachhaltige Modelle umgewandelt. Bisher ist Deutschland hier eine Insel, und Insellösungen sind eben keine globalen Lösungen. Der vermehrte Einsatz von (billiger) Energie aus Kohle, Gas und Öl weltweit (Stichworte fracking, Ölschiefer etc.) treibt den CO2-Ausstoß jährlich auf neue Rekordhöhen. Von einer Umkehr der Richtung in Sachen Energie und Klima kann überhaupt nicht die Rede sein. Dennoch: Das Thema ist völlig weg, und zwar schon lange vor dem Sommerloch. Zu beobachten ist dabei auch, wie ursprüngliche Ein-Thema-Parteien (Grüne, Piraten) sehr schnell ihr Profil-Thema verlieren können.

Die bestehende und sich verschärfende Ungleichheit der Vermögensverhältnisse in der Welt scheint auch niemanden zu beunruhigen. Das Thema taugt allenfalls gelegentlich im Wahlkampf, wenn es um die Forderung nach Mindestlöhnen oder um die Begrenzung des Niedriglohnsektors geht. Passieren tut aber trotz klarer Erkenntnisse nichts, weder in der öffentlichen Diskussion noch im Handeln der Regierungen. Dabei müsste uns nicht nur die weltweite Verschuldung (also das Spiel mit dem Computer-Börsen-Geld) bzw. die konkrete Verschuldung einzelner Länder beunruhigen, sondern die Konzentration der exponentiell wachsenden Vermögen in immer weniger Händen. Ich nenne hier bewusst nicht die Einkommen, denn die sind eine ganz andere Frage. Das weltweite Kapital ist aber in den Händen einer recht kleinen Gruppe von Menschen in unglaublicher Menge verdichtet. Zwar war schon im Alten Rom der Hauptteil der Vermögenswerte in Form von Ländereien in den Händen weniger Patrizier, aber die heutigen Verhältnisse sprengen offenbar jede Vorstellung. Durch die Verzinsung wird dieses Kapital weiter wachsen – und no chance auf irgend eine Korrektur. Mögen auch die Ärmsten tendenziell besser gestellt werden, so laufen die Einkommen der Vermögenden in eine eigene Welt davon. Was dies für die soziale Wirklichkeit bedeutet, und zwar nicht nur national, sondern global, darauf machen nur ganz wenige aufmerksam. Mich wundert, wie das brisante Thema Reichtum – Armut (siehe derzeit Papst Franziskus in Brasilien) schon beim nächsten wirtschaftlichen Aufschwung und bei der nächsten Lohnerhöhung gänzlich vom Tisch ist.

Es gibt zahlreiche weitere unbestritten wichtige Themen: Die Bevölkerungspyramide (Schrumpfung bei uns – Wachstum weltweit), das Gesundheitssystem (industrielle Gesundmacher, die krank machen), die Erhaltung von Lebensräumen und Arten (Überfischung, Schutz der Ozeane, Regenwälder) oder auch die Frage nach der Machbarkeit und Wünschbarkeit technischer „Errungenschaften“ (Genmanipulation, Künstliche Intelligenz, Vernetzung, Langzeitwirkung von Plastikmüll). All diese Themen bezeichnen Probleme unserer heutigen Lebenswelt, die keineswegs nur eingebildet oder randständig sind. Sie betreffen samt und sonders unser alltägliches Leben und insbesondere das der künftigen Generationen. Aber auch da wirkt der Tunnelblick-Mechanismus geradezu perfide: Wir nehmen nur das wahr, was uns heute betrifft, nach uns die Sintflut. Keiner gibt das gerne zu, aber wir leben so. Über den Tellerrand zu schauen, diese Themen immer wieder an sich ran zu lassen, den Tunnelblick mit unserer Vernunft zu sprengen und sich auf eine öffentliche Diskussion der vielfältigen Aspekte unserer Lebenswelten einzulassen, all dies verlangte von uns wohl Übermenschliches. Eigentlich verlangte es nur ein kühles, vernünftiges Denken, ein ehrliches Anerkennen der offenkundigen Probleme und die Bereitschaft zu einem Handeln, das nicht bei den Anderen, sondern bei uns selbst beginnt.

Änderung der Wahrnehmung bedeutet Änderung der Lebenspraxis. Und das ist offenbar das Problem. Niemand verlässt gerne ohne Not den alten Trott. Und mit Scheuklappen und Tunnelblick kann man die „Not“, sprich Notwendigkeit schön ausblenden. Ehe wir auf andere (die Politik, die Medien, die Wirtschaft) mit dem Finger zeigen, sollten wir einfach auf uns selbst weisen. Das wäre ein Anfang.

 26. Juli 2013  Posted by at 11:30 Gesellschaft, Öffentlichkeit, Politik Tagged with: , , , , ,  Kommentare deaktiviert für Tunnelblick