Jan 192014
 

[Kultur]

Das Wort Revolution hat seinen Schrecken oder seinen Hoffnungswert verloren. Ja, der Sturm auf die Bastille, der Sturm aufs Winterpalais, das waren noch Revolutionen! Danach sahen die politischen Revolutionen anders aus. Schon Ebert wurde die erste Reichskanzlerschaft eines Sozialdemokraten (was damals noch den Klang eines Kommunisten hatte) mehr oder weniger auf dem Silbertablett serviert. Das alte System war schon vorher zerbrochen. So war es auch in Südafrika beim Ende der Apartheid. Das System hatte seine Zeit gehabt und war am Ende; der Übergang der Macht konnte friedlich verlaufen. Wir wurden erst neulich beim Tode von Nelson Mandela daran erinnert.

Etwas anders sieht es zwar mit den arabischen Revolutionen aus, aber da ist man inzwischen eher vorsichtig geworden, für das Geschehen in Tunesien, Libyen und Ägypten überhaupt das Wort Revolution zu verwenden: Die Wortverschmelzung „Arabellion“ scheint das Eigentümliche besser zu treffen: eine Rebellion, deren Ausgang ungewiss ist und keine Änderung des Systems bedeuten muss (siehe Ägypten). Zumindest gingen diese politischen Ereignisse mit Gewalt einher, was eher mit dem herkömmlichen Revolutionsbegriff übereinstimmt.

Politische Revolutionen sind meist mit einem symbolischen Datum bzw. Ereignis verbunden, auch wenn die Vorgänge selber einen längeren Zeitraum beansprucht haben. Der längere Zeitraum eines Übergangs ist wiederum typisch für den weiter gehenden Gebrauch des Wortes Revolution in Fällen tiefgreifender wirtschaftlicher, technischer, wissenschaftlicher und sozialer Veränderungen. Die wissenschaftlich-technische Revolution des 19. Jahrhunderts hat mindestens ein Jahrhundert gedauert, vielleicht aber auch noch länger. Sie begann schon im ausgehenden 17. und dauerte bis ins 20. Jahrhundert fort. Die sozialen Revolutionen, die der ersten massiven Industrialisierung in England und auf dem Kontinent folgten und ihre Auswüchse begrenzten, dauerten ebenfalls viele Jahrzehnte. In Deutschland müsste man bei den Sozialgesetzen Bismarcks anfangen und bis in die sechziger Jahre der Bundesrepublik gehen, als mit der Schaffung eines Sozialgesetzbuches eine neues Kapitel der Sozialgesetzgebung aufgeschlagen wurde (SGB 1969 und die folgenden Jahrzehnte).

Blickt man auf den zeitlichen Verlauf solcher sozialen Revolutionen, dann tut sich eine Eigentümlichkeit auf, nämlich deren Ungleichzeitigkeit im Vergleich zu den globalen technologischen und ökonomischen Revolutionen. Sie können im engeren Sinne nur national bzw. für den Geltungsbereich einer Gesetzgebung namhaft gemacht werden, und das sieht dann von Land zu Land und Region zu Region ganz unterschiedlich aus. Für Europa hat hier die EU einen völlig neuen Gestaltungsraum geschaffen, obwohl auch dieser nur in der Rahmengesetzgebung eine Gleichzeitigkeit garantiert. Im Blick zum Beispiel auf die Länder Südostasiens müsste man ganz anders urteilen. In Bangladesch, Kambodscha, Vietnam usw. steht eine soziale Veränderung im Anschluss an die wirtschaftlich-technische Revolution der nationalen Produktionsweisen erst noch bevor. Im Zeitalter der wirtschaftlichen Globalisierung gibt es offenbar keine Gleichzeitigkeit sozialer Revolutionen.

Flammarion

Camille Flammarion, L’Atmosphere: Météorologie Populaire (Paris, 1888

Noch anders sieht es bei wissenschaftlichen und kulturellen Revolutionen aus. Betreffen politische und soziale Revolutionen von Anfang an breite Bevölkerungskreise und ganze Nationen, so macht sich eine kulturelle und erst Recht eine wissenschaftliche Revolution erst in kleinen Kreisen und sehr allmählich bemerkbar. Eine kulturelle Revolution folgt langfristigen Veränderungen in Wissenschaft, Technik und Ökonomie. Sie setzt im Allgemeinen eine Veränderung des Weltbildes voraus, sei es im Ganzen oder teilweise. Auslöser dafür sind „Paradigmenwechsel“ in der Wissenschaft (um einen Begriff von Thomas S. Kuhn zu verwenden). Inwieweit dies für die Geschichte der Wissenschaften in Europa gilt, hat Kuhn in seinem etwas in Vergessenheit geratenem Buch „Die Struktur wissenschaftlicher Revolutionen“ (1962) sehr klar heraus gearbeitet.

Das braucht Zeit. Die „Kopernikanische Wende“ nahm einige Jahrhunderte in Anspruch, bis man von einer Breitenwirkung sprechen konnte. Selbst innerhalb der Wissenschaften dauerte es von Kopernikus (†1543) über Johannes Kepler (†1630) und Galileo Galilei (†1642) bis zu Isaac Newton (†1727) und Immanuel Kant (†1804), ehe sich die „neue Denkungsart“ durchsetzte und breite Anerkennung verschaffte. Bei Charles Darwin (†1882) und der Evolutionstheorie könnte man Ähnliches nachzeichnen; die Auseinandersetzung um ihre Anerkennung dauert bis heute an, siehe aktuell ihre Bestreitung durch die Kreationisten. In der Folge dieser neuzeitlichen „Kulturrevolution“ hat sich (zumindest in der westlichen Welt) ein wissenschaftlich-technisches Weltbild etabliert, das unsere heutige Kultur und Lebenswelt paradigmatisch beherrscht. Dabei lässt sich kein Endpunkt feststellen, der Verlauf solcher Entwicklungen und Umformungen ist ständig im Fluss – bis zu einem neuen markanten Punkt, der sich wiederum erst im Kleinen andeuten könnte.

Noch andere Revolutionen betreffen Techniken und Produktionsweisen – und fördern erst in der Folgezeit möglicherweise weitreichende Auswirkungen zu Tage. So hat der Buchdruck zwar vergleichsweise kurzfristig mit Flugblättern und Pamphleten Geschichte gestaltet (Reformation; Dreißgjährige Krieg), aber kulturell erst langfristig Wirkungen gezeigt. Immerhin mussten erst einmal größere Bevölkerungsschichten lesen lernen, um Gedrucktes als Massenware auf den Markt bringen zu können. Die Einführung der Allgemeinen Schulpflicht setzte sich in Deutschland erst im Verlauf des 19. Jahrhunderts durch (Vorreiter Preußen, schon 1717) und gewann 1919 Verfassungsrang. Die Mühlen einer kulturellen Revolution mahlen also langsam.

Technische Umwälzungen verlaufen bedingt durch wirtschaftliche Anwendungen, Profit- und Kriegsinteressen meist sehr viel turbulenter. Die Einführung eines kontinentumspannenden und interkontinentalen Telegrafendienstes in den USA hatte wesentlich militärische und wirtschaftliche Antriebe, unter anderem wegen der schnellen Übermittlung von Börsendaten. Die dadurch verbesserte Kommunikationsmöglichkeit begleitete und förderte die erfolgreiche Industrialisierung durch Mechanisierung und zentrale Steuerung (Fließband). Rundfunk, Fernsehen und Telefonie folgten mehr oder weniger Schlag auf Schlag und veränderten die Möglichkeiten der Information und Kommunikation gravierend. Als letzte Technologie in dieser Reihe trat das Internet hinzu und drang über das World Wide Web in breitere Nutzerschichten ein.

Wie weit es gerechtfertigt ist, den Wandel der Informationstechnologien und damit vernetzter Steuerungs- und Kommunikationstechniken als eine zweite (dritte oder vierte) industrielle Revolution zu kennzeichnen, mögen Spätere beurteilen. Wir stecken noch mitten drin in den langfristigen Veränderungsprozessen, die die gesamte wissenschaftlich-technische Kultur betreffen. Nur weil es derzeit Mode ist, vom Internet als segensbringender neuer Kulturtechnik zu sprechen, muss dies noch keineswegs zutreffend sein. Sprache und Schrift sind grundlegende Kulturtechniken, das andere sind Teilaspekte einer technikbestimmten Industrialisierung. Und hier gilt wie bei aller technologischen Entwicklung bisher: Die treibenden Kräfte sind stets Kapital und Militär. Edward Snowden hat die informationstechnische Arbeitsweise des militärisch-industriellen Komplexes aufgedeckt. Google und Amazon stehen für die derzeitige Übermacht des kommerziell-industriellen Komplexes.

Die Art der Anwendung der Informationstechnologien mögen sich gewandelt haben und in immer kürzeren Intervallen ändern und anpassen. Die Macht- und Informationsoptionen der Staaten und Mächte (insbesondere ihrer Militärs) mögen sich verändert und ausgeweitet haben. Das Konsumverhalten hinsichtlich von Gebrauchsgütern und Dienstleistungen mag sich fortwährend ändern und den aktuellen Technologien anpassen, auch das Kommunikationsverhalten Einzelner mag sich verändern (wiewohl Facebook auch als große Spielwiese betrachtet werden kann, die wächst und welkt). Dies alles ist bemerkenswert und für technisch Affine faszinierend, für technisch weniger Begabte verstörend oder bedeutungslos. Ob ich meine Fahrkarten am Schalter, am Automaten oder online kaufe, bedeutet ja noch keinerlei kulturelle Revolution.

Man sollte also mit dem Hype (positiv wie negativ: „Das Heil im Internet!“ –  „Das Internet ist kaputt!“) etwas vorsichtiger sein. Bei ruhiger Betrachtung und dem Bemühen um historische Distanzierung und Einordnung in das, was Revolutionen, also Umwälzungen, bisher ansonsten bewirkt haben und was sie in ihrem Verlauf beeinflusst, ist es zumindest fragwürdig, von einer zweiten industriellen Revolution zu sprechen, ganz zu schweigen von einer Kulturrevolution. Die Informationstechniken verändern sich. Das beeinflusst natürlich Leben und Arbeiten. In wie weit damit paradigmatische Veränderungen des Weltbildes verbunden sind, die allererst zu einer kulturellen Revolution führen könnten, steht auf einem ganz anderen Blatt und ist derzeit nicht absehbar.

Revolutionen dieser Art verlaufen sehr langsam, sehr allmählich und keineswegs im Takt der Innovationen von Smartphones. Der Alltag zu Hause, der Alltag der Büros und Geschäfte, der Alltag der Regierungen und Mächte ist viel alltäglicher, gewöhnlicher und unaufgeregter als Medieninszenierungen und Twitter-Stürme glauben machen. Die einen kämpfen ums gute Leben, oder auch nur ums einigermaßen auskömmliche Überleben, die anderen kämpfen um den Erhalt von Macht und Privilegien, wieder andere, die großen Mächte und Regierungen, kämpfen ihre rücksichtslosen Kämpfe um absolute Kontrolle und Beherrschung ihrer Weltdomänen. Dahinein mischen sich technologische Veränderungen von unbekannter Halbwertszeit. Alles ziemlich banal und ziemlich normal. Für das angemessene Urteilen braucht man einen langen Atem. Diesen jeweils aktuellen Veränderungen und ihren Aufgeregtheiten gegenüber ist nur eines wirklich „zielführend“: nüchterne Gelassenheit und kritischer Abstand.

Revolutionen dauern halt länger – und Vernunft sowieso.

UPDATE 20.01.13: In seinem jüngsten als Antwort an Sascha Lobo verfassten Aufsatz „More political interference“ knüpft Evgeny Morozov an den Gedanken des durch das Internet möglicherweise angestoßenen Paradigmenwechsels an. Ich verweise gern auf diesen guten Beitrag zu einer etwas grundsätzlicheren Betrachtung dessen, was „Internet“ bedeuten kann.

 19. Januar 2014  Posted by at 15:11 Kultur, Neuzeit, Revolution, Wissenschaft Tagged with: , , , , ,  Kommentare deaktiviert für Langsame Revolution
Jul 192013
 

I. In der letzten Zeit beschäftigt mich die Analytische Philosophie des Geistes und der Stand der Kognitions- und Neurowissenschaften einerseits und der technische, soziale, kulturelle Prozess der Transformation der digitalen Wirklichkeit andererseits. Die aktuellen Diskussionen um die „Hegemonie des digital-industriellen Komplexes“ (Schirrmacher), also um Überwachung, Auswertung von Dig Data, Datenschutz und Freiheitsrechten / Bürgerrechten stehen in einem offenkundigen Hiatus zur akademischen Diskussionslage über die Möglichkeiten der Neuro- und Kognitionswissenschaften hinsichtlich der Bewusstseinsforschung und „machbarer“ Bewusstseinsveränderung. Auf der einen Seite ein (hoffentlich heilsamer) Schock in der Öffentlichkeit, den Edward Snowden herbei geführt hat (das ist sein Verdienst), auf der anderen Seite eine unbedarft optimistische Vorwärtsstrategie der Bewusstseinsforschung (der im Übrigen auch schon eine entsprechende „Bewusstseinsindustrie“ / Pharmaindustrie zur Seite steht), deren Ziele in der Erklärung und möglichen Manipulation des menschlichen Bewusstseins unverändert und von der Öffentlichkeit weitgehend unbeobachtet verfolgt werden. Hier wie dort gilt ein „Gemacht wird, was machbar ist.“ Aber die fröhliche Unbedarftheit der bisherigen Apostel des Internets und der ihnen bereitwillig folgenden Internetgemeinde hat einen spürbaren Knax bekommen. Zwar muss hier zwischen der medialen und teilweise auch dem Wahlkampf geschuldeten Aufgeregtheit der veröffentlichten Meinung einerseits und dem tatsächlichen Verhalten der Internetnutzer andererseits unterschieden werden. Solange sich die derzeitige Diskussion um Big Data und #PRISM auf die Verkaufszahlen von Apple, Samsung, der Nutzerzahlen von Google, Facebook, Amazon nicht auswirkt, so lange kratzt die Diskussion offenbar nur an der gesellschaftlichen Oberfläche. Erst ein verändertes Nutzerverhalten würde hier ein gestiegenes Problembewusstsein und eine ernsthafte Sorge erkennen lassen. Dies fest zu stellen ist es noch zu früh. Vermuten kann man allerdings, dass die aktuelle Diskussion kaum dazu beitragen wird, den digitalen Graben zwischen den Techies und den eher Reservierten zu verringern. Vielleicht ist das ja auch gut so. Jedenfalls ist in der Öffentlichkeit die Diskussion über das neue Menschenbild der digitalen Welt – der verhaltenstransparente Konsument und der sicherheitsriskante Bürger – eröffnet.

II. Ganz anders ist die Lage in dem anderen, mindestens ebenso brisanten Themenfeld. Auf welche Weise die modernen Humanwissenschaften auf naturalistischer Grundlage ein neues Menschenbild, mehr noch einen neuen Menschen schaffen, dessen Gehirn in seiner Funktionsweise immer verständlicher und dessen geistige Fähigkeiten und individuelles Verhalten dementsprechend neurologisch erklärbar, kognitiv transparent und psychiatrisch manipulierbar werden, das interessiert nur am Rande gelegentlich das Feuilleton. Populärer sind allemal Bücher mit Anleitungen zum Glücklichsein oder zur „richtigen“ Entfaltung der eignen Potentiale. Dabei beruhen die Methoden der Neurowissenschaften immer stärker auf Computermodellen, die ebenfalls big data erfassen und verarbeiten. „Bildgebende Verfahren“ klingt da etwas naiv und harmlos, denn das ist ja nur die bunte, anschauliche Oberfläche neurologischer Forschung. Andere Verfahren erheben den gesamten elektrischen Zustand eines Gehirns und übersetzen ihn in ein algorithmengestütztes, selbstlernendes Computermodell, das, so die Erwartung, dann schlicht ein Spiegelbild eines menschlichen Gehirns ist. Ob es sich wirklich so verhält und ob es funktioniert, wird sich zeigen, aber die Fortschritte in den Neurowissenschaften sind gerade in den letzten Jahren mit wachsender Rechenpower gewaltig. Jedenfalls wachsen die Bemühungen um eine Modellierung des menschlichen Geistes bzw. des Bewusstseins weit über bloße Theorien hinaus. Es wäre leichtfertig, hier nur Spekulation und technische Phantasien am Werk zu sehen. Was bisher als science fiction erscheint, könnte schneller als gedacht science technics werden. Nachdem die Diskussion vor einigen Jahren die Frage des „freien Willens“ (ein Nebenkriegsschauplatz) publikumswirksam thematisiert hat, ist die Hirnforschung mit ihren Strategien, menschliches Gehirn und menschlichen Geist endlich in den Griff zu bekommen, weitgehend öffentlich unbeobachtet. Nur über die Stammzellenforschung hat man sich eine Zeit lang aufgeregt, auch dies aus meiner Sicht eine sehr deutsche Nebenbühne.

Faust spricht mit dem Erdgeist, Margret Hofheinz-Döring, Öl, 1969 (Wikimedia Commons)

Faust spricht mit dem Erdgeist, Margret Hofheinz-Döring, Öl, 1969 (Wikimedia Commons)

III. Im Blick auf die Neurowissenschaften und die durch sie gemeinsam mit der Biogenetik nachhaltig veränderten Humanwissenschaften hinkt eine öffentliche Diskussion, ja überhaupt Wahrnehmung der Tragweite und Auswirkungen, also der ethischen Herausforderungen und Handlungsbegleitung der Wirklichkeit auffallend hinterher. Was die digitale Transformation betrifft, haben wir soeben die Chance bekommen (Snowden sei Dank), die Diskussion um Mittel und Wege, Rechte und Grenzen, Wollen und Sollen breit und öffentlich, hoffentlich ausführlich und begründet zu führen, praktische politische und persönliche Konsequenzen eingeschlossen. Auch dies hat ethische Aspekte in der Frage, welches Menschenbild der Digitalisierung zu Grunde liegt oder liegen sollte. Es zeigt sich, dass die großen Themengebiete Digitalisierung und Hirnforschung, erweitert um das Thema der Biogenetik, uns an die Schwelle einer kulturellen Transformation ungeahnten Ausmaßes bringen. Diese Transformation wird zwar zunächst in den industrialisierten Ländern beginnen, aber kaum vor irgend einem Kontinent halt machen. Die Möglichkeit, diesen Transformationsprozess zu steuern, wird schwierig sein, weil der ihn antreibende Strom der Ereignisse und Interessen fast übermächtig ist. Umso mehr und kraftvoller muss das Bemühen um öffentliche Diskussion und Gestaltung sein. Neue ethische Maßstäbe und rechtliche Rahmenbedingungen sind nötig. „Alles was wir einmal Bürgerrechte oder Privatsphäre nannten: Das ist alles weg.“ (Leyendecker). Damit nicht noch mehr von dem „weg“ ist, was uns lieb und teuer ist, sollten wir uns kundig machen und einmischen, in jedem der neuen Wissensgebiete, vor allem gegenüber den politisch-industriellen Machtkomplexen. Die Zeiten eines Nelson Mandela, der gestern seinen 95. Geburtstag beging, könnten andernfalls im Rückblick noch als rosig erscheinen. Wir brauchen nicht weniger als eine neue Ethik und Politik der kulturellen Transformation.

 19. Juli 2013  Posted by at 11:15 Gesellschaft, Mensch, Wissenschaft Tagged with: , , , , , , , ,  Kommentare deaktiviert für Ethik der digitalen Transformation
Jun 292013
 

Die Wirklichkeit ist nicht so unzweifelhaft wirklich, wie sie auf den ersten Blick scheint – und wie sie von den „naiven“ Realisten voraus gesetzt wird. Es ist erstaunlich, wie alte philosophische Traditionen wie der antike erkenntnistheoretische Skeptizismus eines Sextus Empiricus plötzlich wieder ganz aktuell erscheinen. Natürlich muss ein neuer Name her, „eliminativer Phänomenalismus“ klingt auch gleich viel wissenschaftlicher. Die dahinter stehende Sache ist aber alt und durchaus ernst zu nehmen. Es ist erst recht bemerkenswert, dass diese radikale Position auf dem Hintergrund der Hirnforschung und der modernen Phänomenologie des Bewusstseins auftaucht. Thomas Metzinger, analytischer Philosoph und Bewusstseinsforscher, entwickelt eine hoch interessante, wenn auch im Blick auf die verfügbare empirische Datenbasis noch hoch spekulative Theorie des Ich und des Bewusstseins; auf sein anregendes Buch „Der Ego-Tunnel“ habe ich wiederholt hingewiesen. Mittels des Begriffs des „phänomenalen Selbstmodells“ (PSM) versucht Metzinger, auf der Höhe der empirischen Befunde der Neurowissenschaften eine evolutionär-funktionale Theorie des Bewusstseins zu entwickeln. Der Titel seines populärwissenschaftlichen Buches deutet schon das Ergebnis an: Wir leben in einem unbewusst selbst entworfenen „Ego-Tunnel“, aus dem es kein Entrinnen gibt. Der aus dem Gehirn evolutionär entspringende Geist hat eine unglaublich komplexe und effektive Weise der Aneignung der Welt hervor gebracht mit dem Ziel, Handlungsmöglichkeiten zu gewinnen. Dabei wird „die Welt“ aber allererst in einem Modell konstruiert, das durch die Sinnesorgane und die Verarbeitung im Gehirn transparent zur Verfügung gestellt wird. „Welt“, also äußere Realität, ist das, was mir zuhanden ist. Das „virtuelle“ Selbst erstellt eine virtuelle Welt, um darin als absichtsvoller Agent auftreten zu können. In einer wissenschaftlichen Theorie des Bewusstseins kann diese Funktionalität entdeckt und bewusst gemacht werden. Es bleibt aber ein Zirkel, denn das Bewusstsein spiegelt sich hierbei nur in sich selbst. Offenbar hat sich dieses Modell aber als Überlebensstrategie bestens bewährt. Es ist allerdings nur ein Modell.

Dass der Wirklichkeitsbezug erkenntnistheorerisch zweifelhaft bleibt, verdeutlicht eine zunächst recht exaltiert erscheinende Position. Metzinger beschreibt sie in einem fiktiven Gespräch so:

Das merkwürdige philosophische Konzept, das diese Traumgemeinschaft aus Naturwissenschaftlern entwickelt und zu ihrer Prämisse gemacht hat, ist unter dem Namen »eliminativer Phänomenalismus« bekannt. Wie der etwas übereifrige Doktorand Ihnen erklärt: »Eliminativer Phänomenalismus ist durch die These charakterisiert, dass die Physik und das neurowissenschaftliche Menschenbild eine radikal falsche Theorie sind; eine Theorie, die so fundamentale Defekte aufweist, dass sowohl ihre Prinzipien als auch ihre Ontologie irgendwann schließlich durch eine vollständig entwickelte Wissenschaft des reinen Bewusstseins ersetzt werden, statt problemlos auf diese reduziert zu werden.« Die gesamte Wirklichkeit ist demzufolge eine phänomenale Wirklichkeit. Die einzige Möglichkeit, aus dieser Wirklichkeit herauszufallen, besteht darin, die grandiose (aber fundamental falsche) Annahme zu machen, dass es tatsächlich eine Außenwelt gibt und dass Sie das Subjekt – das heißt das erlebende Selbst – dieser phänomenalen Wirklichkeit sind, dass es tatsächlich so etwas wie einen Bewusstseins-Tunnel gibt (ein Wurmloch, wie die Forscher im Traum-Tunnel es ironisch nennen) und dass es Ihr eigener Tunnel ist. Indem Sie sich diese Überzeugung ernsthaft zu eigen machen, würden Sie jedoch plötzlich unwirklich werden und sich selbst in etwas noch Geringeres als eine bloße Traumfigur verwandeln: in eine mögliche Person – genau das, was Ihr Kontrahent am Anfang der Diskussion behauptet hat. (Thomas Metzinger, Der Ego-Tunnel, S. 213f.)

Der „Ego-Tunnel-Blick“ ist also durchaus nicht nur erhellend. Aber richten wir unsere Überlegung auf etwas Anderes. Weniger bezweifelbar ist es, dass wir die Welt außerhalb nur vermittels unserer Sinne durch unsere geistige Aktivität wahrnehmen können. Dabei geschieht eine Interpretation der Sinneserfahrung, die uns das, was der Sinn vermittelt, allererst zugänglich und begreifbar macht. Das Auge gibt uns ein „Bild“ von etwas, das elektromagnetische Strahlung im „sichtbaren“ Bereich, also zwischen 380 nm und 780 nm Wellenlänge, reflektiert. Dies ist nur ein winziger Ausschnitt aus dem gesamten Spektrum elektromagnetischer Strahlung, wie ein Schaubild (Wikipedia) verdeutlicht. Für akustische Sinneswahrnehmung gilt dasselbe, auch da steht unseren Sinnen nur ein kleiner Ausschnitt zur Verfügung, den wir als Töne und Klang wahrnehmen. Ein bestimmter Wellenbereich wird von unserem Tastsinn als Wärme empfunden. Auch dies ist eine Interpretation, denn das Gefühl von Wärme ist keine physikalische Eigenschaft. Wärme ist „thermische Energie, die in der ungeordneten Bewegung der Atome oder Moleküle eines Stoffes gespeichert ist.“ Gegenständlichkeit ist eine bestimmte Anordnung oder Struktur eines atomaren oder molekularen Verbandes, dessen Energie- und Masseeigenschaften von unseren Sinnen (Auge, Tastsinn) in ganz bestimmter Weise wahrgenommen und durch das Gehirn interpretiert werden können. Physikalisch gibt es allenfalls „Körper“, das heißt molekulare Strukturen mit bestimmten Eigenschaften. Auch hier gilt wiederum, dass wir mit unseren Sinnen nur einen Ausschnitt vorhandener Körper wahrnehmen können, die von Größe und Ausdehnung her unseren lebensweltlichen Anforderungen entsprechen. Was zu klein oder zu groß, zu langsam oder zu schnell, zu nah oder zu fern ist oder wofür wir überhaupt keinen Sinn haben, das nehmen wir nicht wahr, zumindest nicht ohne Hilfsmittel. Was wir auf keinerlei Art wahrnehmen können, ist für unsere „naives“ Realitätsempfinden nicht vorhanden. Für Radarimpulse oder Radioaktivität haben wir kein Sensorium, darum nehmen wir diese Strahlung und damit diese mögliche Gefahr unmittelbar nicht wahr. Das Zeitempfinden schließlich ist ebenfalls durch unseren Organismus bestimmt, indem unser Leben im Rhythmus des Herzschlages entlang des Rhythmus‘ von Tag und Nacht verläuft. Zeit „an sich“, also physikalisch, ist nur als Veränderung im Raum relativ zu anderen Systemen bestimmbar. Sie ist allerdings „gerichtet“, d.h.  unumkehrbar aufgrund des Zweiten Hauptsatzes der Wärmelehre (Entropie).

Molekülbewegung (Wikipedia)

Molekülbewegung (Wikipedia)

Über das „Gesetz“ der steten Zunahme der Entropie ließe sich genüsslich philosophieren, insbesondere was Entropie genau bedeutet. „Unordnung“ ist nur eine sehr ungenaue Interpretation, „Zunahme von Information“ (von Weizsäcker) schon eine sehr viel genauere. Hier sei nur fest gehalten, dass grob gesprochen die Welt der Physik (als Basiswissenschaft unseres naturwissenschaftlichen Weltbildes) von der Welt, wie wir sie wahrnehmen, erfahren und interpretieren, grundverschieden ist. Alles, was wir als inner- und alltagsweltliche Gegebenheiten kennen, kommt dort „nur“ als abstrakte Beschreibung von Massen und Energien, von Kräften und Wechselwirkungen, von Feldern und Konstanten vor. Beide Welten passen schon „irgendwie“ zusammen, aber sind ihrer Art nach doch völlig verschieden: In den Gesetzen der Physik findet sich nämlich überhaupt keine unsrer Empfindungen und mentalen Metaphern, Modelle, Bilder wieder.

Was ist nun wirklich: die Welt der Physik oder die Welt unserer Alltagserfahrung? Oder ist auch die Welt der Physik „nur“ ein Modell, ein sehr viel abstrakteres, genaueres, aber eben auch nur ein eben mathematisches Modell unseres Geistes, um all das („Welt“) zu erfassen und zu bestimmen („Erkenntnis“) und in seiner Funktionsweise („Gesetze“) zu erklären, was uns zunächst unsere Sinne naiv-real als zuhanden und darum vorhanden vermitteln? Zumindest machen diese Überlegungen deutlich, dass die Auffassung der alten Skeptiker bis hin zu den Geist-Theorien der Neuplatoniker (Welt als Emanation unseres Nous / Geistes) gar nicht so weit von dem entfernt sind, was auch heute zugespitzt formuliert wird wie oben zitiert: Dass sich die „reale“ Welt als reines Phänomen, als fiktives Modell, als mentale Repräsentanz des Bewusstseins eliminativ auflöst oder zumindest infrage gestellt sieht. „Darum soll es auch erst mal genug sein mit der Tunnel-Erkenntnistheorie“, beschließt Metzinger seinen Abschnitt. Wohl wahr, es ist verwirrend, aber eben auch spannend und nachdenkenswert. Die allzu forschen Realisten und physikalischen Materialisten sollten sich jedenfalls nicht allzu sicher wähnen. Der Hauptgegner des Skeptizismus von ehedem war der von ihnen so benannte und bekämpfte Dogmatismus. Das könnte zu denken geben.

 29. Juni 2013  Posted by at 11:53 Philosophie, Wissenschaftstheorie Tagged with: , , , , ,  Kommentare deaktiviert für Eliminative Wirklichkeit
Jun 192013
 

Unsere Vernunft, die Ratio, ist ein mächtiges Werkzeug. Sie stellt Möglichkeiten bereit, die Welt als geordnet zu erkennen und mit Hilfe fester Regeln und Gesetzmäßigkeiten zu beschreiben. Seit mehr als zwei Jahrtausenden, jedenfalls solange wir schriftliche Zeugnisse haben, stellen Menschen ihre Vernunft in den Dienst der Welterkenntnis. Zunächst einmal war die Entwicklung der Ratio ein überlegenes Instrument zur Sicherung der Existenz und des Fortbestandes der eigenen Art. Beim Nahrungserwerb (Jagd, Ackerbau), bei der Behauptung und Verteidigung von geeignetem Lebensraum und bei der Nutzung von Vorteilen für die eigene Gruppe (Familie, Clan) konnte vernünftiges Handeln durch das Verfolgen von Strategien und durch Zweck-Mittel-Abschätzung das Erreichen von gewünschten Zielen sichern. Aber zugleich erwies sich die Vernunft auch als ein unerhört mächtiges Mittel, die Welt zu erkennen und ihre Ereignisse zu begreifen. Im Verlauf der Geschichte setzte sich die Vernunft immer mehr als einziges Mittel, als einzig legitime Weise der Welterkenntnis und der Weltbemächtigung durch. Ihr steht das magisch-symbolische Weltverhältnis gegenüber, wie es sich unter anderem in Religionen Ausdruck verschafft. Aber dieses „Verhalten zur Welt“ hat seinen ursprünglichen Anspruch, zugleich auch die Welt in ihrem Wesen zu erkennen, weitgehend eingebüßt. Die Vernunft hat heute das Monopol, das Funktionieren der Welt angemessen zu beschreiben. Sie tut dies mit Hilfe der unterschiedlichen Wissenschaften, die methodisch nachprüfbar die Strukturen und Gesetzmäßigkeiten der verschiedenen Welt- und Lebensbereiche aufzuweisen suchen. Die wissenschaftlich geschulte und methodisch eingesetzte Vernunft ist dabei ungeheuer erfolgreich gewesen. Sie ist sozusagen der dickste Knüppel, um dem großen Sack der Geheimnisse dieser Welt zu Leibe zu rücken. Der universale Anspruch der Vernunft auf Welterkenntnis und Welterklärung und in der Folge auch auf Weltbemächtigung besteht also aus guten Gründen. Die Ratio ist schlicht die erfolgreichste „Allzweckwaffe“ des homo sapiens.

Ein Problem besteht nun nicht darin, dass dadurch die religiös-mythologische Weltdeutung entwertet würde. Diese behält ihren Platz und ihr Recht durchaus in ihrem eigenen Bereich der unmittelbaren, emotional-sensitiven Welterfahrung. Wer die Bedeutung der Emotion, Empathie, Sensibilität verkennt, übergeht einen wesentlichen Bereich menschlichen Lebens, wie er sich etwa in Mystik und Kunst ausdrückt. Das Problem besteht vielmehr im Gebrauch der Ratio selber. Zu fragen ist nämlich nach der Rationalität der machtvollen Ratio, – ersichtlich eine Metafrage. Welches sind die Bedingungen und Grenzen der Aussagekraft vernünftiger, d.h. wissenschaftlicher  Theoriebildung? Was können sie erklären und beweisen? Karl Popper hat in seinem „kritischen Rationalismus“ die Auffassung vertreten, jede wissenschaftliche Erkenntnis beruhe darauf, durch Falsifizierung unzureichende Theorien auszuscheiden und auf diese Weise ex negativo der Wahrheit näher zu kommen. Dies erklärt heutige wissenschaftliche Verfahrensweisen aber nur zum Teil. Denn de facto will Wissenschaft stets beweisen, also eine positive Aussage über Existenz, Struktur, Funktion usw. machen. Versuche am CERN wollen ja gerade nicht die Unmöglichkeit des Higgs-Bosons, sondern seine Existenz nachweisen, um die bisher geltende Theorie der Teilchen und ihrer Wechselwirkungen zu bestätigen. Nach dem, was man liest, scheint das auch nahezu gewiss gelungen zu sein. Unter Physikern besteht daher die Zuversicht, auf einem guten Wege zu einer GUT (Grand Unified Theory) zu sein, die die Gesamtheit der Elementarteilchen ebenso umfasst wie die drei bzw. vier kosmischen Grundkräfte (die Gravitation kann man als vierte Kraft bisher noch nicht mit den drei anderen vereinheitlichen). Letztlich geht es bei einer GUT oder gar bei einer TOE (Theory of Everything) immer um eine Rückführung (lat. reductio) der Vielfalt der Erscheinungen und Ereignisse auf wenige einfache Grundgegebenheiten: Teilchen, Kräfte, Strukturen, Gesetze. Ziel ist die Vereinheitlichung und Vereinfachung der Komplexität auf der oberen Ebene der Wirklichkeit (Makro-Ebene) durch Reduktion auf die Grundgegebenheiten auf der untersten Ebene (Mikro-Ebene, hier Teilchenphysik). Der so erfolgreiche Reduktionismus ist daher faktisch zum leitenden Erkenntnisprinzip geworden.

Cellarius mundi, Tycho Brahe (Wikipedia)

Cellarius mundi, Tycho Brahe (Wikipedia)

Dies Verfahren setzt sich ebenso erfolgreich in anderen Bereichen der Wissenschaft durch. So versuchen die Neurowissenschaften, die Phänomene und Funktionen der geistigen Tätigkeiten auf ihre neuralen Grundlagen zurück zu führen. Auch hier gibt es gewaltige Erkenntnisfortschritte. Die analytische Philosophie angelsächsischer Prägung ist intensiv damit beschäftigt, die empirischen neurologischen Befunde und die biophysischen Theorien auf der Ebene einer Theorie des Geistes (theory of mind) zu verarbeiten. Auch hierbei hilft die Methode der Reduktion, die Vereinfachung und Rückführung in diesem Falle geistiger Fähigkeiten auf ihre neurale Basis (Korrelate) erfolgreich darzustellen. Grundlage des Reduktionismus ist stets ein methodischer (und meist auch ein ontologischer) Materialismus. Wir „sind“ mit unserer Ratio nichts anderes (‚nothing but‚) als Strukturen und Funktionen eines ungeheuer komplex-molekularen Zusammenhangs von Nervenzellen, so wie der Mensch als Ganzes Resultat eines Zusammenspiels biophysischer Strukturen und Prozesse ist. Noch einmal: Dies Verfahren und diese wissenschaftliche Methode ist unglaublich erfolgreich. Der ontologische Reduktionismus ist im Ergebnis jedem metaphysischen Dualismus überlegen.

Das Problem ist aber dadurch nicht beseitigt. Das Problem ist so komplex, wie die Sache, um die es geht. Das Problem besteht darin, dass man zum rationalen Erkennen und Begreifen von Erscheinungen in der Welt jeweils ein Modell braucht, eine erste Theorie, aufgrund derer überhaupt erst Hypothesen aufgestellt, Experimente durchgeführt und Schlussfolgerungen gezogen werden können. Jedes Theoriemodell beruht auf bestimmten ausgesprochenen oder unausgesprochenen Prinzipien. Besser ist es, sie offen zu legen, aber oftmals scheinen diese Prinzipien so selbstverständlich zu sein, dass darüber kein Wort verloren wird. Die wissenschaftlich formulierte, rational begründete Theorie, welche auch immer, geht von etwas aus und zielt auf etwas anderes ab. Das, worauf abgezielt wird, ist stets davon abhängig, was man als Ausgangspunkt gewählt hat. Im logischen Schlussverfahren ist eine petitio principii ‚verboten‘, weil vorausgesetzt wird, was zu beweisen ist. Wissenschaftliche Theoriebildung aber verfährt grundsätzlich auf der Basis einer petitio principii: Die Voraussetzung, der Geltungsrahmen und die angenommene Funktionsweise (Gesetzlichkeit) bestimmen das Ergebnis. Dies ist kein Verfahrensfehler. Dies ist innerhalb wissenschaftlicher Theoriebildung unvermeidlich. Die angenommenen Voraussetzungen mögen plausibel und gut begründet und bewährt sein, sie sind letztlich nicht ableitbar und werden von der theoretischen Vernunft (voraus) gesetzt. Zumindest sie selbst, die Funktionsweise der Ratio selbst, muss voraus gesetzt werden. Und welcher Art Ratio dann angewandt wird, kann  auch noch einmal streitig sein (deduktiv, intuitiv, inferentiell). Geht man von der Möglichkeit erkenntnismäßiger Reduktion als Weg zur Welterkenntnis aus, dann werden auch nur Ergebnisse folgen und anerkannt werden, die dem reduktiven Ziel entsprechen. Der Schritt von der epistemischen zur ontologischen Reduktion ist dann nur noch ein kleiner, wenn nicht unmittelbar das Erkannte selbst als wirklich fest gestellt wird.

Ein zweiter Aspekt des Problems betrifft das Verfahren, komplexe Verhältnisse auf der Makro-Ebene durch einfachere Verhältnisse auf einer Mikro-Ebene reduktiv zu erklären. Vorausgesetzt wird dabei, dass bei diesem Wechsel der Ebenen  nichts verloren geht. Der Einwand bezieht sich nicht nur auf den bekannten Satz des Aristoteles, das Ganze sei mehr als die Summe seiner Teile, indem ein zusammen gesetztes Ganzes anders funktionieren könne als jedes seiner Teile. So formuliert ist es eine Trivialität. Natürlich ist zum Beispiel eine mechanische Uhr funktional „mehr“ als bloß die Einzelfunktion ihrer Zahnräder und Federn. Das Entscheidende des Problems liegt darin, dass jede Ebene der Wirklichkeit ihre eigenen Organisationsprinzipien und Funktionsgesetze hat. Beim Wechsel der Ebenen, bei der Reduktion also von oben nach unten, wird auf jeder Stufe von den Funktionszusammenhängen, also von der essentiellen Organistaionsweise der nächst höheren Stufe abgesehen. Betrachtet man in der Molekularbiologie die Arten und Strukturen der vorfindlichen Moleküle, so arbeitet man innerhalb eines ganz anderen Bezugsrahmens als zum Beispiel der Zellbiologe, der die Verhaltensweise von Zellen und Zellverbänden untersucht. Die jeweilige Ebene der wissenschaftlich erforschten Wirklichkeit hat ihre eigene spezifische Organisation und Funktionalität, die auf der reduktiv darunter liegenden Ebene bewusst ausgeblendet wird, sonst wäre ja keine vereinfachende Reduktion erreicht. Die Frage ist aber, ob bei dieser Reduktion nicht gerade das Entschiedende, Spezifische der höheren Koomplexitätsebene verloren geht, dass somit also durch die Reduktion gar nicht mehr die zunächst untersuchte Entität (das vormalig organisierte „Ganze“) in den Blick kommt. Auch dies ist kein methodischer Fehler, sondern liegt in der Sache des reduktiven Ansatzes selber begründet. Dass auf der unteren basalen Ebene der untersuchte Gegenstand / Prozess noch derselbe ist wie der komplex organisierte, bleibt bloße Behauptung. Am Beispiel Hirnforschung: Dass ich durch die Rückführung der geistigen Prozesse auf neurale Funktionen tatsächlich noch die geistigen Funktionen und nicht irgendein anderes Substrat vorfinde, bleibt Behauptung. Sie liegt bereits im Ansatz (petitio) der wissenschaftlichen Methode des Reduktionismus begründet.

Schließlich: Kann rationales Denken auch anders als reduktionistisch verfahren? Kann es andere Wege wissenschaftlich erfolgreicher, d.h. erklärungsfähiger Methoden geben, die der auf jeder Ebene zunehmenden Komplexität und Organisation der höheren Strukturen der Wirklichkeit besser gerecht werden? Danach wäre zu suchen. Carl Friedrich von Weizsäcker hat durch seine Interpretation des Entropiegesetzes als stete Zunahme von Information, also insbesondere durch Organisation und Struktur, einen interessanten Weg gewiesen – ein Ball, der in der Wissenschaftstheorie bisher kaum aufgenommen worden ist. Die Suche nach Alternativen in Ansatz und Methodik ist deswegen unerlässlich, weil es die Bedingungen der Ratio sind, dass jede Methodik eine ‚einseitige‘ Festlegung beinhaltet. Dieser rationalen Grenze der Rationalität lässt sich nicht entkommen, aber man kann ihr entgegenwirken durch eine Vielfalt der Methoden, also der Wege, die Welt vernünftig zu begreifen und zu gestalten. Wissenschaft braucht Pluralität, um nicht ideologisch zu versteinern. Der bisherige Siegeszug des Reduktionismus und des wissenschaftlichen Materialismus beruht in der Tat auf grandiosen Ergebnissen. Diese allein rechtfertigen aber nicht, die Rückfrage nach den Voraussetzungen und Rahmenbedingungen zu unterlassen, die der jeweiligen Theoriebildung zugrunde liegen. Wer weiß, vielleicht bringt einmal eine mehr (ja, wie soll ich es nennen?) „synthetische“ Herangehensweise zum Verständnis von Komplexität noch bessere und adäquatere Ergebnisse. Schließlich wären große wissenschaftliche Erkenntnis ohne die Intuition ihrer Entdecker *) kaum wirklich geworden.

*) Es gab einen schönen Vortrag von Ernst Peter Fischer, Die Nachtseite der Wissenschaft, als DVD leider vergriffen.

 

 19. Juni 2013  Posted by at 13:14 Philosophie, Vernunft, Wissenschaft Tagged with: , , , , , , ,  Kommentare deaktiviert für Ratio – Rationalität
Jun 122013
 

Einige traditionelle Streitpunkte der Philosophie und der Wissenschaft überhaupt beruhen auf den Möglichkeiten und Grenzen der Vorstellung. Sie treten nur dann als Probleme auf, wenn ihre Begrifflichkeit wörtlich, oder besser gesagt ontologisch verstanden wird. Betrachtet man diese Probleme aber im Rahmen von Denkmodellen unter den Bedingungen repräsentationaler Vorstellungen, dann erweisen sich die Problematiken mehr als Probleme des Erkennens denn als Probleme der Dinge selbst. An drei Beispielen möchte ich dies zeigen: 1. Der Teilchen – Welle – Dualismus in der Physik; 2. der Materie – Geist – Dualismus in der Philosophie und Neuropsychologie; 3. der Mensch – Maschine – Dualismus in der neueren Kulturwissenschaft. Hinter allen drei Problemstellungen verbirgt sich die gemeinsame Frage, in welcher Weise unser Denken, unsere begriffliche Welterkenntnis, die ‚Wirklichkeit‘ erfasst, oder anders, welcher Art die Wirklichkeit ist, die der Wirklichkeit unserer Vorstellungen entspricht.

1.) Die naturwissenschaftliche Beschreibung der Welt geht immer von Denkmodellen aus, denen bestimmte Weltmodelle zugrunde liegen. Stets bestimmt dabei eine Grundannahme gleichsam als Apriori den weiteren Gang der Erkenntnis. So haben sich bereits im Altertum Materialisten (Stoiker) und Geistphilosophen (Platoniker) gegenüber gestanden. Sie treten ihrerseits das Erbe der Vorsokratiker an, die sich entsprechend in die Anhänger Heraklits und Demokrits einerseits und des Parmenides andererseits entgegen gesetzt positionierten. Schon die Erkenntnis der Naturphänomene selbst beruht auf Vorannahmen dessen, was überhaupt sein kann. – Ehe sich später das kopernikanische Weltmodell durchsetzen konnte, entsprach das ptolemäische Weltbild am besten dem Augenschein: Die Erde ruht, die Sonne bewegt sich. Der Streit um diese Weltmodelle wurde allerdings überlagert von den dogmatischen Interessen der herrschenden Kirche. Darum ist ein anderes Beispiel besser geeignet, die Prägung der Erkenntnis durch Modelle der Vorstellung zu verdeutlichen: Der sogenannte Welle-Teilchen-Dualismus, der die moderne Physik zu Beginn des 20. Jahrhunderts in Unruhe versetzte. Nach dem Modell der Wellen im Wasser erwartete man auch beim Licht, sofern es nach Christiaan Huygens (17. Jahrhundert) als Welle beschreibbar war, zwingend ein Trägermedium, den Äther. Nur in einem Medium war eine Wellenbewegung vorstellbar, auch wenn dieses Postulat vielfache Schwierigkeiten bereitete. Newton setzte deswegen auf die Korpuskel-Theorie, verstand also das Licht als Teilchenstrahl. Erst aufgrund der Entdeckungen und Theorien von Max Planck und Albert Einstein wies Louis de Broglie nach, dass Lichtteilchen auch Wellencharakter besitzen. Das berühmte Doppelspalt-Experiment machte dies sichtbar. Es zeigte sich, dass dieser Effekt auch für Elektronen gilt (Compton-Effekt), ja dass elektromagnetische Wellen generell auch Teilchencharakter besitzen und umgekehrt, dass Teilchen wie Wellen zum Beispiel am Kristallgitter gebeugt werden können. Die Quantentheorie brachte für diese experimentellen Befunde eine vernünftige mathematische Beschreibung. Die Schrödinger-Gleichungen ergeben durch eine Wellenfunktion die Aufenthaltswahrscheinlichkeit des Teilchens. Die bis dahin immer wieder vor allem vom interessierten Publikum gestellte Frage: Was ist denn nun das Licht in Wirklichkeit, Welle oder Teilchen? erweist sich als falsch gestellt. Denn diese Frage beruht auf Vorstellungen der Anschauung im normalen Leben. In der Alltagssprache und -Vorstellung hat es den Anschein eines Dualismus. Mathematisch ist da nirgendwo ein Dualismus, sondern allenfalls eine Unschärfe (Heisenberg), weil im Experiment und in der Theorie Ort und Impuls prinzipiell nicht gleichzeitig fest gestellt werden können. Das Kopenhagener Standardmodell (Niels Bohr) spricht hier von Komplementarität, aber auch dies ist eigentlich ein Zugeständnis an unser Vorstellungsvermögen. Werner Heisenberg macht in seinem Buch „Der Teil und das Ganze“ auf die grundsätzliche Problematik aufmerksam, wenn er fordert, dass ein physikalisches Phänomen erst dann wirklich verstanden ist, wenn es auch in der Sprache alltäglicher Erfahrung beschrieben werden kann. Das Denkmodell der Komplementarität ist ein Beispiel solcher Übersetzung. Allerdings hilft auch dieser Begriff nicht darüber hinweg, dass in weiten Teilen der heutigen Elementarteilchen-Physik die Anschaulichkeit nahezu vollständig verloren gegangen ist. Was sich mathematisch präzise (auch in der „Unschärfe“ präzise) quantenmechanisch formulieren und beschreiben lässt, kann oft nicht mehr in Modelle der Vorstellung übersetzt werden. (Nebenbemerkung: Das gilt bisweilen auch für die „Sprache“ der Mathematik. So dauerte es eine Weile, bis die Schrödingerschen Wellengleichungen und die Feynman-Diagramme als unterschiedliche Ausdrücke desselben Sachverhaltes erkannt und aufeinander zurück geführt werden konnten.) Dies Dilemma des vorstellenden Verstehens und der sprachlichen Beschreibung betrifft die Relativitätstheorie ebenso wie die Quantentheorie: „Es gab eine Zeit, als Zeitungen sagten, nur zwölf Menschen verstünden die Relativitätstheorie. Ich glaube nicht, dass es jemals eine solche Zeit gab. Auf der anderen Seite denke ich, sicher sagen zu können, dass niemand die Quantenmechanik versteht.“ (Richard Feynman, 1967, zitiert nach Wikipedia) Dies gilt heute für weite Bereiche der Physik, wie sie zum Beispiel am CERN betrieben wird, für die Molekularbiologie (was heißt denn „Doppelhelix“?) und für die Neurowissenschaften. Die Natur des ganz Kleinen (Teilchenphysik) ebenso wie die Natur des ganz Großen (Kosmologie) bleibt für uns letztlich unanschaulich und insofern (nur insofern!) ‚unverständlich‘. Unsere Vorstellung ist immer auf ein repräsentationales Weltmodell bezogen, das die für uns normalen Größenordnungen umfasst und uns über die alltägliche Welt perfekt angepasst ins Bild setzt. Was in diesem Rahmen nicht vorstellbar ist, wird nicht anschaulich begriffen – und dann treten Widersprüche und Dualismen auf, die eben genau auf unseren Vorstellungen beruhen. In der Natur gibt es keinen Welle-Teilchen-Dualismus, es gibt so etwas allenfalls in unserer beschränkten Vorstellung.

Doppelspalt-Experiment (Wikipedia)

Doppelspalt-Experiment (Wikipedia)

2.) Ich sehe ganz Ähnliches in dem zweiten Beispiel eines geschichtlich bedeutsamen Dualismus‘, im Dualismus von Materie und Geist. Entweder wird ein Dualismus zweier Prinzipien oder Substanzen behauptet (Substanz-Dualismus, vermeintlich in Anlehnung an Aristoteles) oder ein Monismus nur einer Seite; heute ist das durchgängig der Materialismus. In der Geistesgeschichte ist der Neuplatonismus (Plotin u.a.) ein Vertreter des entgegengesetzten Monismus, dass der Geist (Nous) alles und die Materie nichts ist, nur eine Projektionsfläche des Geistes. Dies wird, soweit ich sehe, heute nirgendwo mehr vertreten. Dagegen ist der naturwissenschaftliche Reduktionismus und daher Materialismus das gängige Denkmodell schlechthin. Speziell Deutschland und seine eigene Biografie betreffend bringt der Philosoph Thomas Metzinger die Situation auf den Punkt:

Ich hatte an einem eher traditionell orientierten philosophischen Institut studiert, an dem die politische Philosophie der Frankfurter Schule tonangebend war. Dort schien fast niemand die enormen Fortschritte in der analytischen Philosophie des Geistes zur Kenntnis genommen zu haben. Zu meiner großen Überraschung stellte ich fest, dass in den wirklich überzeugenden, substanziellen Arbeiten an der Forschungsfront der Materialismus schon lange zur herrschenden Lehre, zur orthodoxen Doktrin im Hintergrund geworden war. Niemand schien auch nur im Entferntesten die Möglichkeit der Existenz einer Seele in Betracht zu ziehen. Es gab sehr wenige Dualisten – mit Ausnahme der Philosophen auf dem europäischen Kontinent. Es war sehr ernüchternd, zu erkennen, dass, rund vier Jahrzehnte nach dem Ende des Zweiten Weltkriegs und nachdem praktisch die gesamte deutsch-jüdische Intelligenz und andere Intellektuelle entweder ermordet oder ins Exil vertrieben worden waren, viele philosophische Traditionslinien und fast alle Lehrer-Schüler-Beziehungen zerrissen waren und dass die deutsche Philosophie weitgehend vom globalen Diskussionszusammenhang abgekoppelt war. Die meisten deutschen Philosophen lasen nicht, was in englischen Fachzeitschriften veröffentlicht wurde. Plötzlich erschienen mir einige der philosophischen Debatten, deren Zeuge ich in deutschen Universitäten wurde, zunehmend als schlecht informiert, ein bisschen provinziell und ohne jedes Bewusstsein dafür, wo das große Menschheitsprojekt der Entwicklung einer umfassenden Theorie des Geistes in der Gegenwart eigentlich stand. Im Verlauf meines eigenen Vordringens in die Fachliteratur wurde ich schrittweise davon überzeugt, dass es tatsächlich keinerlei schlagende empirische Belege dafür gab, dass bewusstes Erleben außerhalb des menschlichen Gehirns stattfinden könnte, und davon, dass der allgemeine Trend an der Forschungsfront und in den allerbesten Beiträgen zur Philosophie des Geistes eindeutig in die entgegengesetzte Richtung zeigte. (Thomas Metzinger, Der Ego – Tunnel, TB S. 125)

Das „große Menschheitsprojekt“, damit ist die Konzentration der Philosophie auf das einheitliche, physiologisch-materiell bestimmte Verständnis der Funktionen von Gehirn und Geist zu verstehen. Dualismus gibt es hier nicht mehr, allenfalls Epiphänomenalismus oder Supervenienz des Geistigen. Für mich stellt sich allerdings die Frage, ob diese Reduktion auf neurologische Korrelate (d. h. Rückführung auf und Erklärung durch) nicht eine Einseitigkeit ist, die nur durch die begrenzte Vorstellungsmöglichkeit unserer Erkenntnis bedingt ist. Ebenso wie wir uns Modelle in der Teilchenphysik machen, die letztlich nur abstrakt mathematisch beschreibbar sind (z.B. die „String“-Theorie, also „Saitenschwingungs“-Modelle, Symmetrie-Modelle), und Naturphänomene verstehen helfen, so sind philosophische Modelle ebenfalls nur Versuche des Verstehens von etwas, was nun uns selbst, unser Denken, Vorstellen und Begreifen, betrifft. Was ist und wie funktioniert unser Bewusstsein und unser Denken auf physiologischer, neurologischer, psychologischer, mentaler, geistiger Ebene? Schon die unterschiedlichen Disziplinen der Forschung zeigen, dass es bei aller notwendigen Kooperation und tatsächlichen Überschneidung der Problemstellungen doch sehr verschiedene Zugangsweisen zur Analyse unseres Geistes gibt. Auch die repräsentationale Theorie des phänomenalen Selbstmodells nach Metzinger ist eben ein solches Denk-Modell. Es entzieht sich dem Gehirn-Geist-Problem auf seine Weise, und zwar nicht-dualistisch. Aber auch bei diesem Thema ist es mehr ein Problem unseres Vorstellungsvermögens als der Sache des Denkens selbst, das funktional erklärt und verstanden werden soll. Menschliches Vorstellungsvermögen kommt von dem Gegensatz von Materie und Geist nicht los. Die Alltagserfahrung verfährt da ganz pragmatisch: Entweder etwas ist ‚rein geistig‘ oder eben materiell, stofflich, oder eben beides ‚irgendwie‘ zusammen. Mag auch die analytische Philosophie den Begriff der Seele längst als obsolet verworfen haben, der normale Mensch kommt im Alltag des Lebens und Sterbens kaum von der Vorstellung einer Seele los. Sie ist einfach viel zu anschaulich. Und vielleicht bewahrt sie ja doch entgegen den materialistischen Grundannahmen der Neurowissenschaftler und der analytischen Philosophen eine Erkenntnis, die an einem ‚Mehr‘ oder ‚Anderem‘ gegenüber der ‚reinen‘ Materie fest hält. Es hat nicht lange gedauert, bis Einsteins berühmte Kurzformel E=mc² in die Alltagskultur Eingang gefunden hat. Allerdings wird es noch sehr lange dauern, wenn es denn überhaupt möglich ist, bis die darin liegende Erkenntnis zum Alltagsbestand unserer Vorstellung und unseres Wissens gehört: Dass nämlich Materie und Energie zwei Erscheinungsformen sind, die wechselseitig ineinander übergehen können. Man könnte weiter fragen: Erscheinungsformen von was? von einem Dritten? des Seins? so etwas wie Seinsweisen in den Formen von Aktualität und Potentialität, womit der alte Aristoteles wiederkehrte? Und noch schwieriger: Was ist überhaupt Materie, Masse, die doch in der heutigen Theorie so sehr des Higgs-Teilchens bedarf, was ist denn überhaupt Energie, was bedeutet ihrer beider Wechselwirkung in Feldern und Dimensionen, die ihren Raum und ihre Zeit selber mit sich bringen? Je näher man hineinschaut in das Innerste der Naturphänomene, desto mehr verschwinden Abgrenzungen und eindeutige Bestimmungen. Sind es Grenzen der Natur oder wiederum eher Grenzen unserer Erkenntnis, Grenzen unseres Vorstellungsvermögens? Ist das, was da immer als Zweierlei, möglicherweise als Gegensatz, als komplementäres Miteinander, aufzutreten scheint, im Grunde nur das Eine, Ganze in seiner ungeheuer vielfältigen Dynamik, die wir immer wieder nur als Zweierlei oder Mehrerlei distinkt bestimmen und gegeneinander abgrenzen wollen – und müssen, wenn wir’s denn verstehen wollen? Materie und Energie nur Eines? Materie und Geist nur ein Ganzes aus (mindestens) zwei Seiten? Mir scheint, die Geisteswissenschaften, die Neurowissenschaften, die Analytische Philosophie, könnten sehr viel von der Wissenschaftsgeschichte der Physik lernen. Carl Friedrich von Weizsäcker ist einer derjenigen, der genau in diese Richtung gewiesen hat. Klar ist aber auch, das diese Rückfrage nach dem Einen, Ganzen, nach den Grenzen unserer Vorstellung und Theoriebildung, das peinlich genaue Nachforschen und Erklären auf der Ebene der Neurologie und der analytischen Philosophie hinsichtlich des Erklärens dessen, was unser Bewusstsein eigentlich ist und tut, nicht nur nicht überflüssig macht, sondern allererst fordert und begründet. Es kann nur innerhalb dieser Begrenzung der Erkenntnis erkannt werden. Es sollte aber der Blick über diese Grenzen hinaus auf das Gemeinsame, das Eine in der Struktur, in der Potentialität, in der umfassenden wechselwirkenden Wirklichkeit – oder wie immer man es noch nennen will – ebenso begründet und aufrecht erhalten werden. Wer weiß, vielleicht ist die Materie ‚an sich‘ ebenso wenig geistlos, wie der Geist ‚an sich‘ immateriell wäre. Unterscheidungen, die wir aus guten Gründen präzisen Denkens und Forschens treffen, müssen nicht die Grenzen des Wirklichen und Tatsächlichen sein. Vielleicht enthüllt es sich für uns immer nur auf solch bruchstückhafte Weise der Annäherung.

3.) Das dritte Beispiel braucht, da es gerade in der heutigen Zeit en vogue ist, nur noch knapp skizziert zu werden. Denn der Gegensatz von Mensch und Technik, von Mensch und Maschine, ist zwar in aller Munde und scheint auch unsere Alltagserfahrung widerzuspiegeln. Aber auch dieser Gegensatz ist womöglich nur ein scheinbarer, wiederum verankert in unserem alltäglichen Vorstellen. Das unterscheidet klar zwischen dem Mir und dem Anderen, dem Drinnen und dem Draußen. Gefühl und inneres Wesen gehören zu mir, zu meiner inneren Natur. Technik, Maschinelles, dagegen steht mir entgegen, ist weder Ich noch Natur. Netz-Enthusiasten sehen nun durch die Möglichkeiten der Digitalisierung, der Miniaturisierung und der massiven Vernetzung den Unterschied von Mensch und Maschine verschwinden. Die Mensch-Maschine ist so für die einen Verheißung, für die anderen Abschreckung. Dabei ist der Gegensatz tatsächlich nur ein scheinbarer. Schon der Gebrauch unserer Hände, der Werkzeuggebrauch als verlängerte Hände, sind etwas funktional Technisches. Sprache ist eine Technik, eine Kulturtechnik. Unser gesamtes Leben in einer vom Menschen gestalteten Welt hat etwas Artifizielles. Auch der Werkzeug nutzende Primate erschafft sich bereits vermittels Technik seine eigene Welt. Volker Gerhardt hat in seinem Buch „Öffentlichkeit“ sehr schön beschrieben, wie weit und wie sehr Öffentlichkeit – Bewusstsein – Technik, wie sehr also Natur und Kultur zusammen hängen. Sie sind mehr als nur zwei Seiten einer Medaille, sie sind die Realform unserer menschlichen Existenz. Das reine ‚Naturwesen Mensch‘ (Rousseau) ist eine Fiktion, die mit der Wirklichkeit des alltäglichen Lebens wenig bis nichts zu tun hat. Aber über die Alltagserfahrung hinaus gilt es prinzipiell, dass der Mensch mit allen seinen Leistungen, sofern er nicht bloß träumt, nach außen tritt und sich zu seiner Welt (Umwelt, Mitwelt, Mitmenschen) ‚technisch‘ in Beziehung setzt. Der Geist selber ist technisch orientiert, sofern er zum Begreifen und Bewältigen des Lebens in dieser, in seiner Welt hilft. Der Ausdruck Mensch-Maschine spitzt zu, erschrecken sollte er einen nicht. Mensch – Technik – Natur – Kultur sind unterscheidbare, aber untrennbare Aspekte der gesamten einen Lebenswelt. Der homo sapiens sapiens ist er nur, indem er homo faber, homo technicus ist. Selbst in seinen Träumen holt er die Außenwelt nach innen und gestaltet sie nach seinen seelischen Bedürfnissen. Hier ist es wiederum unsere vorstellende Alltagserfahrung, die uns Innen und Außen, Subjekt und Objekt, trennen und als Gegensätze wahrnehmen lässt, wiewohl beides Funktionen und Erscheinungsweisen mentaler Repräsentationen sind. Mensch und Technik sind sehr grundsätzlich gesehen tatsächlich eine Einheit.

An diesen drei Themenkreisen, die ja in einen gewissen Zusammenhang miteinander stehen, kann der Unterschied zwischen unseren Vorstellungsmöglichkeiten, den Möglichkeiten der abstrakten Theorie- und Modellbildung einerseits und der tatsächlichen Gegebenheit der inneren (Bewusstsein) und äußeren Natur (Physik etc.) andererseits verdeutlicht werden. Auch überzeugte Realisten werden zugeben, dass sich die reale Welt nur durch unsere Sinne, durch Vorstellungen und Begreifen vermittelt. Jedes Modell des Denkens ist eben ein Denkmodell. Ein gutes erklärt und umfasst viel, ein weniger gutes eben nur weniges. Alles in einem ist nicht erkennbar, da es keine vollständige, allumfassende Theorie und schon gar keine Anschauung von ‚Allem und Einem‘ gibt. Der wissenschaftlichen, denkenden und erkennenden Redlichkeit aber sollte es geschuldet sein, kein Modell absolut zu setzen und als „die Wahrheit“ zu verkünden. Insofern ist auch der heute verbreitete und erfolgreiche wissenschaftliche Materialismus nur eine Arbeitshypothese – bis auf weiteres.

 12. Juni 2013  Posted by at 17:01 Geist, Natur, Philosophie, Wissenschaft Tagged with: , , , ,  Kommentare deaktiviert für Grenzen der Vorstellung
Mai 122013
 

Eines der spannendsten Gebiete der heutigen Wissenschaften befasst sich mit dem Geist, unter dem englischen Begriff einer Theory of Mind. Das Spannende ist, dass es bei der Frage nach dem menschlichen Geist nicht um das Spezialgebiet einer einzelnen Wissenschaft geht, sondern um eine Frage, die nur interdisziplinär angegangen werden kann. Neurowissenschaften, Kognitionswissenschaft, Psychologie und Philosophie, um die wichtigsten Disziplinen zu nennen, können offenbar nur miteinander unter jeweils eigenen, aber auf einander bezogenen Fragestellungen denjenigen „Gegenstand“ untersuchen, den man herkömmlich den „Geist“ nennt, darunter das Bewusstsein als einem Spezialbereich, die Frage nach dem Ich, nach dem Selbst, nach dem „computationalen“ Denkvermögen und vor allem nach der Physiologie und Funktionalität des Gehirns, das offenbar mit allen geistigen Prozessen unlösbar verbunden ist. Aber wie? (Einige frühere Beiträge in diesem Blog zeigen, dass mich diese Frage nicht los lässt.)

Und da ist sie auch schon, die Frage aller Fragen, an der sich die Geister (metaphorisch) scheiden. Weitgehend unbestritten ist es, von einer Korrelation zwischen neuralen Funktionen und geistigen Fähigkeiten zu sprechen. Aber was genau bedeutet diese Korrelation? Oder ist da mehr, nicht nur Korrelation, sondern Kausalität? Bedingen also physiologisch-neurale Prozesse alle Erscheinungen und Fähigkeiten des Geistes, des Bewusstseins? Neurologen formulieren meist, dass geistige Vermögen einschließlich des Bewusstseins auf neuralen Substraten „beruhen“. Aber was genau heißt dieses „beruhen“? Werden ausgelöst, verursacht, bedingt, beeinflusst? Oder „nur“ begleitet, ermöglicht, basal fundiert im Sinne von „kein Geist ohne Gehirn“?

Auf Seiten der analytischen Philosophie hat sich die Fragestellung lange Zeit auf die „Qualia“ konzentriert, also auf das sogenannte „phänomenale Bewusstsein“, das als „Gefühl von etwas“ beschrieben werden kann. Was die Wahrnehmung der Farbe „rot“ verursacht, wissen wir, aber können wir damit auch erklären, wie es sich anfühlt, „rot“ zu sehen, also diesen (oder jeden anderen) sensorischen Eindruck zu haben? Die Verneinung der Frage argumentiert mit der berühmten „Erklärungslücke“ (explanatory gap), die zwischen Bewusstsein und physiologischer Erklärung bestehe. Aber sind diese „sekundären Qualitäten“ wirklich Gegenstände, also objektivierbare Gegebenheiten unseres psycho-physischen Erlebens oder sind es eher sprachliche Zuschreibungen, also kein introspektives „Was“, sondern eben ein „Wie“, in dem sich unser Erleben ausdrückt? Neurokognitionswissenschaft und philosophischer, d.h. epistemischer und / oder ontologischer Reduktionismus sehen hier allenfalls ein Scheinproblem. Vielleicht ist die Zuspitzung auf die Qualia auch nur ein in der Diskussion immer stärker isolierter Aspekt, der inzwischen das eigentliche Problem verdeckt: Können wir das Bewusstsein in all seinen Funktionen und Phänomenen naturwissenschaftlich erklären?

Neuronen (Wikipedia)

Neuronen (Wikipedia)

Immerhin ist es auch in der Hirnforschung unbestritten, dass trotzt gewaltiger Fortschritte in den letzten Jahren noch sehr Vieles wenn nicht das Meiste der Arbeitsweise des Gehirns terra incognita ist. Wir stehen da erst ganz am Anfang. Dies betont auch immer wieder der analytische Philosoph und Vertreter der „Selbstmodell-Theorie der Subjektivität“, insbesondere des „phänomenalen Selbst-Modells“, Thomas Metzinger. Seine genial klingende Theorie der mehrfach gestuften Selbstmodellierung als der repräsentationalen Arbeitsweise des Geistes bzw. des Bewusstseins fragt immer wieder nach den neuralen Korrelaten dieser Theorie, die es erst noch zu finden gilt. So forderte der finnische Neuro-Kognitionswissenschaftler Antti Revonsuo Ende der neunziger Jahre eine „multidisziplinäre Bewusstseinswissenschaft“ (in „Grundkurs“ Bd. 1, siehe unten). Allein die „systematische Beschreibung des Bewusstsein“, also der phänomenologischen Ebene, sei „vielleicht die größte Herausforderung“. Ohne Zweifel ist man damit inzwischen schon etwas weiter, aber offenbar keineswegs am Ziel. Und das ist ja nur der erste Schritt.

Zu leicht macht es sich auf jeden Fall die populäre Rezeption der Bücher von Antonio Damasio, dass halt „alles“ im Denken und Empfinden „nur“ Prozesse auf der Basis von neuronalen Substraten seien. Der Geist wird rasch durch das elektrische Funken und biochemische Prozesse des Gehirns ersetzt. Das ist dann nichts anderes als die recht vereinfachende These der Reduktionisten. Wie schon vor einhundert Jahren hat der (damals verbreitete) „biologische Mechanismus“ den betörenden Vorteil eines einheitlichen und einfachen Weltmodells, nämlich des materialistischen. Wir werden um die relative Wahrheit dieses Ansatzes nicht herum kommen, aber man sollte den materialistischen Grundsatz auch nicht zum Glaubensbekenntnis der Wissenschaftstheorie hoch stilisieren. Oder ist er etwa nur ein Glaubenssatz, also ein weltanschauliches Axiom?

Abgesehen von der vor einigen Jahren in verschiedenen Feuilletons, Vorträgen und öffentlichkeitswirksamen Disputen behandelten Frage nach dem „freien Willen“ – Wirklichkeit oder Illusion – ist das Interesse an den Theorien und Ergebnissen der Neurowissenschaften und der analytischen Kognitionswissenschaften öffentlich kaum vorhanden. Die Aufmerksamkeits-Karawane ist heute woanders hin gezogen. Wen es dennoch interessiert und wer sich über den aktuellen Stand der Wissenschaft informieren will, der kann zu „Der Ego-Tunnel“ von Thomas Metzinger greifen (Taschenbuch 2009; 5. Auflage 2012): „Eine neue Philosophie des Selbst: Von der Hirnforschung zur Bewusstseinsethik“. Diesem für das menschliche Selbstverständnis zentralen Thema, was denn „der Geist“ ist und wie das „Selbst“ zustande kommt, ist mehr Aufmerksamkeit zu wünschen. Denn die Wissenschaft vom Bewusstsein hat heute mindestens die Explanationsstufe „3.0“ erreicht.

[Die ausführliche Beschäftigung mit der analytisch-philosophischen Fragestellung anhand von zahlreichen klassischen Texten zu unterschiedlichen Positionen, jeweils kurz eingeleitet, ermöglicht  der dreibändige „Grundkurs Philosophie des Geistes“ von Thomas Metzinger, 2006 – 2009.]

 12. Mai 2013  Posted by at 13:15 Bewusstsein, Geist, Wissenschaft Tagged with: , , ,  Kommentare deaktiviert für Theory of Mind 3.0
Feb 042013
 

Wieder einmal fiel mir auf, wie leicht man – absichtlich oder unabsichtlich – sprachlich die Ebenen verwechselt. Beide Male waren es religiös-kirchliche Kurzbeiträge im Radio. Es könnte einem so ähnlich aber auch in anderem Zusammenhang begegnen.

Da hieß es einleitend, der Mensch bestehe ja nicht nur aus Körper, sondern auch aus Seele und Geist. Damit wird an das herkömmliche allgemeine Vorverständnis appelliert, so als habe sich nie etwas geändert, als gäbe es keine Hirnforschung und keine aktuelle Diskussion dazu. Wie immer man dazu steht, dürfte man nicht mehr selbstverständlich und kommentarlos von der tatsächlichen Gegebenheit von drei – ja was denn?  Wesenheiten? Dingen? Gegenständen? reden, die da heißen Körper, Geist und Seele. Der menschliche Körper ist, anatomisch gesehen, ein klar definierter Gegenstand, eine tatsächliche Gegebenheit, ein „Ding“. Ebenso klar ist auch, dass der Mensch als Person nicht ohne Körper denkbar ist. Der tote Körper, der Leichnam, ist keine Person mehr. Er wird nicht nur begrifflich vom lebendigen Köper unterschieden, sondern auch rechtlich. Der tote Körper ist kein Rechtssubjekt mehr. Er ist etwas anderes als „Mensch“, eben die Leiche. Aber auch diese bleibt gegenständlich, tatsächlich, nur in einem anderen Zustand als der belebte Körper.

Seele und Geist sind dagegen Interpretamente der Belebtheit des Menschen, Aspekte der menschlichen Person. Es sind keine Gegenstände oder Dinge, so wie ein Arm oder Bein beispielsweise ein Objekt medizinischen Handelns ist. Ob dem Geist und der Seele des Menschen eine eigenständige, vom Körper unabhängige Existenz zukommt, ist gerade umstritten. Die Hirnforschung, speziell die Neuropsychologie haben zumindest dies erbracht, dass geistige und seelische („mentale“) Fähigkeiten des Menschen nicht ohne seinen Körper, nicht ohne das Organ Gehirn wissenschaftlich betrachtet werden können. Wie man diese Fähigkeiten bewertet, einordnet, welche besondere Bedeutung man ihnen für die Persönlichkeit des Menschen zumisst, ist dann Sache einer ganz anderen Betrachtung. Sie „interpretiert“ gewissermaßen das Menschsein unter den Aspekten seiner geistigen oder seelischen Vermögen. Die Reduktion aller mentaler Fähigkeiten auf physiologische Prozesse wird zwar ebenfalls wissenschaftlich vertreten, ist aber nicht die einzige und auch nicht die plausibelste wissenschaftlich gestützte Position. Darüber hinaus spielt natürlich auch die jeweilige weltanschaulich-religiöse Grundeinstellung eine Rolle, die unsere Sicht auf „Leib, Seele und Geist“ bestimmt.

Klar ist nur so viel, dass sich „Körper“ einerseits und „Seele“ und „Geist“ auf der anderen Seite auf unterschiedlichen Ebenen möglicher Gegenstände rationaler Betrachtung befinden. Diese sollten nicht verwechselt werden, auch nicht mehr in der Alltagssprache. Seele und Geist können nur in einem anderen, uneigentlichen Sinne als „Objekte“ der Untersuchung gelten, sie sind besser als spezifische personale Aspekte des Menschseins zu bezeichnen, die sich als Fähigkeiten, als Vermögen fassen und beschreiben lassen. Jedenfalls sollte man nicht den Eindruck erwecken, der Mensch sei ein „Mischwesen“ aus drei verschiedenen Wesenheiten. Diese Redeweise verharrt in einem Weltbild, das unserem Wissen und unserer Sicht auf den Menschen nicht mehr entspricht.

Creation

Giovanni di Paolo – Creation (Wikipedia)

Ein wenig anders verhält es sich mit der Bemerkung, religiöse Überlieferungen und Geschichten würden uns etwas „berichten“. Konkret gesagt: Biblische Geschichten – ebenso wenig wie Koranische Verse – sind keine „Berichte“, das heißt Auskünfte über historisch positive Tatsachen („news“), und wollen es auch gar nicht sein. Es sind von bestimmten religiösen Überzeugungen geprägte Erzählungen, „Geschichten“, die ihre Wahrheit nicht im Tatsachen-Geschehen haben, sondern in der von und in ihnen intendierten Aussage bezüglich einer religiösen „Wahrheit“. Die moderne kritische Bibelwissenschaft spricht daher davon, dass biblische Geschichten immer zu allererst „Verkündigung“ sind, Predigten, die auf Überzeugung und Vergewisserung der Gläubigen zielen. Was sich über Jesus oder Mohammed historisch als tatsächlich heraus finden lässt, steht auf einem ganz anderen Blatt. Religionsgemeinschaften neigen allerdings dazu, die narrative Ebene mit der Ebene historischer Faktizität zu verwechseln, zu vermischen oder gar die Historizität von religiöser Narration zu behaupten. Dies hilft weder der Religion als Sinn- und Symbolsystem noch dem heutigen Menschen, der bei „Berichten“ gleich an Tatsächlichkeit denkt. Die Wahrheit der Religionen stützt sich nur zum geringsten Teil auf historische Tatsächlichkeit, sondern viel mehr auf die Bedeutung eines Geschehens, das seinen Wert und seine Wahrheit aus dem religiösen Verweiszusammenhang erhält. Die möglicherweise dahinter stehende historische Tatsächlichkeit kann oft kaum mehr erhoben werden. Historie ist da die falsche Kategorie, die falsche Ebene, die nur zu einem ideologischen Fundamentalismus führt. Dieser nämlich macht aus religiösen Erzählungen von Bedeutung eine tatsächliche Gegebenheit, historische Faktizität. Da wird dann auf einmal die Schöpfungserzählung aus der Bibel zum naturwissenschaftlichen Tatsachenbericht. Das aber geht am religiösen Text – und am Menschen vorbei.

Es ließen sich noch mehr Beispiele solcher implizit-tatsächlichen Redeweisen nennen, die auf einer absichtlichen oder unabsichtlichen Verwechslung von Aussage- und Bedeutungsebene beruht. Hier besser zu unterscheiden schafft eine Klarheit, an der auch die sich historisch begründenden Religionen interessiert sein sollten, und sei es auch nur, um Anschluss an heutiges Weltverstehen zu halten. Es wäre zudem ein Gebot der Redlichkeit.

 4. Februar 2013  Posted by at 13:31 Religion, Wissenschaft Tagged with: , , ,  Kommentare deaktiviert für Verwechslung der Ebenen
Okt 162012
 

Die Entwicklung der modernen Welt ist an einem Punkt angelangt, an dem die Dimension der quantitativen Veränderung diverser Parameter der Sozioökonomie einen qualitativen Sprung, umgangssprachlich einen „Quantensprung“, anzuzeigen scheint. Angesichts der globalen Bedeutung und Auswirkungen der gegenwärtig stattfindenden Prozesse kann von einer Art Paradigmenwechsel gesprochen werden. Das Ende der „Westzentrierung“ ist eingeläutet. Dies jedenfalls ist die zentrale These von Volker Schmidt, derzeit als Professor für Soziologie in Singapur tätig.

Die Größenordnung und Tragweite des sozialen und technologischen Wandels, der sich in den letzten ca. zwei bis drei Jahrzehnten zugetragen hat, übersteigt in mehreren Dimensionen diejenige aller vergleichbaren Phasen früheren Wandels, in manchen den kumulativen Effekt bzw. Entwicklungsertrag der voranliegenden 150 Jahre. – Der globale Durchbruch moderner Lebensverhältnisse … ist ein Novum von welthistorischer Bedeutung, das wissenschaftlich noch kaum verarbeitet ist. Er markiert die Heraufkunft einer „anderen Welt“, einer Welt, die uns in vielerlei Hinsicht vertraut ist, sich jedoch zugleich radikal von ihren Vorläufern unterscheidet. … Dabei spricht einiges dafür, dass er in der Summe seiner Einzelerscheinungen, womöglich auch in seinen Konsequenzen, alles bisher Dagewesene in den Schatten stellt.

In mehreren Beiträgen des SOZBLOGs beleuchtet Volker Schmidt, ausgehend von der thematischen Eröffnung unter der Überschrift „Durchbruch der globalen Moderne“ (12. September 2012), verschiedene Aspekte dieses epochalen Wandels. Insbesondere beziehe ich mich dabei noch auf den Beitrag vom 10. Oktober 2012, „We ain‘t seen nothing yet“ (siehe Bachman Turner Overdrive 1974), frei übersetzt: Das hat die Welt noch nie gesehen.

Schon die Transformationen des 19. und 20. Jahrhunderts haben zeitgenössische Beobachter immer wieder in ungläubiges Staunen versetzt. Aber nicht nur mit dem Übergang zum modernen Zeitalter, auch innerhalb desselben nimmt die Intensität und Extensität des Wandels von Phase zu Phase zu. Es steht zu erwarten, das auch die gegenwärtige Phase, die Phase der globalen, polyzentrischen Moderne das Wandlungsgeschehen nochmals beträchtlich dynamisiert. Die Transformationskraft und das Transformationspotential der globalen Moderne sind nämlich ungleich größer als diejenigen früherer Phasen der Modernität.

In Anlehnung an Parsons‘ Unterscheidung von Gesellschaft, Kultur, Person und Verhaltensorganismus („heuristisch fruchtbar“)  und unter Zuhilfenahme systemtheoretischer Konzepte Luhmanns („Expansionismus der Funktionssysteme“) skizziert Schmidt das exponentielle Wachstum in den Bereichen Produktion, Wohlstand, Bildung, Forschung, Rationalisierung, Individualisierung, Alphabetisierung, Frauenrechte usw. Er zitiert in beeindruckender Weise verfügbare globale Datensätze und Veröffentlichungen der UNO / UNESCO, Statistischer Ämter und Einzeluntersuchungen. Dabei kommt ihm sein „asiatischer“ Blickwinkel zugute, der ihn manche Entwicklungen und Bewertungen bei uns als Sichtweisen „westlicher“ Dominanz erkennen lassen. Diese aber gehe seit der Jahrtausendwende offensichtlich zu Ende.

Nimmt man eine globale Perspektive ein und orientiert man sich an den im 20. Jahrhundert geläufigen Indikatoren für Modernität, dann scheint es nämlich nur wenig übertrieben zu sagen, die Transition zur Moderne befinde sich in gewisser Weise noch am Anfang, weil moderne Strukturmuster in großen Teilen der Welt erst jetzt auf breiter Front Wurzeln zu schlagen beginnen. Vor diesem Hintergrund erscheinen die genannten Begriffe als Ausdruck einer bemerkenswert parochialen Sichtweise. Denn abgesehen von ihrem analytisch ohnehin zweifelhaften Wert konnte man, wenn überhaupt, dann nur in Europa und Nordamerika auf die Idee kommen, man befände sich inmitten einer Phase des Übergangs zu einem neuen, nachmodernen Zeitalter. Wer so denkt, denkt die gesamte Welt vom Westen her, behandelt den Westen als Nabel der Welt und den „Rest“ als sozialtheoretisch vernachlässigbare Größe.

Schon die Vergleiche und Entwicklungslinien seit 1900 und dann erst recht ihre Dynamisierung seit 2000 (+/- 20 Jahre, wie er eingrenzt) sind beachtlich. Zwar beschleicht mich ein etwas ungutes Gefühl, wenn Schmidt als Grundlage seiner Analyse rein quantitative Größen verwendet, andererseits kann man bei Daten nichts anderes erwarten als Quantifizierbarkeit. Die dieser Datenlage entsprechende Qualität ist dann Sache der Interpretation bzw. des analytischen Modells sei es der vier Dimensionen gesellschaftlicher Entwicklung nach Parsons, sei es der Zunahme funktionaler Systeme nach Luhmann – oder eines anderen brauchbaren Modells. Und gewiss richtig, wenn auch nicht mehr neu ist es, den Fokus der Betrachtung auf Asien zu setzen.

Pepsi in Indonesien – Wikipedia

In jedem Falle sind Schmidts Überlegungen äußerst anregend, zumal er erstaunlicherweise und gegen den Trend nicht aufs globale „Netz“ und soziale Netzwerke Bezug nimmt, ansonsten die „üblichen Verdächtigen“ als „Marker“ des Modernisierungsprozesses. Zu fragen wäre allerdings, ob dieses Modell nicht zu optimistisch ist (nach dem „zu optimistisch“ fragt Schmidt nur bezogen auf die zukünftige Entwicklung der Datenreihen), zu fortschrittsgläubig. Den vielen deutlichen Steigerungen des Wohlstands und von Bildung und Wissenschaft stehen doch entsprechende Zunahmen der „Opfer“ gegenüber: Zurückgelassene der Modernisierung, Verslumung der Metropolen, Plünderung der natürlichen Ressourcen, Beschädigung der Umweltsysteme (Asien!), wachsende Armut-Reichtum-Drift, Renationalisierung, Fundamenalisierung, „failed states“, Klimaveränderung, um nur die wesentlichen Problembereiche und negativen Themen zu nennen. (Auch hierbei darf der Fokus durchaus auch auf Asien liegen.) „Das hat die Welt noch nicht gesehen“ – das trifft eben auch auf die weltweite Armut, die Gewaltanwendung gegenüber der Landbevölkerung (China), den Menschenhandel und den Drogenkonsum zu. Die italienische Mafia des 19. und 20. Jahrhunderts ist doch Killefit gegenüber der mächtigen, wachsenden organisierten Kriminalität ganzer Staaten und „Eliten“ heutzutage.

Kurz: Ich vermag diesen Optimismus hinsichtlich des „Durchbruchs der globalen Moderne“ nicht zu teilen. Ich halte schon die enthusiastische Beurteilungen des Siegeszuges egalitärer und freiheitlicher Strukturen allein durch die globale Vernetzung und den Gebrauch sozialer Medien für vermessen, wenn nicht realitätsfremd. Das Ausrufen des Zeitalters der „Globalen Moderne“, die uns um ein „Vielfaches reicher [… macht] als das … vor 150 Jahren“ der Fall war, erscheint mir recht einseitig aus der Sicht der Gewinner geurteilt. Und die Behauptung, letztendlich seien ja alle auf der Gewinnerseite, stellt Schmidt ausdrücklich nicht auf, wenngleich sie mit schwingt und immer wieder zu hören und zu lesen ist. Auch den Ärmsten der Welt gehe es besser als früher. Das mag sein, nur werden sie weiterhin immer stärker abgehängt. Weder das „Netz“ noch der globale „Fortschritt“ werden das Paradies auf Erden bringen. Wir sollten uns vielmehr anstrengen zu verhindern, dass die zukünftige Welt die Hölle wird.

 16. Oktober 2012  Posted by at 10:28 Bildung, Moderne, Wissenschaft Tagged with: , , , ,  Kommentare deaktiviert für Globales Glück?
Okt 072012
 

Die Debatte um „Geist & Gehirn“ ist derzeit wieder etwas aus dem Fokus geraten. Die „alten Matadore“ (wie zum Beispiel Gerhard Roth, Wolf Singer und Peter Janich) haben die Standpunkte hinreichend geklärt, um sich darin einig zu sein, nicht einig zu sein. Manfred Spitzer, Neuropsychiater und „führend“, wenn man „Geist & Gehirn“ als Suchbegriffe bei Google eingibt, erklärt dem Fernsehpublikum des Bayrischen Rundfunks auf dem Kulturprogramm BR alpha seit Jahren in 15 Minuten – Häppchen die Welt aus Sicht des Hirnforschers. Inzwischen gibt es 12 Staffeln oder 9 DVDs. Eine solche Welterklärung und neurophysiologische Aufhellung unseres Alltags (wie war eigentlich das Leben vor Spitzer?) bleibt nur medienbedingt unwidersprochen. Einer Studiosendung oder DVD lässt sich schlecht antworten. Guru-Level. Widersprochen wurde darum seiner ‚wissenschaftlichen‘ These, Internet verblöde, umso heftiger. Vielleicht hat ihn sein Kult-Status im BR zu sehr verwöhnt. Anyway.

Raffael, Schule von Athen (Wikipedia)

Die Diskussion um Hirnforschung und Geisteswissenschaft, um „mind & brain“, um eine mit naturwissenschaftlichen Methoden arbeitenden Psychologie und Neurologie einerseits und der ‚geisteswissenschaftlichen‘ Philosophie und Theologie andererseits hat aber inzwischen doch einen gemeinsamen Nenner gefunden, der kaum mehr bestritten und unterschritten werden kann. Natürlich gibt es weiterhin Hirnforscher, die einen naturwissenschaftlichen Determinismus vertreten, so wie es weiterhin Philosophen gibt, die die Ergebnisse der Hirnforschung fröhlich ignorieren. Interessanter und weiter führender ist aber eine jüngere Generation Wissenschaftler, die bei Anerkennung unterschiedlicher wissenschaftlicher Methoden an der Einheitlichkeit unseres Begriffes von Wirklichkeit festhalten, also jenseits der „alten Kampfbegriffe“ von Dualismus und Monismus argumentieren. Der Bonner Neuropsychologe und (kath.) Theologe Christian Hoppe ist einer von ihnen. Aus seiner medizinisch-ethischen Praxis heraus (Klinik für Epileptologie) fasst er die wissenschaftliche „Leitidee“ der Hirnforschung wie folgt zusammen:

Die Leitidee der modernen Hirnforschung ist, dass sämtliche psychischen Vermögen und Phänomene, soweit wir diese kennen und überhaupt als solche identifizieren können, von Hirnfunktionen (bzw. den Funktionen eines Nervensystems) und letztlich vom intakten Organismus abhängen. Was Ihr Auge für das Sehen ist, ist Ihr Gehirn für die Gesamtheit Ihrer psychischen Vermögen, das heißt für Wahrnehmung, Gefühle, Erinnerungen, Denken usw. Anders formuliert lautet die These: Es gibt keine psychischen Phänomene ohne Hirnfunktion.

Er ordnet seine ebenso klar wie knapp formulierte Leitidee gleich selber ein und grenzt sie damit gegen Missverständnisse ab:

Die Leitidee fasst den aktuellen Stand nach sagen wir 150 Jahren Hirnforschung zusammen und definiert die Forschungsagenda für die nächsten Jahrzehnte. Sie ist eine naturwissenschaftliche, keine philosophische These. Wir bewegen uns jetzt auf der konzeptuellen Ebene und lassen die Details abertausender von Hirnforschungsstudien weiter hinter uns. Die Leitidee ist eine sehr minimale These, ohne große Spekulationen, der daher wohl die meisten Neurowissenschaftler zustimmen würden. Da nicht über mögliche Mechanismen spekuliert wird, macht sich die Leitidee in dieser Hinsicht auch nicht angreifbar. Sie beharrt lediglich auf einer Feststellung: nicht ohne Gehirn. (vgl. sein Buch „Ohne Hirn ist alles nichts„.)

In seinem Beitrag für den Blog WIRKLICHKEIT – Hirnforschung & Theologie (SciLogs) führt er dies umfassend und äußerst erhellend aus. Die Lektüre sei jedem Interessierten empfohlen. Ich kann mir diese Position gut zu eigen machen. Dahinter sollte man in der heutigen und künftigen Diskussion eben auch in der Philosophie (und Theologie) nicht mehr zurück fallen. Zwar betont Hoppe, dass es sich dabei um eine eher minimalistische Beschreibung handele, die gewissermaßen den ’state of art‘ der Neurowissenschaften festschreibt, dabei hält er an dem Anspruch fest, dass die Wirklichkeit eine sei und nicht in zwei ‚Wirklichkeiten‘ zerfalle. Daraus folgt dann schon ein Ausgehen von den naturwissenschaftlichen Erkenntnissen, aber genau deswegen, weil wir andere Erkenntnisse nicht zur Verfügung haben.

Die existenziell bedeutsame Frage nach dem Zusammenhang von Gehirn und Geist kann offensichtlich nur mit Hilfe naturwissenschaftlicher Methoden bearbeitet werden. Erst seit wenigen Jahrzehnten sind wir überhaupt in der Lage, auf ungefährliche Weise hinter die Stirn bzw. unter die Schädeldecke eines Menschen zu schauen und sein Gehirn zu Lebzeiten zu beobachten; diese erstaunliche Möglichkeit macht die „moderne Hirnforschung“ erst modern. Ihre persönliche Meinung zu diesem Thema ist daher, mit Verlaub, irrelevant, da Ihnen ein beobachtender Zugriff auf die zugrunde liegenden Hirnprozesse ohne entsprechende Gerätschaften prinzipiell verwehrt ist. Niemand fragt Sie, ob Sie der Meinung sind, dass das Herz das Blut durch den Körper pumpt; hierbei handelt es sich um physiologische Fakten, die wir lediglich zur Kenntnis nehmen können, und es gibt hier keinen Bedarf für einen Dialog zwischen Kardiologie und Theologie.

Bevor es hier nun wieder gleich zum Widerspruch und Protest kommt über die „moderne“ Dominanz naturwissenschaftlicher Sichtweisen und Methoden, möchte ich an einen recht alten Schriftsteller und Dichter erinnern, der eigentlich etwas Ähnliches sagt. Natürlich kannte er die moderne Hirnforschung nicht, wie er überhaupt kein Mensch der Moderne, sondern des „klassischen“ Altertums war. Seine Auffassung von Mensch und Welt, von der Wirklichkeit der Natur und des Lebens ist aber erstaunlich modern. Er folgte bereits einem berühmten Lehrer, den zu unterdrücken sich die gesamte weitere christliche Kirchengeschichte über 2000 Jahre emsig bemüht hat. Der große Lehrer ist der griechische Philosoph Epikur, den man als „Lustmolch“ verunglimpft hat, und sein größter lateinischer Schüler ist Lucretius Caro, genannt Lukrez ( †~ 50 vuZ) in seiner berühmt-berüchtigten Schrift De rerum natura. Einen hervorragenden Zugang gewinnt man durch das aktuelle Buch von Stephen Greenblatt, Die Wende. Wie die Renaissance begann, München 2011 (engl: The Swerve. How the World Became Modern, 2011).

Ich stelle hier nur die Überschriften aus der zusammenfassenden Inhaltsangabe von Lukrez‘ De rerum natura nach Greenblatt zusammen (vgl. dort das Kap. 8):

Alles Seiende ist aus unsichtbaren Teilchen zusammengesetzt. Diese elementaren Teilchen der Materie – die »Keime der Dinge« – sind ewig. Die elementaren Teilchen sind unendlich in ihrer Zahl, aber begrenzt in Gestalt und Größe. Alle Teilchen bewegen sich in einer unendlichen Leere. Das Universum hat keinen Schöpfer oder Designer. Alle Dinge entstehen infolge geringer Abweichungen (clinamen, swerve). Die zufällige Abweichung, der kleine Ruck ist Ursprung auch des freien Willens. Die Natur experimentiert unaufhörlich. Das Universum wurde weder wegen noch für die Menschen erschaffen. Nicht das Schicksal der Gattung (geschweige denn das des Einzelnen) ist der Pol, um den sich alles dreht. Menschen sind nicht einzigartig. Die menschliche Gesellschaft hat nicht mit einem Goldenen Zeitalter der Ruhe und der Fülle begonnen, sondern als urtümlicher Kampf ums Überleben. Die Seele ist sterblich. Es gibt kein Leben nach dem Tod. Der Tod berührt uns nicht. Alle organisierten Religionen sind abergläubische Täuschungen, Religionen sind allesamt grausam. Es gibt keine Engel, keine Dämonen und Geister. Das höchste Ziel des menschlichen Lebens ist Steigerung des Genusses und Verringerung des Leidens. Nicht Leid ist das größte Hindernis auf dem Weg zur Lust, sondern Täuschung. Der Versuch, Leid zu vermeiden, ist vollkommen vernünftig: Das Verstehen der Dinge und ihrer Natur weckt großes Staunen.

Statt „Lust“ und „Genuss“ würden wir heute eher „Glück“ sagen, oder Wohlstand. Dem Ziel möglichst „glücklich“ zu leben stimmt jedermann zu und bekräftigt es bei jedem Geburtstags-‚Glück’wunsch. Das Glück des Menschen sogar als politisches Ziel verfolgt die US-amerikanische Verfassung, wenn dort vom Grundrecht auf „life, liberty and the pursuit of happiness“ die Rede ist. Kein Wunder – Thomas Jefferson kannte und schätzte „seinen“ Lukrez. Man wundert sich bei dieser knappen Zusammenfassung des Lukrez auch nicht, wenn er ebenso wie sein geistiger Vater Epikur von der katholischen Kirche verfolgt bzw. unterdrückt und verdammt wurde. „Epikureismus“ war einer der beliebtesten Vorwürfe der Inquisition. Dabei wurde weniger an ausschweifenden Lebensstil gedacht (den pflegten die Bischöfe ja selber zu gerne), sondern an den Atomismus, der die „Wandlung“ des Altarsakraments bestritt, und an die Lehre von der Sterblichkeit der Seele, denn sie entzog dem Bußsakrament jegliche Legitimation. Die Kirche erkannte sehr schnell , das ihr damit die Axt an die Wurzel gelegt wurde. Dadurch gerät ihre Macht und somit ihre Existenzberechtigung ins Wanken. Ist Lukrez darum auch heute noch so wenig bekannt im „christlichen Abendland“? Jedenfalls ist das, was er sozusagen aus der Perspektive des natürlichen „gesunden Menschenverstandes“ dichterisch verfasst hat, eine Basis, die ganz nahe bei dem liegt, was heute „Leitidee“ der Hirnforschung und des Wissens vom Menschen überhaupt ist.

Nein, Geschichte wiederholt sich nicht, aber bisweilen entdeckt man Berührungen über einen Abstand von 2000 Jahren, die doch verblüffend sind. Jedenfalls stelle ich mir Lukrez als fröhlichen Mitdiskutanten vor auf dem Podium derer, die sich bis heute den Kopf darüber zerbrechen, was wir, – was der Mensch denn wissen kann und hoffen darf.

 7. Oktober 2012  Posted by at 16:51 Hirnforschung, Wissenschaft Tagged with:  Kommentare deaktiviert für Was zu wissen ist
Jul 012012
 

Veränderungen in der intellektuellen Arbeitsweise sind schleichend gekommen, aber unübersehbar und unverzichtbar geworden. Es hat dabei eine Vielzahl „kleiner Revolutionen“ gegeben. Ein persönlicher Rückblick.

Letztens fiel mir fast beiläufig auf, wie sehr sich meine Arbeitsweise in den vergangenen Jahrzehnten verändert hat. Das ist wohl allen intellektuellen Schreibtisch-Schaffenden meiner Generation so ergangen. Es scheinen Welten zwischen den Anfängen wissenschaftlichen Arbeitens und der heute üblichen Arbeitsweise zu liegen. Ich finde diesen Wandels bemerkenswert und zeichne den Weg einmal nach.

Während des Studiums in den sechziger Jahren waren die Bücher in den Bibliotheken bzw. den „PräBi’s“ (Präsenzbibliothek ohne Ausleihe) mit ihren jeweils aktuellen „Apparaten“ (=Literatur-Zusammenstellungen) für Seminararbeiten die Arbeitsbasis, die jeweilige Seminarbibliothek der wichtigste Arbeitsraum. Gut, wenn man dort als „HiWi“ einen reservierten Platz beanspruchen konnte. Sich Bücher selber zu kaufen, war fast immer viel zu teuer. Das änderte sich erst mit den „Raubdrucken“ (nicht lizensierte Nachdrucke mittels Xero-Kopien) der linken „Klassiker“, vor allem der Frankfurter Schule, die auf Büchertischen vor und in den Mensen reichlich und ungehindert angeboten wurden. Dadurch wurde das Angebot wissenschaftlicher Basis-Literatur in der Form preiswerter Taschenbücher beschleunigt, vor allem natürlich durch den Studenten-Boom nach den universitären Neugründungen, die so erst einen relevanten Markt hervor riefen. – Arbeitsmittel waren der Bleistift, Kugelschreiber, Schreibblock und (neueste Mode damals) Karteikarten. Man exzerpierte, notierte wichtige Gedanken aus dem Gelesenen, schrieb Zitate und Fundstellen ab. Auch die eigenen schriftlichen Arbeiten wurden zunächst noch handschriftlich erstellt; meine erste Proseminar-Arbeit in einem exegetischen Fach (Theologie)  habe ich tatsächlich handschriftlich verfasst und abgeliefert.

Dann ersetzte die Schreibmaschine („Tippa“) die handschriftliche Fassung, was allerdings immer noch hieß, dass man seine eigene Arbeit handschriftlich zumindest skizzierte, wenn nicht gar als ganzen Entwurf verfasste, um diesen dann maschinell abzuschreiben. Das konnte man gut zu Hause machen, wie sich überhaupt mit den Verbesserungen der Bibliotheks-Ausleihe, mit der wachsenden Zahl eigener Bücher und eben den selber angelegten „Zettelkästen“ der Arbeitsplatz stärker ins eigene Studierzimmer verlagerte. Der Arbeitsvorgang selber blieb aber ziemlich unverändert: Lesen, exzerpieren, diskutieren (im Seminar, mit Kommilitonen, privat), Ideen skizzieren, Gliederung entwerfen, Zitate sammeln und zuordnen, erste (hand-) schriftliche Fassung einer wissenschaftlichen Arbeit. (Man erkennt schnell: Auch plagiieren blieb mühselig…)

Das änderte sich mit dem allmählichen Aufkommen von Personal Computern. Mein erster IBM-286 in den achtziger Jahren war zwar ein technischer, zumal teurer Luxus mit damals atemberaubenden Fähigkeiten, aber das Schreibprogramm „Textomat“ ersetze doch bestenfalls die Schreibmaschine. Nur der Ausdruck der Nadeldrucker ließ mit ihren Pünktchen-Buchstaben gegenüber einer guten Schreibmaschine noch sehr zu wünschen übrig. Das Tollste an dem Computer-Schreibprogramm war dreierlei: die Möglichkeit des „Formatierens“ des Textes unmittelbar beim Schreiben (wenngleich mit eigens zu erlernenden „Steuerzeichen“), die unglaublich bequeme eigenhändige Text-Korrektur (die einfache „backspace“ – Taste im Vergleich zum „TippEx“-Verfahren an der mechanischen Schreibmaschine) und endlich das bequeme Speichern auf Floppy-Disk, von der man dann den Text beim nächsten Mal einfach laden konnte. Das war schon alles genial, aber doch noch recht verspielt, wie überhaupt die neuartige Computertechnik damals noch kräftig zum Schrauben und Löten einlud. Ein Effektivitätsgewinn machte sich erst allmählich bemerkbar. Denn beachte: Ich habe die Funktion „Copy&Paste“ noch nicht erwähnt, sie konnte ihr wahrhaft revolutionäres Potential noch nicht richtig entfalten, denn was und woher hätte man kopieren sollen? Die Funktion diente anfangs allenfalls für das eigene Umsortieren von Textteilen innerhalb des Gesamttextes – auch schon eine weiterführende Möglichkeit. Dies war in etwa der technische Stand, als ich meine Doktorarbeit schrieb: Die wissenschaftliche Arbeitsweise war immer noch dieselbe wie 10 Jahre vorher, aber der PC bot sich doch als eine neue Technik an. Meine Diss Anfang der achtziger Jahre ist allerdings noch komplett auf der Schreibmaschine entstanden. Doch sehr bald wurden Arbeitspapiere für Oberseminare und Kolloquien am PC verfasst und ausgedruckt: Der PC diente nun als „intelligente“ Schreibmaschine (und Spielzeug natürlich: Knowy, Sokoban!).

Die größte Veränderung in der tatsächlichen Arbeitsweise ist erst in den vergangenen 10 Jahren mit der rasanten Ausbreitung des Internet eingetreten. Was war „dazwischen“? Nun, es passierte eine Menge: Der Mac war da mit grafischer Oberfläche, wow, daraufhin Windows 95 mit Word und DBase (ich kenne beides noch als DOS-Programme), die nun „im Fenster“ liefen, das waren schon deutliche Verbesserungen, die aber immer noch sehr viel Puzzelei und Fisselarbeit erforderten und dadurch für den eigenen Arbeitsplatz am Schreibtisch kaum Effizienzgewinne brachten. Auch erste online „Communities“ verbreiteten sich, allerdings noch nicht über das Internet, sondern, wie die Newsgroups, zuerst im Newsnet oder im hierarchisch strukturierten Fido-Net. Als „Node“ konnte man dort erste Erfahrungen mit demjenigen Phänomen sammeln, das man Jahre später in breiter Form als social media kennen lernte.

Der Internet-Browser (erst Mosaic, dann Netscape und die „Schlacht“ um den Internet Explorer) öffnete dann tatsächlich die Tür zu neuen Welten. Email war bis dahin in meiner Erinnerung weniger wichtig, weil wer hatte schon eine Email-Adresse und konnte damit auch umgehen? Auch das „Surfen“ zu interessanten Webseiten war schon doll, aber es blieb mühselig, sich all die wichtigen Webadressen zu notieren, denn Bookmarks waren beim allfälligen Computer-Absturz verschwunden. Das, was dann aus meiner Sicht zu einer völlig veränderten intellektuellen Arbeitsweise, ja zu einer praktischen Revolution am Schreibtisch (jetzt mit unverzichtbaren PC) führte, war – Google. Diese Suchmaschine war der Hammer. Sie machte die bis dahin so wichtigen Linksammlungen und thematischen Linkverzeichnisse, auch Themenportale wie Yahoo Schritt für Schritt immer überflüssiger. Google machte das WWW überhaupt erst zugänglich und benutzbar: man konnte und lernte „googeln“. – Der zweite Name, der zu dieser Mini-Revolution gehört, lautet für mich Wikipedia: eine freie, sehr schnell wachsende Enzyklopädie des weltweiten Wissens. Das waren wirklich ungeahnte Möglichkeiten, die sich nun auftaten! Der Rest ist nun bekannt. Das Web, online Communities, Social Media wie Twitter, Facebook und Google+ sind nicht mehr wegzudenken.

Heute sieht meine Arbeitsweise so aus, dass ich ständig zwischen Büchern, Texten im Netz, eigenen Skizzen und Entwürfen am Computer, zum wachsenden Teil ebenfalls „im Netz“, hin und her wechsle. Solange wissenschaftliche Bücher und Fachliteratur noch nicht als eBooks zu haben sind (Fachaufsätze teilweise schon), wird das auch so bleiben. Ich empfinde das auch nicht als Hindernis, sondern als sinnvolle und unverzichtbarte Ergänzung. Die Arbeitsweise mit Büchern für sich genommen hat sich bei mir kaum verändert, gelernt ist halt gelernt: lesen, exzerpieren, Notizen sammeln usw. Immer öfter tritt allerdings, ich bekenne es, der Scanner hinzu, um Textschnipsel und Zitate digital verfügbar zu haben. Denn das „Produkt“ entsteht nun vollständig digital. Entscheidend kommt hinzu, dass nun die aktuelle Diskussion aus Zeitungen, Zeitschriften, Diskussionsforen und online Medien sowie Darstellungen von einschlägigen Webseiten einen wesentlichen Bestandteil des Jetztzeit- und Umwelt-Horizontes darstellen, also die tägliche „Referenz“ geworden sind, von der her und auf die hin sich die intellektuelle Arbeit bezieht und auf die sie auch immer stärker orientiert ist. Bücher alleine reichen mir für meine heutige Arbeitsweise schon längst nicht mehr, aber auf das im Buch (gerne dann auch digital) geronnene, konzentrierte und strukturierte Wissen verzichten könnte ich dennoch nicht. Das ist vielleicht eine generationsbedingte Gewohnheit, vielleicht aber auch mehr. Denn es geht doch darum, bei allen aktuellen Verknüpfungen, bei allem Fließen der Meinungen und Argumente, bei der „Verflüssigung“ des Wissens selber auch einmal inne halten zu können und ein Problem, eine Sache, eine Fragestellung sozusagen „eingefroren“ auf den gerade zufälligen Ist-Stand fest zu schreiben, darzulegen und zu beschreiben. Oft werden erst durch dieses temporäre Innehalten, durch dieses objektivierende Zurücktreten und durch eine methodisch erzwungene Sachlichkeit und Nüchternheit Konturen und Strukturen sichtbar, die im oft schrillen Getümmel der Meinungen und Äußerungen überlagert und verdeckt werden. Insofern bleibt meine, ich möchte vermuten „die“ intellektuelle Arbeitsweise weiterhin auf den eigenen Platz, das Studierzimmer und den Schreibtisch mit Büchern und Computer bezogen.

Das Schöne ist: Ich kann mich zeitweise vom Netz ausklinken, kann den Computer und das Smartphone abschalten. Ist manchmal nötig. Aber das Netz reicht bis zu mir an den Schreibtisch; die „fließende Welt“ ist unglaublich nah und direkt und intensiv geworden. Dies ist vielleicht die größte Veränderung bei aller intellektuellen Tätigkeit. Das „stille Kämmerlein“ gibt es nur noch sehr begrenzt. Vielleicht ist das gut so.

 1. Juli 2012  Posted by at 13:02 Computer, Geschichte, Google, Internet, Wissenschaft, WWW Tagged with: , ,  Kommentare deaktiviert für Kleine Revolutionen