In: Jan Michel und Gernot Münster (Hg.): Die Suche nach dem Geist. Mentis, Münster, 2012. Reduktionismus, Multirealisierbarkeit und höherstufige Näherungen Holger Lyre* Der Aufsatz lotet den zeitgenössischen Reduktionismus aus. Im ersten Teil wird in zentrale Stationen der wissenschaftstheoretischen Debatte um Theorien-Reduktion eingeleitet, wobei das Schaffner-Hooker-Modell und die Bedeutung von Näherungsbegriffen hervorgehoben werden. Der zweite Teil behandelt die multiple Realisierbarkeit als eines der nach wie vor zentralen anti-reduktionistischen Argumente. Die Analyse soll zeigen, dass es sich hierbei nicht um ein einheitliches Phänomen handelt, sondern dass sehr verschiedene Kategorien von Multirealisierbarkeit zu unterscheiden sind. In einem vereinfachten Slogan: multiple Realisierbarkeit ist ihrerseits multirealisiert. Der Aufsatz entwickelt eine rohe Taxonomie von Typen multipler Realisierbarkeit und möglicher reduktionistischer Strategien, wobei genuine Fälle von Multirealisierbarkeit auf geteilte Eigenschaften zurückgeführt werden. Im letzten Teil wird die besondere Rolle von Näherungen im Zusammenhang mit der explanatorischen Spannung zwischen ontischem Reduktionismus und epistemischen Anti-Reduktionismus verdeutlicht. Einführung In weiten Kreisen der Philosophie des Geistes herrscht heute nahezu Einigkeit darüber, dass man in der Frage der Reduzierbarkeit des Mentalen auf das Physische die folgende Position einnehmen sollte: Gesetze und Erklärungsweisen der höherstufigen Wissenschaften lassen sich nicht vollständig auf fundamentalere Gesetze und Erklärungsweisen zurückführen, gleichwohl werden höherstufige Entitäten und Eigenschaften vollständig durch niederstufige Entitäten und Eigenschaften konstituiert. Die Welt "besteht" insofern gänzlich aus physischem Substrat, der genaue, erklärungsverlustfreie Ableitungszusammenhang des Mentalen aus dem Physischen oder, allgemeiner, des Höherstufigen aus dem Niederstufigen lässt sich jedoch nicht erfassen. Die erstere Auffassung wird als ontischer Reduktionismus, die zweitere als epistemischer (oder explanatorischer) Anti-Reduktionismus bezeichnet. Die gängige Kombination aus ontischem Reduktionismus und epistemischem Anti-Reduktionismus firmiert üblicherweise als nichtreduktiver Physikalismus. Demgegenüber gilt ein strenger Reduktionismus allenthalben als geradezu abwegige Position. Jaegwon Kim charakterisiert dies in Mind in a Physical World mit folgenden deutlichen Worten: "Expressions like "reduction," "reductionism," "reductionist theory," and "reductionist explanation" have become pejoratives not only in philosophy, on both sides of the Atlantic, but also in the general intellectual culture of today. They have become common epithets thrown at one's critical targets to tarnish them with intellectual naivete and backwardness. To call someone "a reductionist," in high-culture press if not in serious philosophy, goes beyond mere criticism or expression of doctrinal disagreement; it is to put a person down, to heap scorn on him and his work." (Kim 1998, 89) Aber philosophische Modeströmungen sind das eine, Argumente und begrifflich-logische Konsequenzen das andere. Denn der nicht- * Institut für Philosophie, Universität Magdeburg; Email: lyre@ovgu.de reduktive Physikalismus begeht einen schwierigen Spagat, der mit der Akzeptanz des Reduktionismus in ontologischer Hinsicht bei gleichzeitiger Ablehnung reduktiver Erklärungen einhergeht. Dabei wird häufig übersehen oder ausgeblendet, dass ontologische Reduktionen durchaus starke explanatorische Konsequenzen haben. Der vorliegende Aufsatz verfolgt das Ziel, diese Konsequenzen mit Blick auf das verbreitete antireduktionistische Argument der Multirealisierbarkeit und die Frage der näherungsweisen Beschreibung höherstufiger Explananda auszubuchstabieren. Die Argumentation ist dabei weitestgehend allgemein gehalten, so dass sie im Prinzip auf die Reduzierbarkeit verschiedenster Ebenen bezogen werden kann (etwa des Sozialen auf die Psychologie oder der Biologie auf die Chemie). In wenigstens zweierlei Hinsicht sind die Überlegungen dieses Aufsatzes aber für die Philosophie des Geistes von besonderem Interesse: Reduktionsund Reduktionismusdebatten wurden in den letzten Dekaden am massivsten in der Philosophie des Geistes geführt (in jüngerer Zeit allerdings auch zunehmend in der Philosophie der Biologie), und die Position des nicht-reduktiven Physikalismus ist vor allem eine geistphilosophische Position. Da Fragen der Reduktion und des Reduktionismus im Vordergrund des Aufsatzes stehen, sei zum nahe verwandten Begriff „Physikalismus" hier nur eine informelle Anleihe gemacht – und zwar im Sinne der Einleitung des entsprechenden Eintrags von Daniel Stoljar (2009) in der Stanford Encyclopedia of Philosophy: "Physicalism is the thesis that everything is physical, or as contemporary philosophers sometimes put it, that everything supervenes on the physical. The thesis is usually intended as a metaphysical thesis." Es wird häufig hervorgehoben, dass eine derartige Charakterisierung in der Gefahr steht, ins Leere zu laufen, insofern hier bereits vorausgesetzt wird, was "the physical" eigentlich bedeutet. Da dies der Schlüsselausdruck des in Rede stehenden Ismus ist, steht die obige Formulierung unter einem Zirkuläritätsverdacht. Ich werde nicht den Versuch unternehmen, diese Schwäche hier zu beheben, sondern appelliere an unser Alltagsverständnis, das uns sagt, dass mentale und physikalische Zustände verschieden sind. Ich werde auch nicht genauer spezifizieren, welche naturwissenschaftliche Beschreibungsebene durch eine physikalistische Beschreibung genau herausgegriffen wird – etwa systembiologisch, neuronal, biochemisch, molekularbiologisch etc. Dies sei hier gestattet, da sich unsere Diskussion auf einem hohen Allgemeinheitsniveau bewegt (nämlich der Abwehr des MultirealisierbarkeitsArguments als eines allgemein antireduktionistischen Arguments). Dabei werden mentale Zustände als Beispiele höherstufiger Zustände angesehen, während physikalische Zustände als niederstufig anzusehen sind (gegebenenfalls elementar niederstufig, wenn sie aus fundamentalen physikalischen Entitäten und Eigenschaften hervorgehen). Unsere allgemeine Fragestellung lautet, ob und wie eine Rückführung oder Reduktion des Höherstufigen auf das Niederstufige geleistet werden kann. Der Themenkomplex des Reduktionismus gestattet dabei mehrere Unterscheidungsweisen. Zunächst ist zwischen einer ontischen und einer epistemischen Sichtweise zu unterscheiden: Ontischer Reduktionismus (OR): Höherstufige Entitäten werden vollständig durch niederstufige Entitäten „konstituiert". Epistemischer (explanatorischer) Reduktionismus (ER): Resultate höherstufiger Theorien werden vollständig durch niederstufige Theorien erklärt. Nun können sich die jeweils betrachteten Zusammenhänge zwischen dem Höherund dem 2 Niederstufigen entweder auf Eigenschaften, Gesetze oder Teil-Ganzes-Relationen beziehen. Gesetze lassen sich häufig als Allquantifikationen über Eigenschaften rekonstruieren, insofern gehören die ersten beiden Punkte eng zusammen. Der klassische Ort dieser Fragestellungen ist die wissenschaftstheoretische Debatte um Theorien-Reduktion und intertheoretische Beziehungen. Und hier lässt sich zwischen einer diachronen und einer synchronen Perspektive unterscheiden. In diachroner Hinsicht geht es vornehmlich um den Zusammenhang jüngerer Theorien mit ihren Vorläufern, also um Theorienwandel bezüglich eines bestimmten Phänomenbereichs. In synchroner Hinsicht geht es stattdessen um den Zusammenhang von Theorien verschiedener Phänomenbereiche, also letztlich heterogene intertheoretische Beziehungen und ultimativ die Frage nach der Einheit der Wissenschaften. Die ReduktionismusThematik hat insofern ein Hauptstandbein in der Debatte um die Theorien-Reduktion. Theorien-Reduktion Synchrone Theorien-Reduktion setzt an bei der Vorstellung einer Hierarchie von Theorien verschiedener Komplexitätsstufen, die die verschiedenen Komplexitätsstufen in der Natur widerspiegeln. Bezeichnen wir eine höherstufige Theorie mit Thigh und eine niederstufige mit Tlow, so lässt sich eine Theorien-Reduktion wie folgt schematisieren: Thigh T→ low. Dabei liest sich der Reduktionspfeil „ " im Sinne von T→ high „wird reduziert durch" oder „reduziert sich auf" Tlow, umgekehrt „reduziert" Tlow Thigh (dies ist gängiger wissenschaftstheoretischer Jargon, in der Physik ist allerdings auch die umgekehrte Sprechweise "Tlow reduziert sich (im Limes ...) auf Thigh" weit verbreitet – etwa: im Grenzfall kleiner Geschwindigkeiten reduziert sich die Spezielle Relativitätstheorie auf die klassische Mechanik). Speziell in der Physik, aber nicht nur dort, gibt es eine ganze Anzahl, wenn auch letztlich nie gänzlich unumstrittener Reduktionsbeispiele. So etwa die folgenden: Keplersche Gesetze Newtonsche Mechanik, Newtonsche Mechanik → → Quantenmechanik, Genetik Molekularbiologie. Auch Reduktionsketten sind denkbar: Optik → → Maxwellsche Elektrodynamik Quantenelektrodynamik elektroschwache Theorie.→ → Der Klassiker unter den Theorien zur Theorien-Reduktion ist das von Ernest Nagel (1961) vorgeschlagene Verfahren. Die Kernidee der Nagel-Reduktion ist es, Theorien-Reduktion als die Ableitbarkeit von Gesetzen aufzufassen. Thigh T→ low bedeutet also, die Gesetze von Thigh sind aus Tlow ableitbar. Die offenkundige Schwierigkeit liegt darin, dass Theorien typischerweise unterschiedliche Vokabularien, also heterogene Mengen theoretischer Terme verwenden (den trivialen Fall einer, wie Nagel es nannte, homogenen Reduktion, bei dem das Vokabular von Thigh lediglich eine Untermenge von Tlow darstellt, wollen wir hier gar nicht erst betrachten). Um die Ableitbarkeit zu garantieren, müssen daher die verschiedenen theoretischen Terme durch Korrespondenzoder Brückengesetze („correspondence rules", „bridge principles") miteinander verknüpft werden. Nach Nagel gilt dann, dass es im Falle einer gelingenden heterogenen Reduktion möglich ist, die Gesetze von Thigh aus der Konjunktion von Tlow und den Korrespondenzregeln logisch herzuleiten. Nagelsche Reduktion ist Gesetzes-Deduktion. Das von Nagel in diesem Zusammenhang selbst ins Spiel gebrachte und häufig diskutierte Beispiel ist die Reduktion der Phänomenologischen Thermodynamik (PT) auf die Statistische Mechanik (SM). Greifen wir ein zentrales Gesetz von PT, die ideale Gasgleichung p V = n R T heraus. PT SM setzt voraus, dass wir die ideale Gasgleichung aus SM im Verbund mit→ geeigneten Korrepondenzregeln ableiten können. Die makroskopischen Zustandsgrössen Druck p, Volumen V und Temperatur T müssen dabei durch mikroskopische Grössen wie 3 Molekülgeschwindigkeiten etc. ersetzt werden. Insbesondere ist die Temperatur T gar kein Term von SM.1 Wir verwenden in diesem Falle die Korrespondenzregel „Temperatur = mittlere kinetische Molekül-Energie". Der höherstufige Term "Temperatur" wird also durch den niederstufigen Term "kinetische Molekül-Energie" ersetzt. In anderen Fällen treten noch weit kompliziertere Korrespondenzbeziehungen auf, bei denen höherstufige Terme auf komplexe Zusammensetzungen niederstufiger Begriffe abgebildet werden müssen. Wir wollen einmal annehmen, dass dies in Einzelfällen zwar aufwendig werden kann, im Prinzip aber kein Problem darstellt. Die eigentliche Schwierigkeit liegt an anderer Stelle und deutet sich bereits durch die Verwendung statistischer Termini wie die Mittelwertbildung (über eine Vielzahl von MolekülEnergien) an. Denn das ideale Gasgesetz gilt strenggenommen gar nicht in realen Fällen. Die Bezeichnung „ideal" deutet an, dass man speziell von den real immer vorhandenen intermolekularen Wechselwirkungen abstrahiert hat. In Wirklichkeit gibt es weder ideale Gase noch unendlich viele punktartige Moleküle und was dergleichen mehr an Näherungsund Idealisierungsannahmen in das höherstufige Gesetz eingeflossen sind. Nun lassen sich diese Näherungen auf niederstufiger Ebene in manchen Fällen reproduzieren, in anderen Fällen aber nicht. Es ist daher beispielsweise unmöglich, den Zweiten Hauptsatz der PT, den Entropiesatz, in voller Geltung mikroskopisch zu reduzieren. Das Boltzmannsche H-Theorem stellt zwar eine geeignete Näherung an den Zweiten Hauptsatz dar, ist aber strenggenommen schwächer als der Zweite Hauptsatz. Um dieses Problem kreisen in der Wissenschaftstheorie der Physik seit jeher zahlreiche tiefliegende Fragen. Die Thematik lässt sich an dieser Stelle leider nur andeuten, die von vielen Physikern und Wissenschaftstheoretikern akzeptierte Konklusion ist aber, dass der Zweite Hauptsatz in Strenge als falsch anzusehen ist und das weniger starke H-Theorem eine wirklichkeitsgetreuere Darstellung liefert (vgl. Uffink 2007, Kap. 4). Die Problematik zeigt eine tiefe Schwäche des Nagel-Verfahrens und lässt sich bereits an der idealen Gasgleichung bestens illustrieren. Nagel-Reduktion bedeutet die niederstufige logische Ableitbarkeit aller höherstufigen Gesetze. Warum sollte es aber überhaupt nötig oder gar sinnvoll sein, ersichtlich falsche Gesetze wie etwa die ideale Gasgleichung aus einer feinkörnigeren und mithin sorgfältigeren Theorie abzuleiten? Man muss erwarten, dass dies nicht funktionieren kann, ja nicht einmal funktionieren darf. Dies ist aber ein häufig anzutreffender Umstand, denn höherstufige Theorien erweisen sich oft als nur näherungsoder idealerweise wahr. Die Nagel-Reduktion führt daher zwangsläufig auf Fragen der Inkommensurabilität und des Eliminativismus (der These der vollständigen Elimination der höherstufigen Theorie). Speziell Paul Feyerabend hat sich in diesem Zusammenhang für eliminativistische Konsequenzen ausgesprochen: „the use of T will necessitate the elimination both of the conceptual apparatus of T' and of the laws of T'" (Feyerabend 1962, 59). Einem allzu vorschnellen Eliminativismus steht aber die Einsicht gegenüber, dass höherstufige Erklärungen in vielen Fällen ja sehr wohl einen nennenswerten explanatorischen Wert besitzen. Zu behaupten, dass die Temperatur als Eigenschaft von Gasen streng genommen gar nicht existiert, klingt angesichts der fruchtbaren Verwendung dieses Konzepts in alltagsund fachsprachlichen Zusammenhängen als überzogen. Wir werden auf diesen Punkt am Ende noch einmal zu sprechen kommen. John Kemeny und Paul Oppenheim (1956) haben eine Abänderung des Nagel-Modells vorgeschlagen, bei der sie nicht nur Gesetze und Terme der verschiedenen Theorien miteinander vergleichen, sondern auch die Beobachtungen berücksichtigen. Im Kern ihres Modells steht die 1 Jedenfalls ist sie es nicht nach der Standardauffassung. Bei der Frage, welche mikroskopische Grösse T entspricht, tauchen noch zusätzlich verkomplizierende Probleme der Unterbestimmtheit auf, die hier nicht betrachtet werden sollen (vgl. Uffink 2007, 5.1-5.2). 4 Vorstellung, dass Reduktion im Wesentlichen darin besteht, gegebene Beobachtungsdaten zu erklären. Um die Reduktionbeziehung aber nicht beliebig werden zu lassen (die neue reduzierende Theorie, die die bisherigen Daten gegebenenfalls viel besser erklärt, muss substantiell nichts mit der zu reduzierenden Theorie zu tun haben und könnte in jeder Hinsicht gänzlich anders sein), müssen zusätzliche Kauteln einfügt werden, in denen beispielsweise gefordert wird, dass Tlow wenigstens so „systematisch" wie Thigh sein muss, was wiederum die Notwendigkeit einer Präzisierung des Begriffs der "Systematizität" nach sich zieht. Summa summarum steht der Ansatz in der von Kemeny und Oppenheim vorgeschlagenen Form zu sehr unter Instrumentalismus-Verdacht. Die nachhaltigste explizite Verbesserung des Nagel-Modells ist die Schaffner-Hooker-Reduktion (wenngleich Nagel die entsprechenden Grundüberlegungen auch schon angestellt hatte – vgl. auch Dizadji-Bahmani et al. 2010). Um den unliebsamen Schwierigkeiten des ursprünglichen Nagel-Modells zu entgehen, forderte Kenneth Schaffner (1967), dass es für eine Reduktion hinreichend ist, falls nicht buchstäblich Thigh, sondern eine Thigh sehr nahe kommende Bildtheorie T' nagel-reduzierbar ist. Clifford Hooker (1981) fügte die Überlegung hinzu, dass T' rein im niederstufigen Vokabular formuliert wird, so dass jegliche Brückengesetze und damit zusammenhängende Schwierigkeiten umgangen werden können. Zwar ist auch das SchaffnerHooker-Modell der Theorien-Reduktion keineswegs ohne Probleme (wie definiert man die Nähe oder den Analogcharakter von T' gegenüber Thigh?), aber es implementiert explizit die Reduzierbarkeit nur näherungsweise gültiger höherstufiger Gesetze und Theorien. Man könnte sogar sagen, dass die Kernidee des Schaffner-Hooker-Modells darin besteht, Reduktion als eine Form von Approximation anzusehen, was mit dem "Alltag" des Geflechts wissenschaftlicher Theorien viel besser verträglich ist. Es ist gewiss nicht von ungefähr, dass die wissenschaftstheoretische Debatte um TheorienReduktion seit den Arbeiten von Schaffner und Hooker erheblich abgeflaut ist – sieht man von den mit der Transponierung der Fragestellung in die semantische Theorienauffassung verbundenen Debatten einmal ab (vgl. Moulines 1984). Denn das Schaffner-Hooker-Modell löst im Prinzip die wichtigsten Probleme in dieser Debatte. Dabei wurden, wie auch hier, vornehmlich diachrone Reduktionsbeziehungen untersucht, also mit Bezug darauf, wie ältere grobkörnigere und kurzreichweitigere Theorien in neuere feinkörnigere und langreichweitigere Theorien aufgehen. Die Thematik hat sich seither aus dem wissenschaftstheoretischen Fokus der TheorienReduktion zu einer allgemeinen Reduktionismus-Debatte verbreitert, deren Hauptschauplatz die Philosophie des Geistes und die Reduktionsfrage zwischen dem Mentalen und dem Physischen geworden ist. Bevor wir uns diesen Fragen zuwenden, will ich zum Ende des Abschnitts eine erste These formulieren. Sie lautet: These 1: Synchrone Reduktion ist in gleichem Masse Approximation wie diachrone Reduktion. Dass diachrone Reduktion wesentlich mit Approximation zu tun hat, leuchtet intuitiv ein: im Theorienwandel und wissenschaftlichen Fortschritt werden ältere grobkörnigere Theorien durch neuere feinkörnigere Theorien ersetzt, so dass erstere sich häufig als Näherungsbeschreibungen der letzteren darstellen lassen. Inwieweit Ähnliches auch für synchrone Reduktion zwischen Theorien verschiedener Gegenstandsbereiche gilt, muss sich zeigen. Die Diskussion der Multirealisierbarkeit leistet hierzu wichtige Verständnisansätze. 5 Multiple Realisierbarkeit Das verbreitetste und nach wie vor bedeutsamste Argument gegen den epistemischen Reduktionismus ist das von Putnam (1967) und Fodor (1974) entwickelte Argument der multiplen Realisierbarkeit des Mentalen (M) durch das Physische (P). Ich werde es kurz das MR-Argument nennen. Es richtet sich genauer gegen einen Typen-Reduktionismus, also die These, dass sich höherstufige Eigenschaften (die auf Klassen bzw. Typen von Vorkommnissen zutreffen) mit niederstufigen Eigenschaften identifizieren lassen. Die schwächere These des TokenReduktionismus, die besagt, dass jedes höherstufige Vorkommnis oder Token mit einem niederstufigen Token identifizierbar ist, bleibt unangetastet. Das MR-Argument besagt in aller Kürze, dass mentale Typen drastisch heterogene multiple physikalische Realisierungen besitzen, und dass insofern keine Identität (oder wenigstens bikonditionaler Zusammenhang) zwischen Mund P-Typen bestehen kann. Entscheidend ist dabei die „drastische Heterogenität" der die höherstufigen Typen jeweils niederstufig realisierenden Token. Im Lichte der Nagel-Reduktion heisst das, dass keine Korrespondenzoder Brückenbeziehungen zwischen den höherund niederstufigen Typen hergestellt werden können, und die höherstufigen Generalisierungen oder Gesetze insofern epistemisch irreduzibel sind. Ich will nun zeigen, dass man recht verschiedene Arten von (zum Teil vermeintlichen) MR-Fällen unterscheiden muss, was sloganhaft darauf hinausläuft, dass „Multirealisierbarkeit ihrerseits multirealisiert ist". De facto wird das MRArgument hierdurch erheblich in seiner Schlagkraft untergraben. a) Geteilte intrinsische Eigenschaften Beginnen wir mit einem einfachen Beispiel. Wasser ist uns in seinen alltäglichen, im Wesentlichen von der Chemie bestimmten Eigenschaften bestens bekannt. Molekular ist Wasser aber nicht einfach nur H2O, sondern liegt zu gewissen Anteilen auch als schweres und überschweres Wasser vor (Deuteriumoxid D2O und Tritiumoxid T2O – von Mischformen wie Hydrodeuteriumoxid HDO einmal abgesehen). Diese Dreifachheit kann "reduziert" werden auf die Dreifachheit des Wasserstoffs in Form der Isotope Protium H, Deuterium D und Tritium T, wobei im Falle von Deuterium ein und Tritium zwei Neutronen zum Proton des Wasserstoffkerns hinzugefügt werden. Dieses Setting induziert gleich mehrere MR-Szenarios auf verschiedenen Ebenen. Auf der Ebene der Moleküle die Multirealisierung von Wasser in Form von gewöhnlichem, schwerem und überschwerem Wasser. Auf der Ebene der Atome die Multirealisierung von Wasserstoff in der Form dreier Isotope und auf der Ebene des Wasserstoffkerns in Form der Vorkommnisse als Proton, Proton + Neutron und Proton + 2 Neutronen. All dies ist hinlänglich bekannt, und es dürfte klar sein, dass kein praktizierender Wissenschaftler aufgrund dieser MR-Fälle je der Meinung war, dass ein dringendes Problem hinsichtlich der Reduzierbarkeit der Molekularchemie auf die Atomphysik existiert. Nicht, dass solche Probleme nicht möglicherweise existieren, aber sie haben gewiss nichts mit den gerade beschriebenen MR-Szenarios zu tun. Nehmen wir für die Zwecke dieses Beispiels und nachfolgender Argumente den Standpunkt einer Bündelontologie ein. Entitäten sollen als Bündel von Einzeleigenschaften angesehen werden. Wie wir gesehen haben, können wir die Dreifachheit des Wassers auf die Dreifachheit des Wasserstoffkerns zurückführen. Dabei erweist sich die Eigenschaft, je ein Proton zu besitzen, als gemeinsame intrinsische Eigenschaft aller Kerne. Bezeichnen wir als Wert der "p-Eigenschaft" die Zahl der Protonen im Wasserstoffkern und als "n-Eigenschaft" die entsprechende Zahl der Neutronen (wir vernachlässigen den Sauerstoff und konzentrieren uns nur auf den Wasserstoff), dann hat die n-Eigenschaft für H den Wert 0, für D den Wert 1 und für T den Wert 2 6 - (entsprechend für H2O den Wert 0, für D2O den Wert 2 und für T2O den Wert 4), während die pEigenschaft für alle den gleichen Wert, nämlich 1, hat. Es ist diese Tatsache, dass alle Wasserstoffisotope hinsichtlich des Protonengehalts gleich sind, die es macht, dass die chemischen Eigenschaften der drei Wasserinstanzen nicht so sonderlich verschieden sind, da die chemischen Eigenschaften vor allem mit der elektromagnetischen Kopplung über das elektrisch geladene Proton zusammenhängen. Die verschiedenen Wassermolekül-Tokens bilden insofern eine Klasse, da sie eine wichtige gemeinsame Eigenschaft, die p-Eigenschaft, teilen, und nur hinsichtlich einer chemisch wesentlich weniger bedeutsamen Eigenschaft, der n-Eigenschaft, variieren. Die p-Eigenschaft ist insofern die kausal relevante Eigenschaft des Wassers – und Wassergesetze sind Generalisierungen über vornehmlich diese Eigenschaft. Das MR-Szenario des Wassers ist daher kein bedrohliches Szenario für Fragen des Reduktionismus, da die verschiedenen Wasserrealisierer sich zwar nicht hinsichtlich aller, wohl aber der kausal relevanten Eigenschaften gleichen. Dieser Umstand ist verallgemeinerbar: höherstufige Gesetze sind häufig lediglich Generalisierungen über die kausal relevanten geteilten intrinsischen Eigenschaften der Realisierer. Dass die Realisierer noch weitere, gegebenenfalls differente, aber kausal irrelevante Eigenschaften besitzen, ist für die Möglichkeit höherstufiger Klassenund Gesetzesbildung nicht entscheidend. Gleichwohl lässt sich das höherstufige Gesetz niederstufig auf die Generalisierung über die geteilten kausal relevanten Eigenschaften reduzieren, ja sogar Nagel-reduzieren (natürlich lassen sich hier noch zahlreiche wesentlich trivialere Beispiele angeben, die uns auch tagtäglich vor Augen stehen: für die Frage beispielsweise, ob ein Auto ein Auto ist, spielt die Farbe des Lacks keine Rolle, wohl aber, ob es Räder und einen Motor besitzt). Fälle geteilter intrinsischer Eigenschaften sind offenkundig harmlose MR-Fälle. Gehen wir über zu einer weiteren Fallgruppe. b) Familienähnlichkeiten und domänen-spezifische Reduktionen Spiele scheinen einen interessanten Fall von MR darzustellen: es gibt Fussballspiele, Kartenspiele, Olympische Spiele, Kinderspiele, Gladiatorenspiele etc. Aber Wittgenstein (1953) belehrt uns darüber, dass „Spiel" ein Familienbegriff ist. Nach Wittgenstein bilden die Mitglieder einer Familie „ein kompliziertes Netz von Ähnlichkeiten, die einander übergreifen und kreuzen" (Wittgenstein 1953, § 66), aber es gibt keine einzige gemeinsame Eigenschaft, und somit erst recht keine essentielle Eigenschaft, an der sich festmachen liesse, wieso die Mitglieder einer Familie einander ähnlich sind oder nicht. Falls dem so ist, kann es auch keine strengen gesetzesartigen Generalisierungen über „Familientypen" (also Mengen von über Familienähnlichkeiten verbundene Tokens) geben. Der Leser möge es versuchen: es gibt keine allgemeinen „SpieleGesetze" (mit Ausnahme trivialer analytischer Wahrheiten wie „Spiele sind zum spielen da") – über welche Eigenschaften sollten sie quantifizieren? Es steht zu erwarten, dass eine Vielzahl unserer höherstufigen Begriffe keine scharf umrissenen Klassen oder Typen, sondern lediglich Familien extensional umfasst. Eine Schwierigkeit liegt darin, dass wir es uns, vor allem alltagssprachlich, sehr häufig gestatten, dennoch Generalisierungen vorzunehmen. Wir sagen beispielsweise: „Spiele machen Spass". Dies stimmt sehr häufig, aber gewiss nicht immer (der Gladiator wird kaum Freude an den Gladiatorenspielen haben – und ein bekanntes Gesellschaftsspiel heisst nicht umsonst „Mensch ärgere Dich nicht"). Sofern nun Familienbegriffe fälschlicherweise in Generalisierungen auftauchen, bedeutet die Unmöglichkeit, die höherstufige Generalisierung zu reduzieren, natürlich kein Problem für den Reduktionismus. Denn ein nur vermeintliches Gesetz kann und muss man nicht reduzieren können. Leider sieht man diesen Umstand vielen Begriffen und Generalisierungen höherer Stufen 7 nicht unmittelbar an. Ein Beispiel könnte etwa der Begriff „Schmerz" sein und eine entsprechende vermeintliche Generalisierung beispielsweise der Satz „Schmerzen sind unangenehm" (für Masochisten?). An dieser Stelle trifft Wittgenstein auf David Lewis. Lewis' bekannte Analyse des Putnamschen MR-Arguments besagt, dass im Falle eines Versagens einer Typ-Typ-Identität (oder, was auf dasselbe hinausläuft, Nagelscher Brückengesetze) die Identitäten und damit die Reduktionsannahmen auf bestimmte Unterklassen (Subtypen) einzuschränken sind (Lewis 1969). Statt generell von Schmerz als einer höherstufigen Klasse zu sprechen, müssen wir uns auf Untertypen etwa der Art Schmerz-im-Menschen, Schmerz-im-Hund, Schmerz-im-Marsianer, Schmerz-im-Roboter einschränken. Ich lasse offen, ob dies im Falle von „Schmerz" so ist, aber es wird in vielen vermeintlichen MR-Fällen genau so sein. Zu bemerken ist dabei, dass die LewisAnalyse durchaus mit der Wittgensteinschen Familienähnlichkeits-Analyse und der unter a) diskutierten Klassenbildung aufgrund geteilter intrinsischer Eigenschaften harmoniert. Ein Familientyp kann in Subtypen zerfallen (wenn auch nicht auf eindeutige Weise – es kann auch verschiedene Zerlegungen geben), und diese stellen wiederum genau dann genuine Typen dar, wenn ihre Tokens Eigenschaften teilen. Und insofern die unter a) analysierten MR-Fälle keine für den Reduktionismus bedrohlichen MR-Fälle darstellen, sind es die domänen-spezifischen Reduktionen im Sinne von Lewis auch nicht. Wir sollten nun klären, ob es sich bei Fällen von MR immer um geteilte intrinsische Eigenschaften handeln muss. c) Geteilte relationale Eigenschaften Wenn es Fälle geteilter intrinsischer Eigenschaften gibt, liegt es nahe zu fragen, ob es auch Fälle geteilter relationaler Eigenschaften geben kann. Betrachten wir ein weiteres Beispiel. Der harmonische Oszillator besitzt in der Natur eine ungemeine Vielzahl von Instanzen: Pendel, Federn, Atome, elektromagnetische Schwingkreise u.v.m. Haben diese vielen Instanzen etwas gemeinsam? Auf den ersten Blick sicher nicht. Allgemein physikalisch gesprochen ist der harmonische Oszillator ein System, bei dem die rücktreibende Kraft proportional ist zur Auslenkung aus der Gleichgewichtslage. Dies kann mathematisch durch eine Differentialgleichung ausgedrückt werden: die Oszillatorgleichung d2/dt2 x(t) + k x(t) = 0. Diese Gleichung repräsentiert ein höherstufiges Gesetz, das das zeitliche Verhalten aller niederstufigen Realisierer eines harmonischen Oszillators in kompakter und präziser Weise beschreibt. Es stellt eine interessante und keinesfalls triviale Generalisierung über die heterogenen Realisierer eines harmonischen Oszillators dar. Formal wird die Heterogenität der Realisierer dadurch abgebildet, dass in der Oszillatorgleichung die Natur der Proportionalitätskonstante k offen gelassen ist. Tatsächlich liefert uns die Gleichung keine intrinsische, sondern lediglich eine rein relationale oder strukturelle Charakterisierung des harmonischen Oszillators: alle Instanzen eines harmonischen Oszillators teilen dieselben relationalen Eigenschaften, die durch die Oszillatorgleichung definiert werden (zu diesen Eigenschaften gehört beispielsweise, dass die Schwingungsdauer eines Pendels nur vom Verhältnis, der Relation, von Pendellänge und Gravitationskraft abhängt, aber gänzlich unabhängig ist von der intrinsischen Masse oder gar Materialbeschaffenheit des Pendels). Wir haben mithin eine weitere Klasse von MR-Szenarios kennen gelernt: die Klasse der Fälle geteilter relationaler Eigenschaften. Strukturelle Gesetze, von denen es in den mathematisierbaren Wissenschaften eine grosse Vielzahl gibt, sind zu einem wesentlichen Teil Generalisierungen über derartige relationale Eigenschaften. Mit Blick auf das Konzept der Multirealisierbarkeit sind diese Fälle insofern interessanter, als die Realisierer aufgrund fehlender intrinsischer Gemeinsamkeiten 8 stärker heterogen sind. Wegen ihrer strukturellen Gemeinsamkeiten ist jedoch nichts Mysteriöses an derartigen Fällen von MR.2 d) Funktionale Reduktion und Multirealisierbarkeit Die interessantesten MR-Fälle, so der Anti-Reduktionist, haben wir noch gar nicht behandelt. Dies sind die Fälle funktionaler Entitäten und entsprechend funktionaler Gesetze. Funktionen, so scheint es, sind per se multirealisierbar. Die Hand ist zum Greifen da, der Hammer dazu, Nägel in die Wand zu schlagen – und es gibt Affenhände, Menschenhände, Roboterhände sowie Steinhämmer, Fäustel, Reflexhämmer etc. Der Funktionsbegriff gehört zweifellos zu den problematischsten Begriffen der modernen theoretischen Philosophie, dem viel analytische Arbeit gewidmet wurde, auf die hier unmöglich eingegangen werden kann. Die philosophische Debatte hat dabei vor allem gezeigt, dass im Zusammenhang mit dem Funktionsbegriff zweierlei bedeutsame Aspekte unterschieden werden müssen. Damit etwas zu einem Hammer wird, also die Funktion des Hämmerns erfüllt, muss es in bestimmten Kausalrelationen zur Umwelt stehen. Dies ist der kausal-strukturelle Aspekt des Funktionsbegriffs. Statt von Funktion wird dann häufig auch von „kausaler Rolle" gesprochen. Daneben gibt es einen normativen Aspekt, denn Funktionen können erfüllt oder verletzt werden. Eine Uhr, die die Zeit nicht anzeigt, ist keine Uhr, denn sie ist dysfunktional. Der normative Aspekt des Funktionsbegriff ist mit tiefliegenden philosophischen Problemen behaftet. Glücklicherweise muss uns dies hier nicht interessieren, denn die MR-Frage hat allein mit dem kausal-strukturellen Aspekt des Funktionsbegriffs, mit der kausalen Rolle eines Dings, zu tun. Unsere Frage muss daher lauten, in welchem Sinne kausale Rollen multirealisierbar sind. Hier sind die Arbeiten von Jaegwon Kim zur funktionalen Reduktion einschlägig. Kaum ein Autor hat mehr zu diesem Thema gearbeitet (vgl. Kim 1998 und 2005). Sein Modell beinhaltet zwei Schritte: im ersten Schritt identifiziert man die kausale Rolle des höherstufigen Typs, im zweiten Schritt identifiziert man die niederstufigen Realisierer. Kim geht davon aus, dass zur Individuation einer Entität lediglich deren kausale Wirksamkeit heranzuziehen ist. Jedenfalls sieht er dies als das einzig wissenschaftlich akzeptable Verfahren an. In der Tat liegt die Beweislast auf Seiten des MR-Proponenten, bei jedem behaupteten MR-Fall sagen zu können, wie der höherstufige, vermeintlich multirealisierbare Typ zu individuieren ist (wer beispielsweise behauptet, Schmerzen seien multirealisierbar, muss zuvor angeben können, wie man Schmerz individuiert). Andernfalls liegt gar kein klar greifbarer höherstufiger Typ vor (sondern eventuell nur ein vermeintlicher, wie im Falle von Familienbegriffen). Hat man höherstufig über die kausale Rolle C individuiert, dann folgt unter der zusätzlichen Annahme der Supervenienz, dass es entsprechend niederstufige Realisierer gibt, die man in gleicher Weise über C kausal identifizieren kann. Man hat somit eine Token-Reduktion erreicht. Wir können nun unsere obige Betrachtung über geteilte relationale Eigenschaften ins Spiel bringen. Denn ein Ding über seine kausale Rolle zu individuieren bedeutet nichts anderes, als seinen Ort in einem kausalen Netzwerk zu bestimmen, nämlich demjenigen Netzwerk, in dem es sich in den entsprechenden Kausalrelationen zu allen anderen Dingen befindet. Ein Ding kausal zu individuieren heisst also, seine Kausalrelationen, also eine Menge relationaler Eigenschaften zu benennen, die ihm zukommen. Unter c) haben wir aber bereits gesehen, dass wir Fälle von MR manchmal auch als Fälle geteilter relationaler Eigenschaften ansehen können. Kims Modell der funktionalen Reduktion im Zusammenspiel mit c) besagt daher, dass wir funktionale Typen auf 2 Im Gegenteil: Dem Strukturenrealismus zufolge ist sogar zu erwarten, dass sämtliche oder doch nahezu sämtliche fundamentale Eigenschaften nicht intrinsische, sondern relationale Eigenschaften sind (French und Ladyman 2003, Lyre 2010). 9 niederstufige Typen geteilter relationaler Eigenschaften, nämlich gleicher kausaler Rolle zurückführen können. Wir haben dann nicht nur eine Token-, sondern eine Typen-Reduktion vorgenommen! Und damit kommt der MR-Proponent auch auf dem Feld seiner interessantesten MR-Szenarios, nämlich für Fälle funktionaler Typen, in Bedrängnis. Die Ergebnisse der Abschnitte a), c) und d) lassen sich in zwei Thesen zusammenfassen: These 2: Echte Fälle von MR sind Fälle geteilter (intrinsischer oder relationaler) Eigenschaften. These 3: MR-Szenarios funktionaler Typen lassen sich kausal auf Fälle geteilter relationaler Eigenschaften zurückführen. Zu These 2 sei noch ein weiterer, wichtiger Gesichtspunkt bemerkt. Je weniger Eigenschaften die jeweiligen Realisierer miteinander teilen, umso weniger bzw. wenig interessante höherstufige Generalisierungen lassen sich natürlich finden. Shapiro, dessen kritische Analyse von Multirealisierbarkeit ebenfalls sehr stark auf geteilte Eigenschaften zurückgreift, nennt Beispiele wie etwa „mouse traps are used to catch mice" oder „eyes are used to see" (Shapiro 2000, S. 649). In der Tat gilt: Falls nur wenige geteilte Eigenschaften existieren, kommen die höherstufigen Generalisierungen analytischen Definitionen gleich, denn diese letzten verbleibenden geteilten Eigenschaften dienen zwangsläufig der Definition der entsprechenden höherstufigen Klassenbegriffe (wie "Mausefalle" oder "Auge"). Um interessante Klassen zu erhalten, muss man, wie in b), domänen-spezifisch reduzieren. Bevor wir den Abschnitt beschliessen, noch eine Bemerkung zu einer häufig anzutreffenden antireduktionistischen Behauptung über sogenannte „Querklassifikation" („cross-classification"). Die Idee ist, dass in vielen MR-Fällen die höherstufigen Typen, also Klassenbildungen, „quer" zu den niederstufigen Klassenbildungen stehen. Wie aber Kim (1998, p. 69) richtig hervorhebt, kann dies in Strenge nur behauptet werden, wenn man bereit ist, die stufenweise Supervenienz aufzugeben. Denn damit zwei Taxonomien verschiedener Stufen quer zueinander stehen, muss angenommen werden, dass die kausalen Profile beider Taxonomien unterschiedlich sind – jedenfalls dann, wenn wir Typen über ihre kausale Rolle individuieren, was, wie wir gesehen haben, die einzig vernünftige wissenschaftliche Vorgehensweise ist. Das heisst also, dass der höherstufige Typ angeblich kausale Wirkungen hervorruft, die von den kausalen Rollen der niederstufigen Realisierer nicht reproduziert werden können! Dies wäre eine offensichtliche Verletzung der Supervenienz und somit eine äusserst abwegige Konsequenz. Vermutlich hängt die Annahme vermeintlich differenter kausaler Profile oft damit zusammen, dass die höherstufigen Typen aus Approximationen der niederen Stufen hervorgehen, und somit in höherstufigen Näherungsgesetzen fungieren, die in der Tat nicht streng Nagel-reduzierbar sind. Dies leitet über zum nächsten Abschnitt. e) Multirealisierbarkeit und Näherungen Wie wir bereits gesehen haben, sind Fälle problematischer Reduktionen häufig Fälle, in die höherstufige Näherungen involviert sind. Dies hat auch Auswirkungen auf MR. Betrachten wir zunächst wieder ein Beispiel. Die spezifische Temperatur T des Makrozustands eines Gases ist multirealisierbar durch eine ungeheure Zahl von Mikrozuständen, die die gleiche mittlere kinetische Molekülenergie instantiieren (bereits die Zahl der Moleküle ist von der 10 Grössenordnung 1023, die durch sie eingenommenen Mikrorealisierungen sind ungeheuer viel grösser!). Mit den makroskopischen Grössen lassen sich, wie schon im ersten Teil über TheorienReduktion ausgeführt, sehr robuste Gesetze, etwa die ideale Gasgleichung, aufstellen. Die Robustheit, also praktische Genauigkeit der höherstufigen Gesetze, lässt sich aufgrund der riesigen Ensembles auch unmittelbar verstehen, ferner lässt sich das Gesetz bottom-up, also aus den niederstufigen Strukturen herleiten, auch wenn es auf diese Strukturen nicht streng Nagelreduzierbar ist.3 Obwohl der Fall der Instantiierbarkeit eines Makrozustands durch eine Vielzahl von Mikrozuständen wie ein interessanter Fall von Multirealisierbarkeit aussieht, ist er bei genauem Hinsehen kein echter, sondern nur ein vermeintlicher Fall von MR. Zunächst mag es so aussahen, als fiele dieser Fall unter These 2, aber die verschiedenen Mikrozustände teilen nicht dieselbe kinetische Energie, sie besitzen nur im statistischen Mittel diesen Wert. Das gesamte Ensemble besitzt den gemittelten Energiewert, aber in der Praxis wird so gut wie kein Einzelzustand exakt diesen Wert besitzen. Die höherstufige Eigenschaft ist in Strenge keine Eigenschaft der Realisierer. Die Folgen dieser Beobachtung besprechen wir im letzten Teil, zunächst sollen die Abschnitte b) und e) in einer These über unechte Fälle von MR zusammengefasst werden – Fälle, die nur vermeintlich nach Multirealisierbarkeit aussehen, es aber in Strenge nicht sind, und die daher keine reduktionistische Bedrohung darstellen: These 4: Unechte Fälle von MR entstehen, wenn höherstufige Familienähnlichkeiten oder Näherungen ins Spiel kommen. f) Multirealisierbarkeit und konventionelle Typen Ein bereits auf Fodor (1974) zurückgehendes Beispiel von MR wird häufig kolportiert: das Begleichen einer Schuld, ein Geldtransfer, kann auf vielfache Weise realisiert werden: durch Geldübergabe (in verschiedenen Währungen), Überweisung, Kreditkartenzahlung etc. – ein scheinbar überzeugender Fall drastisch heterogener Multirealisierbarkeit. Jedoch mit einer Besonderheit; denn natürlich finden wir kaum eine physikalische oder sonstige Gemeinsamkeit zwischen den verschiedenen Realisierern – aber warum sollten wir auch? Die Realisierer „realisieren" eine gewisse Relation, die Schuldenrelation zwischen zwei Marktteilnehmern. Diese Relation entfaltet ihre kausale Kraft aber nicht aus irgendeiner intrinsischen Eigenschaft der Währungsmittel heraus. Denn Geld ist eine rein konventionell geschaffene Grösse, die auf einer Übereinkunft aller Marktteilnehmer (oder genauer ihrem Vertrauen in diese Übereinkunft) beruht. Zwar lassen sich Geldtransfers als Kausalrelationen zwischen Marktteilnehmern ansehen, aber die kausale Wirksamkeit dieser multirealisierbaren Relationen wurde verabredet – und bedarf keiner reduktionistischen Erklärung auf eine niedere, kausal relevante Stufe der Geldtransfer-Realisierer. Wir haben es hier mit einem nur vermeintlichen Fall von MR, nämlich mit dem Fall höherstufiger Typen qua Konvention zu tun. Es konnten also wenigstens sechs Arten von Multirealisierbarkeit unter a) bis f) unterschieden werden. Dies zeigt, dass der Multirealisierbarkeit kein einheitliches Muster zugrundeliegt, 3 Hier ein kleines Beispiel, wie sich höherstufige Generalisierungen bottom-up aus der niederen Stufe ergeben können (ich danke S. Gotzes für die Anregung). Man betrachte die gewöhnliche Addition: 12+36=48 und 3+3=6=2*3. Sie führt zu den Schemata: a+b=c mit c>a, b und a+a=2a. Betrachten wir demgegenüber Fälle sehr grosser Zahlen: 1080+10120≈10120 und 1080+1080=2*1080≈1080. Hieraus ergeben sich die folgenden, näherungsweise gültigen "Additionsregeln" für grosse Zahlen A>>0: A+B=A für A>>B und A+A=A. 11 sondern dass sie ihrerseits „multirealisiert" ist (vgl. Lyre 2009). Dieser Umstand macht es dem Reduktionisten besonders schwer, denn ohne einheitliches MR-Muster ist auch keine einheitliche reduktionistische Gegenstrategie zu erwarten oder möglich. Allerdings haben wir zwischen echten (a, c, d) und unechten oder nur vermeintlichen MR-Fällen (b, e, f) unterschieden. Echte Fälle von MR sind Fälle geteilter Eigenschaften – und sind insofern keine Bedrohung für den Typen-Reduktionismus. Unechte Fälle stellen aber erst Recht keine Bedrohung dar, da hier nichts zu reduzieren ist. Schlussendlich hat sich das MR-Argument gegen den Typen-Reduktionismus als äusserst schwach, wenn nicht hinfällig, erwiesen. Reduktionismus, höherstufige Näherungen und explanatorische Verpflichtungen Die Betrachtungen im ersten Teil über Theorien-Reduktion und im zweiten Teil über Multirealisierbarkeit führten auf eine gemeinsame Berührstelle, die in der besonderen Bedeutung höherstufiger Näherungen liegt. Hierzu noch einige abschliessende Überlegungen. Betrachten wir noch einmal wie im obigen Abschnitt e) die makroskopische Temperatur eines Gases. Sie ist mikroskopisch multirealisiert durch eine Vielzahl von Mikrozuständen, die im statistischen Mittel die gleiche kinetische Molekülenergie instantiieren, aber nahezu keiner der Mikrozustände realisiert genau diese mittlere Energie. Inwiefern existiert nun legitimerweise die Temperatur als Eigenschaft des Gases? Die Frage ist analog zur Frage, inwieweit die durchschnittliche bundesdeutsche Kinderanzahl von etwa 1,4 der deutschen Durchschnittsfamilie zukommt – und die Antwort ist offensichtlich: die deutsche Durchschnittsfamilie existiert in diesem Sinne gar nicht, und mithin keine ihrer Eigenschaften (keine Familie hat 1,4 Kinder!). Sie ist ein geeigneter statistischer Näherungswert, der in vielen bevölkerungsstatistischen Generalisierungen eine Rolle spielt, der aber keinerlei kausale Wirkungen entfaltet. Kausale Wirkungen gehen nur von realen Familien, den Realisierern des höherstufigen Konzepts „Durchschnittsfamilie", aus. Und ähnlich gilt für die Temperatur, dass sie als näherungsweise höherstufige Eigenschaft in Strenge keinem Ding in der Welt zukommt. Jedenfalls ist nicht sie es, die kausale Wirkungen hervorruft, auch wenn wir tagtäglich so reden („ich schwitze, weil es so heiss ist"). Die kausalen Wirkungen eines Gases gehen sämtlich von seinen Mikrokonstituenten, den Molekülen, aus. Die Behauptung, die Temperatur existiere als Eigenschaft in Strenge gar nicht, klingt seltsam, da wir in so vielen höherstufigen Erklärungen von ihr Gebrauch machen – und es spricht auch durchaus nichts dagegen, aus Praktikabilitätsgründen einen höherstufigen Term einzuführen, solange man sich seiner ontologischen Limitiertheit bewusst ist. Dies kommt wahlweise einem Instrumentalismus oder Pragmatismus gleich. Doch häufig, behaupten Anti-Reduktionisten, geht die Praktikabilität so weit, dass die höherstufige Beschreibung ein epistemisches Eigenleben führt. Ein illustratives Beispiel liefert John Conways berühmtes „Game of Life" – das bekannteste Beispiel eines zweidimensionalen zellulären Automaten. Mit nur wenigen niederstufigen Regeln zur Pixelverteilung kann man eine ungeheuer beeindruckende Vielfalt von höherstufigen Mustern erzeugen – Muster, die zu allerlei Assoziationen Anlass geben wie zum Beispiel Gleiter, Fresser, Blinker etc. Dabei werden die höherstufigen Muster nicht nur durch spezifische niederstufige Verteilungen approximiert, sondern über diese Muster lässt sich gelegentlich auch erfolgreich generalisieren (in einer Spielkonfiguration könnte gelten: „wann immer ein Gleiter auf einen Fresser trifft, wird der Gleiter vernichtet"). Da es für praktische Zwecke viel zu aufwendig wäre, derartige einfache höherstufige Generalisierungen auf die niederstufige Ebene der Pixel 12 zurückzuführen, kann man durchaus sagen, die höherstufigen Muster-Ebenen seien explanatorisch privilegiert – für alle praktischen Zwecke. Dem muss der Instrumentalist nicht widersprechen. Widersprechen muss er, wenn die Behauptung erhoben wird, man würde etwas „verpassen", falls man nur die niederstufige und nicht die höherstufige Ebene kennt (Daniel Dennett (1991) kommt dem in seinen ansonsten brillianten Analysen sehr nahe, wenn er von einem moderaten Realismus höherstufiger Muster spricht). Der springende Punkt ist, dass hier – ähnlich wie in der obigen Diskussion der Querklassifizierungen – ein Zusammenbrechen der Supervenienzbeziehung zwischen höherund niederstufiger Ebene droht, denn die höherstufigen Muster müssten, auch wenn sie aus Näherungen hervorgehen, ein kausales Profil besitzen, das mit dem kausalen Profil keiner einzigen möglichen niederstufigen Verteilung verträglich ist. Eine äusserst abwegige Annahme. Stattdessen wird im epistemischen Nicht-Reduktionismus umgekehrt zu häufig übersehen, welche starken explanatorischen Konsequenzen ontologische Reduktionismus-Annahmen, die ja weithin geteilt werden, immer haben. So ist die Annahme „horizontaler Verursachung", also eines genuinen Kausalflusses auf höheren Stufen, stark anfechtbar, da ein solches höherstufiges Geschehen prinzipiell durch niederstufige Einflüsse störbar wäre (falls wir, wiederum, Supervenienzverletzungen vermeiden möchten). Ein Beispiel: Man denke sich den Konflikt zwischen einem Historiker (der einer historischen Regel folgt) und einem Physiker (der eine auf sehr grundlegenden physikalischen Gesetzen beruhende Methode benutzt) bezüglich der Datierung eines historischen Fundes. Wie würden wir uns verhalten? Stehen die Gesetze des Historikers wirklich auf derselben explanatorischen Stufe wie diejenigen der Physik? Davon würde zu Recht niemand ausgehen. Denn die Gesetze der Physik sind langreichweitiger und allgemeiner als diejenigen des Historikers und gelten, jedenfalls im Falle fundamentaler Gesetze und soweit wir wissen, ausnahmslos. Dieser Prädominanz des fundamentaleren Levels muss im Falle eines logischen oder sachlichen Konflikts auch das höherstufige Level epistemisch weichen. Eine weiterer bedeutsamer Umstand ist, dass höherstufige Generalisierungen aufgrund ihres Näherungscharakters häufig keineswegs ausnahmslos gültig sind (weite Teile der Alltagspsychologie fallen in diese Klasse). Dies ist für sich genommen schon ein epistemisches Manko, viel gravierender aber ist, dass höherstufige Theorien typischerweise ihre eigenen Limitationen nicht zu erklären vermögen. Und auch dies unterminiert den epistemischen Autonomie-Anspruch höherer Stufen wesentlich. In der Reduktionismus-Debatte werden explanatorische Konsequenzen dieser Art allzu leicht übersehen oder beiseite geschoben und dies, obwohl der ontische Reduktionismus meist einhellig vertreten wird. Die Ursachen hierfür sind gewiss vielfältig, einige wichtige Motive habe ich versucht in den Blick zu nehmen: falsch verstandene Fälle von Multirealisierbarkeit und die trickreiche Rolle, die Näherungen in nahezu allen höherstufigen Beschreibungen führen. Es ist nicht ausgeschlossen, dass der epistemische Anti-Reduktionismus dennoch richtig liegt, aber die erheblichen Kosten dieser Position bei gleichzeitiger Beibehaltung eines ontischen Reduktionismus müssen klar betont werden. Der in der Philosophie des Geistes so weit verbreiteten Position des nicht-reduktiven Physikalismus, die genau die spannungsreiche Kombination aus ontischem Reduktionismus und epistemischem Anti-Reduktionismus darstellt, ist daher im Lichte der hier angestellten Überlegungen mit grösster Skepsis zu begegnen. Das gängige Argument der Multirealisierbarkeit sollte jedenfalls nicht als Motiv angesehen werden, sich einer derart spannungsgeladenen Position zu verschreiben, denn es beruht auf einer Vielzahl von Missverständnissen, deren Auflösung dieser Aufsatz dienen sollte. 13 Danksagung Ich danke Gernot Münster und Raphael van Riel für hilfreiche Hinweise zur Fertigstellung des Aufsatzes sowie Jan Michel für die engagierte Organisation des Bandes. Literatur Dennett, D. C. (1991). Real Patterns. Journal of Philosophy 88(1): 27-51. Dizadji-Bahmani, F., R. Frigg & S. Hartmann (2010). Who's Afraid of Nagelian Reduction? Erkenntnis 73(3): 393-412. Feyerabend, P. K. (1962). Explanation, reduction, and empiricism. In: H. Feigl & G. Maxwell (Hg.), Minnesota Studies in the Philosophy of Science: Scientific explanation, space and time. Minneapolis. Band 3: 28-97. Fodor, J. (1974). Special Sciences (or: The Disunity of Science as a Working Hypothesis). Synthese 28: 97-115. French, S. & J. Ladyman (2003). Re-modelling Structural Realism: Quantum Physics and the Metaphysics of Structure. Synthese 136(1): 31-56. Hooker, C. A. (1981). Towards a General Theory of Reduction. Dialogue 20: 38-59, 201-236, 496-529. Kemeny, J. G. & P. Oppenheim (1956): On Reduction. Philosophical Studies 7: 6-19. Kim, J. (1998). Mind in a Physical World: An Essay on the Mind-Body Problem and Mental Causation. MIT Press, Cambridge MA. Kim, J. (2005). Physicalism, or Something Near Enough. Princeton University Press, Princeton. Lewis, D. (1969). Review of Art, Mind, and Religion. Journal of Philosophy 66: 23-35. Lyre, H. (2009). The "Multirealization" of Multiple Realizability. In: A. Hieke & H. Leitgeb (Hg.), Reduction - Abstraction Analysis. Ontos, Frankfurt, S. 79-94. Lyre, H. (2010). Humean Perspectives on Structural Realism. In: F. Stadler (Hg.), The Present Situation in the Philosophy of Science. Springer, Dordrecht, S. 381-397. Moulines, C. U. (1984). Ontological Reduction in the Natural Sciences. In: W. Balzer et al. (Hg.), Reduction in Science. Reidel, Dordrecht. Nagel, E. (1961). The Structure of Science. Routledge, London. Putnam, H. (1967). Psychological Predicates. In: W. H. Capitan & D. D. Merrill (Hg.), Art, Mind and Religion. Pittsburgh University Press, Pittsburgh. Schaffner, K. (1967): Approaches to Reduction. Philosophy of Science 34: 137-147. Shapiro, L. (2000). Multiple Realizations. Journal of Philosophy 97: 635-654. Stoljar, D. (2001). Physicalism. Stanford Encyclopedia of Philosophy. URL= <http://plato.stanford.edu>. Uffink, J. (2007). Compendium to the foundations of classical statistical physics. In: J. Butterfield & J. Earman (Hg.), Philosophy of Physics. Amsterdam, Elsevier, S. 923-1074. Wittgenstein, L. (1953). Philosophische Untersuchungen. Blackwell, Oxford. 14 -