Einleitung Ralf Poscher und Geert Keil Das Umweltrecht schützt die natürlichen Lebensgrundlagen des Menschen und den Erhalt der Ökosysteme, das damit verknüpfte Technikrecht zielt auf den sicheren Betrieb technischer Anlagen. Das Streben nach präziser rechtlicher Regulierung und Steuerung sieht sich dabei mit unscharfen Grenzen und fliessenden Übergängen konfrontiert: Dass Fliessgewässer Uferzonen haben, ist unkontrovers, nicht jedoch, wo diese enden. Dass Lärm und Abgase an stark befahrenen Strassen ungünstige Auswirkungen auf die Gesundheit der Anwohner haben, darf als gesichert gelten. Ab wann aber ist die Lärmund Schadstoffbelastung „erheblich" oder „schädlich", etwa im Sinne des Bundes-Immissionsschutzgesetzes? Dass kurze Wartungsintervalle die Sicherheit von technischen Anlagen erhöhen, liegt auf der Hand, aber welches Risiko ist akzeptabel und welchen Spielraum lässt dabei der „Stand der Technik" im Genehmigungsund Haftungsrecht? In allen diesen Fällen scheinen sowohl die „Natur der Dinge" als auch die Vagheit von Ausdrücken natürlicher Sprachen einer präzisen rechtlichen Regulierung entgegenzustehen. Das Problem der unscharf begrenzten Begriffe und Gegenstände ist freilich nicht auf das Umweltund Technikrecht beschränkt. In seiner Allgemeinheit wird es im Forschungsprojekt „Vernünftiger Umgang mit unscharfen Grenzen. Vagheitsund Unbestimmtheitsphänomene als Herausforderung für Philosophie und Recht" in den Blick genommen. Die Grundidee des von den Herausgebern dieses Bandes geleiteten Projekts besteht darin, die Logik von schwierigen Grenzziehungen dort zu untersuchen, wo sie rechtlich relevant werden. Recht ist ein gesellschaftliches Querschnittsphänomen; entsprechend laufen alle gesellschaftlich relevanten Fälle unscharfer Grenzen irgendwann im Recht auf. Im von der Volkswagen-Stiftung im Programm „Schlüsselthemen der Geisteswissenschaften" geförderten Projekt wird zum einen theoretisch, zum anderen in einzelnen praktischen Referenzfeldern der Rationalität unseres Umgangs mit Unschärfephänomenen nachgegangen. Logisch-semantisch ist das Auftreten von Grauzonen und fliessenden Übergängen eng mit dem Phänomen verbunden, das in Sprachphilosophie und Sprachwissenschaft unter dem Stichwort „Vagheit" von sprachlichen Ausdrücken diskutiert wird. Als „semantisch vage" werden Ausdrücke bezeichnet, bei denen sich keine scharfe Grenze angeben lässt zwischen den Gegenständen, auf die sie zutreffen und denen, auf die sie nicht zutreffen. Dem steht nicht entgegen, dass der Ausdruck auch klare Anwendungsfälle besitzt. So gibt es Fälle von Lärmbelastung, in denen der Ausdruck „erheblich" eindeutig anwendbar ist, Fälle, in denen er eindeutig nicht anwendbar ist, und schliesslich Fälle, sogenannte Grenzfälle (borderline cases), in denen selbst bei bester Informationslage die Anwendbarkeit des semantisch vagen Ausdrucks unklar bleibt. Erschwerend kommt hinzu, dass diese drei Klassen von Fällen ihrerseits nicht scharf 7 voneinander abgegrenzt sind: Neben den eindeutigen Grenzfällen gibt es auch uneindeutige Grenzfälle, also Grenzfälle von Grenzfällen, und das bedeutet: Vagheit höherer Stufe. Mit dem Phänomen der semantischen Vagheit geht das seit der Antike diskutierte Sorites-Paradoxon einher: Wenn ein bestimmtes Quantum an Lärmbelastung als „erheblich" einzustufen ist, dann scheint ein minimaler Unterschied, etwa ein hundertstel Dezibel weniger, buchstäblich keinen Unterschied zu machen. Wird diese Argumentation jedoch oft genug wiederholt, dann ergibt sich die absurde Konklusion, dass selbst vollkommene Stille als erhebliche Lärmbelastung zu gelten hat. Soritesförmige Argumentationen gelten allgemein als fehlschlüssig, doch ist umstritten, worin genau der Fehlschluss bestehen soll. Wird nun etwa die Rechtsprechung mit einer soritesförmigen Argumentation konfrontiert, steht sie anscheinend vor folgendem Dilemma: Entweder sie verwirft das Toleranz-Prinzip, dass minimale Unterschiede keinen Unterschied für die Anwendbarkeit des Ausdrucks machen; damit legt sie sich auf die befremdliche These fest, dass beispielsweise 50 dB(A) in reinen Wohngebieten nach der TA Lärm tagsüber als erhebliche Lärmbelästigung zu gelten haben, 49,99 dB(A) jedoch nicht, wiewohl beide Lautstärken für das menschliche Ohr nicht zu unterscheiden sind. Oder sie akzeptiert das Prinzip der Unerheblichkeit minimaler Unterschiede; dann ergibt sich das Sorites-Paradoxon, und es lässt sich „zeigen", dass alle Fälle von Lärmbelastung Fälle von erheblicher Lärmbelästigung sind – oder umgekehrt kein Fall von Lärmbelastung einen Fall von erheblicher Lärmbelästigung darstellt. Im Umweltund Technikrecht sind Grenzziehungsfragen nicht nur von besonderer Prominenz, sondern sind auch im zentralen Regelungskonzept des Grenzwerts begrifflich verdichtet. Die Festsetzung von Grenzwerten ist im Umweltund Technikrecht indes nur eines von mehreren möglichen Regelungsregimes im Umgang mit unscharfen Grenzen. Zu diesem Themenfeld hat im März 2011 an der RWTH Aachen die interdisziplinäre Tagung „Unscharfe Grenzen im Umweltund Technikrecht" stattgefunden, auf die der vorliegende Band zurückgeht. Im Rahmen der Tagung wurden einschlägige Grenzziehungsprobleme aus der Perspektive dreier Fachgebiete, nämlich der Naturund Ingenieurswissenschaften, der Rechtswissenschaft und der Philosophie diskutiert: Naturund Ingenieurswissenschaften Dass die Phänomene unscharfer Grenzen und semantischer Vagheit auch praktische Probleme aufwerfen, auf die mit praxistauglichen Konzepten reagiert werden muss, und dass es sich beim Sorites-Paradoxon nicht um ein Artefakt handelt, dass sich dem evaluativen Ausdruck „erheblich" verdankt, lässt sich an folgendem Beispiel verdeutlichen: Die Probleme der deutschen Bahn mit einer vor dem Kölner Bahnhof gebrochenen Radsatzwelle bei einem ICE-Zug im Jahr 2008 stiess auf grosse Medienresonanz und schränkte den bundesweiten Schnellverkehr wegen der im Anschluss an den Vorfall drastisch verkürzten Wartungsintervalle erheblich ein. Die Ursache für diesen Bruch lag offenbar in nichtmetallischen Einschlüssen in der Achse selbst. Material8 inhomogenitäten führen unter Belastung in Metallen zunächst zu plastischen Verformungen, dann zu „Mikrorissen", bis schliesslich die „kritische Risslänge" erreicht ist und das Bauteil bricht. Auf dem Höhepunkt der Debatte verlangte die Bahn vom Hersteller der Radsatzwellen eine Garantie für eine schadenfreie Mindestlaufzeit. Der Hersteller weigerte sich und argumentierte, die Achsen seien „nach dem Stand der Technik und nach geltenden Normen" gefertigt und von den Aufsichtsbehörden genehmigt worden. Hier schliessen sich verschiedene Fragen an: Bis zu welcher Grösse können Einschlüsse toleriert werden, um den Anforderungen an Betriebsfestigkeit und -zuverlässigkeit im Eisenbahnverkehr gerecht zu werden. Wie eng zieht man das Intervall der vorzunehmenden Wartungen? Akzeptiert man die Annahme von der Unerheblichkeit minimaler Unterschiede, lässt sich eine Sorites-Reihe ad absurdum konstruieren. Verwirft man das Toleranz-Prinzip, so gerät man in Rechtfertigungsnot: Beliebige Grenzziehungen sind nicht akzeptabel, zwingende sachliche Gründe sind nicht erkennbar. Wie kommen in den Ingenieurswissenschaften Skalen und Grenzwerte etwa für die Reissfestigkeit von Stahl zustande? Wie soll mit Prozessen, die bis zu einem Ermüdungsbruch kontinuierlich verlaufen, technisch, diagnostisch und risikoanalytisch umgegangen werden? Eine wie grosse Verringerung des Risikos rechtfertigt einen wie grossen technischen und finanziellen Aufwand? Grundlegender betrachtet stellt sich die Frage, wie bei der Festlegung von Grenzwerten die Aufgabenverteilung zwischen Naturwissenschaften auf der einen und Umweltsowie Ingenieurswissenschaften auf der anderen Seite beschaffen ist oder sein sollte. Deckt die Naturwissenschaft Grenzen auf, während Umweltund Ingenieurswissenschaften sie festlegen? Rechtswissenschaft Für den Bereich der Umweltund Technikverwaltung gerät besonders die exekutive Normkonkretisierung in der Praxis der Genehmigungsbehörden in den Blick. Klärungsbedürftig ist, wie den rechtlichen und sachlichen Anforderungen an die Normenanwendung gleichermassen Rechnung getragen wird. Dabei sind besonders die unterschiedlichen Handlungsinstrumente der Verwaltung von Bedeutung, die vom einfachen Verwaltungshandeln über Verwaltungsakte und Allgemeinverfügungen bis hin zu Rechtsverordnungen und Verwaltungsvorschriften reichen. Wie entscheiden Behörden in Grenzfällen, wenn sich der Zweifel, ob eine Anlage nach dem Stand der Technik betrieben wird, nicht einem Mangel an relevanten Informationen oder an sprachlicher Kompetenz verdankt? Auf der Ebene der Gesetzgebung stellt sich die Frage, ob und inwieweit den praktischen Problemen unscharfer Grenzen vorgebeugt werden kann. Dem Gesetzgeber stehen eine ganze Reihe von Reglungsoptionen zur Verfügung, von denen die Festlegung exakter Grenzen nur eine darstellt. Wie sich an vielen Beispielen zeigen lässt, eilt die technische Entwicklung der Gesetzgebung mit scheinbar uneinholbarem Vorsprung voraus. Sollte der Gesetzgeber in dieser Lage überhaupt mit scharfen Zahlenwerten reagieren oder sind unscharfe Rechtsanwendungsspielräume möglicherweise die adäquatere Reaktion? Bei der Suche nach Ant9 worten auf diese Fragen müssen immer auch die verfassungsrechtlichen Bindungen mit reflektiert werden, die die Handlungsfreiheit des Gesetzgebers auch im Umgang mit unscharfen Grenzen im Umweltund Technikrecht einschränken können. Wie viel Unschärfe verträgt sich noch mit dem rechtsstaatlichen Bestimmtheitsgebot? Wann genügt die Delegation der Entscheidung über die scharfe Grenze an die Verwaltung oder die Gerichte noch dem Parlamentsvorbehalt? Gerade im Hinblick auf die Konkretisierung von Grenzwerten durch die Verwaltung ist bereits kritisch davon die Rede, dass im Umweltrecht eine umgekehrte Wesentlichkeitstheorie gelte, nach der alles Wesentliche nicht im Gesetz stünde. Philosophie Das Tagungsthema wirft ferner Fragen auf, die in das Gebiet der Philosophie fallen: In der Umweltethik besteht weitgehend Einigkeit darüber, dass die nachhaltige Nutzung natürlicher Ressourcen auch moralisch geboten ist und deshalb gefordert werden kann. Zu einem nachhaltigen Umgang mit Ökosystemen gehört unter anderem, dass der Schadstoffeintrag nicht deren Aufnahmekapazitäten in einem Masse übersteigt, das das weitere Funktionieren der Systeme gefährdet. Nun sind moralische und rechtliche Forderungen so zu gestalten, dass ihre Adressaten die Möglichkeit haben, sich in ihrem Handeln daran auszurichten. Die Forderung „nachhaltiger" Nutzung natürlicher Ressourcen im Hinblick auf Schadstoffeinträge in Wasser, Boden und Luft ist zwar moralisch begründet, genügt jedoch nicht dem Gebot der Bestimmtheit von Normen. Die Präzisierung des vagen Ausdrucks „nachhaltig" in Gestalt von Grenzwerten für Schadstoffeinträge wirft jedoch Probleme auf: Selbst für den günstigen Fall, dass die Aufnahmekapazität des betreffenden Ökosystems für den fraglichen Schadstoff als wissenschaftlich gesichert gelten kann, bieten sich noch mehrere Grenzwertsetzungen an. Es stellen sich dann die beiden Fragen, welchen Wert man auswählen soll und wie diese Auswahl zu rechtfertigen ist. Gegen jede Festsetzung lassen sich soritesförmige Einwände in Stellung bringen: Warum n Mikrogramm und nicht n-1, wenn minimale Unterschiede doch keinen Unterschied machen? Wenn derartige Präzisierungen moralisch wie sachlich unterbestimmt sind, müssen zur Begründung der Entscheidung entweder weitere Gesichtspunkte hinzugezogen werden oder die Festlegung des Grenzwerts ist eine dezisionistische Setzung, die selbst nicht mehr zum Bereich des Vernünftigen gehört. Unscharfe Grenzen werfen mithin Fragen der Konkretisierung und Anwendung von (Rechts-)Normen, der Entscheidung in Grenzfällen, der Rechtfertigung von Entscheidungen sowie ihrer Überprüfung auf, die disziplinäre Grenzen zwischen Rechtswissenschaft, Philosophie und Naturbzw. Ingenieurswissenschaften überschreiten. Dem trug der interdisziplinäre Ansatz der Tagung Rechnung, auf der das Thema von Vertretern aus Wissenschaft und Praxis der drei genannten Disziplinen behandelt wurde. Ziel war es, den Phänomenbereich unter naturund ingenieurswissenschaftlichen, juristischen und philosophischen Aspekten theoretisch aufzuklären, bereits etablierte Verfahrensrationalität zu identifizieren und beides im Interesse eines vernünftigen 10 Umgangs mit unscharfen Grenzen fruchtbar aufeinander zu beziehen. Die in den Tagungsband aufgenommenen Beiträge widmen sich sowohl den theoretischen Aspekten dieses Programms als auch den konkreten juristischen Dogmatiken besonders des Umweltrechts. Ergänzt werden diese beiden Themenfelder durch eine historisch-politische Perspektive, die der Grenzwertdiskussion sowohl von ihrem historischen Ausgang als auch anhand der wohl aktuellsten politischen Grenzwertdiskussion um die globalen Klimaziele nachgeht. Die Beiträge im Einzelnen In seinem Beitrag „Der wahre Messwert: Erkenntnistheoretische Probleme einer technischen Praxis" untersucht Peter Janich die Schwellenund Grenzwertdebatte aus einer erkenntnisund wissenschaftstheoretischen Sicht. Ansatzpunkt seiner Analyse ist die „unbestrittene Selbstverständlichkeit der gesamten Grenzwertdebatte", dass sich Grenzwerte für Emissionen wie Immissionen nur mit Hilfe reproduzierbarer Messresultate festlegen lassen. Was unter der technischen Reproduzierbarkeit eines Messwerts erkenntnistheoretisch eigentlich zu verstehen ist, sei aber unklar. Janich kritisiert zunächst drei verbreitete Auffassungen, die er den Ebenen Lebenswelt („naives Apriori"), Naturwissenschaft („Messgeräte mit Messgeräten kontrollieren") und empiristische Wissenschaftstheorie („Anerkennung als historisches Faktum") zuordnet. Im Anschluss legt er einen „protophysikalischen" Gegenentwurf vor, dem zufolge die prototypenabhängige Definition des Messens durch einen prototypenfreien, operativen Bezug auf Formen ersetzt wird, und beschreibt die Konsequenzen für die Reproduzierbarkeit von Messwerten in der analytischen Chemie und in der Grenzwertdebatte. Insbesondere betont Janich, dass alle Reinheitsbegriffe, die auf Konzentrationsmessungen beruhen, von der technischen Realisierbarkeit quantitativer Eigenschaften von Messverfahren abhängen, woraus sich eine prinzipielle Schranke für die technische Realisierung mathematischer Verhältnisse ergebe. In der Ökologiedebatte verbreitete Vorstellungen von „Reinheit" oder „Natürlichkeit" übersähen diese Operationalisierungsprobleme und beruhten auf Idealisierungen, denen in der Wirklichkeit nichts mehr entspreche. Der zweite Grundlagenbeitrag des Bandes von Liv Jaeckel, „Von der Suggestion der Exaktheit zur Vagheit der Rechtssprache", widmet sich den methodischen und sprachphilosophischen Grundfragen rechtlicher Grenzziehungen. Die alte Forderung nach Genauigkeit und Verständlichkeit der Rechtssprache erhält vor dem Hintergrund von Gewaltenteilung, Demokratieprinzip, Gesetzesbindung und dem Grundsatz der Rechtssicherheit besonderes Gewicht. Verbunden wird diese Forderung mit einer semantischen Theorie, die sprachliche Äusserungen im Allgemeinen und Rechtsnormen im Besonderen als Behälter für feste Bedeutungen konzipiert, die der Rechtsanwender zur Entscheidung eines Falles bloss aus ihrem sprachlichen Gefäss herauszunehmen habe. Weist man diese Theorie vor dem Hintergrund sprachphilosophischer und linguistischer Einsichten zurück, dann stellt sich die Frage, wie Gesetzesbindung, Rechtssicherheit und Rechtsanwendung insgesamt zu verstehen sind, wenn nicht als Bindung 11 an und Anwendung von fertigem semantischen Gehalt. Diese Frage beantwortet Jaeckel unter Rückgriff auf die sogenannte „Strukturierende Rechtslehre": Auslegung und Anwendung von Recht erweist sich demnach als ein komplexes Zusammenspiel verschiedener Akteure und Faktoren, deren Interaktion durch Anbindung an den Normtext, Begründungspflichten, Anknüpfung an Literatur und vorausgegangene Rechtsprechung sowie durch die illokutionäre Kraft der rechtlichen Textund Handlungsformen nicht nur Stabilität gewinnt, sondern auch die Fähigkeit, flexibel auf neue Problemstellungen zu reagieren. Dadurch wird sowohl für Rechtssicherheit als auch für die notwendige Geschmeidigkeit des Rechts gesorgt, ohne die es seine Aufgabe, Streit autoritativ zu befrieden, nicht mehr erfüllen könnte. Die zweite Abteilung über konkrete rechtlichen Regelungsstrukturen im Umweltund Technikrecht eröffnet der Beitrag von Monika Böhm „Unscharfe Grenzen im Umweltund Technikrecht: Grenzwertfestlegung als Gratwanderung zwischen Recht und Politik". Böhm weist zunächst darauf hin, dass die Verantwortung für die Grenzziehungen im Umweltund Technikrecht grundsätzlich bei den Parlamenten liegt. Die Entscheidungsverantwortlichkeit müsse jedoch oftmals delegiert werden. Böhm zeigt, welche Vorgaben dabei einzuhalten sind und wie mit der Gratwanderung zwischen Gewissheit und Ungewissheit umzugehen sei. Bei der Konkretisierung von unbestimmten Rechtsbegriffen im Umweltund Technikrecht werden der Verwaltung Bewertungsspielräume zugestanden. Eine Umsetzung grundrechtlicher Vorgaben in einfaches Gesetzesrecht erfolge hingegen kaum. Mittlerweile lägen verschiedene Modelle vor, darunter auch der Leitfaden des Bundesinstituts für Risikobewertung. Oftmals werde auf Leitlinien der EU hingewiesen, insgesamt fehle es bislang aber an einheitlichen Grundsätzen. Böhm untersucht auch die materiellen Vorgaben der Verfassung für die Grenzwertsetzung, die sich insbesondere aus den Grundrechten ergäben und vor allem auf einen Ausgleich zwischen dem Schutz von Leben und körperlicher Unversehrtheit und der Berufsund Eigentumsfreiheit drängen. Scharfe Grenzen liessen sich selten ausmachen, insbesondere nicht aus naturwissenschaftlich-technischer Sicht. Diese Unschärfe werde auch vom Bundesverfassungsgericht anerkannt, das dem Gesetzgeber und der Verwaltung einen Einschätzungsspielraum einräumt. Die deutschen Gesetze würden dem Umstand der Unschärfe selten gerecht; sie unterstellten eine Trennschärfe, die nicht vorhanden sei. Das EU-Recht sei dahingehend offener. Böhm plädiert schliesslich für die Verwendung von Zielvorgaben, die um Öffnungsklauseln und einheitliche Vorgaben für die Risikobewertung zu ergänzen seien. Ergänzt wird der Beitrag von Böhm durch den Kommentar von Sebastian Bramorski, „Grenzen der Grenzwertsetzung?". Der Kommentar beleuchtet die jüngste Rechtsprechung des Bundesverfassungsgerichts zu der Frage, welchen Spielraum das Grundgesetz dem Gesetzgeber und der Verwaltung einräumt, neue naturwissenschaftliche Erkenntnisse in Gefahrenund Risikoprognosen einzubeziehen. Insbesondere wird dem Massstab nachgegangen, der an die Ernsthaftigkeit entsprechender Warnungen in der Öffentlichkeit angelegt wird, wie sie zuletzt vor den Risiken der Inbetriebnahme des CERN-Laboratoriums in den Medien Platz fanden. Dieser verfassungsrechtliche Spielraum kommt in zwei verschiedenen Konstellationen zum Tragen: Soweit durch Betroffene Massnahmen zur Erforschung und Eindämmung einer vermeint12 lichen Gefährdung durch Dritte verlangt werden, begründet sich dieser Spielraum im Rückzug auf eine blosse Evidenzkontrolle im Rahmen der grundrechtlichen Schutzpflichten. Der Staat kann aber auch in der umgekehrten Konstellation einen Spielraum geltend machen, wenn sich der von einer Abwehrmassnahme gegen eine mögliche Gefährdung Betroffene gegen diese Massnahme wendet. Dieser Spielraum wurzelt im Institut der Einschätzungsprärogative. Der Beitrag verdeutlicht, dass beide Spielräume in diesen Konstellationen zwei Seiten einer Medaille sind und deswegen folgerichtig im Verfassungsprozess auch ähnlich behandelt werden. Der Beitrag von Felix Ekardt, „Unscharfe Grenzen im Umweltrecht", widmet sich der Frage, „in welcher Weise Tatsachen und auch Tatsachenunsicherheiten für normative – rechtliche oder ethische – Entscheidungen relevant sind". Ekardt argumentiert zunächst dafür, dass die Tatsachenbasis für Entscheidungen in Politik und Verwaltung zutreffend konstruiert, vollständig und gegen Manipulationen aller Art abgeschirmt sein müsse. Auf der Basis dieser Prinzipien wird sowohl die aktuelle Gesetzgebung als auch die Verwaltungstätigkeit kritisiert. Die Tatsachenerhebungspraxis in Politik und Verwaltung sei zum Teil inkonsistent und irrational. Ein Hauptproblem bestehe darin, dass die Interessen hinter den relevanten Gutachten oftmals nicht ausreichend berücksichtigt werden. Häufig werde bei Tatsachenunsicherheiten einfach eine Tatsachenunterstellung (Ekardt spricht von „Tatsachensetzung") vorgenommen, die dann mit der Behauptung eines unvermeidlichen Bewertungsspielraums gerechtfertigt wird. Ekardt besteht darauf, dass das blosse Vorliegen von Tatsachenunsicherheiten ungeeignet sei, die Einräumung von „Bewertungsspielräumen" (auch „Gestaltungs-" oder „Beurteilungsspielräumen") zu rechtfertigen. Besonders kritikwürdig sei, dass die Tatsachenunterstellung oftmals von demokratisch nicht legitimierten Experten vorgenommen werde. Der philosophische Unterbau der Überlegungen von Ekardt ist ein ethischer und rechtlicher Objektivismus – also die These, dass normative (ethische und rechtliche) Fragen objektiv wahre Antworten haben. Ekardt verteidigt den Objektivismus mit einem transzendentalen Argument: „Wer aber mit Gründen (also rational, das heisst mit Worten wie „weil, da, deshalb") streitet, also in normativen Fragen Sätze 'X ist richtig, weil Y' formuliert, setzt logisch (1) die Möglichkeit von Objektivität in der Moral und (2) die Freiheit voraus". Aus der transzendentalen Analyse der Rechtfertigungssituation ergibt sich nach Ekardt zudem eine allgemeine Verpflichtung zur Achtung der Autonomie anderer Menschen und eine allgemeine Verpflichtung zur Unparteilichkeit. In seinem Kommentar kritisiert Benedikt Schauberer die Überlegungen Ekardts zur Trennung von Subjektivität und Objektivität, wonach sowohl Tatsachen als auch Wertungsaussagen im Gegensatz zu Tatsachenunsicherheiten und Wertungsspielräumen in aller Regel objektiv seien. Weiterhin diskutiert er die Möglichkeit, die absolute Unterscheidung von „subjektiv" und „objektiv" durch eine graduelle zu ersetzen. Dadurch wird die These der objektiven Entscheidbarkeit von normativen Fragen abgeschwächt; sie ist nicht absolut, sondern relativ. Schliesslich hinterfragt Schauberer die Verwendung des Begriffs der „unsicheren Tatsachen"; nicht die Tatsachen selbst seien sicher oder unsicher, sondern deren Feststellung sowie Aussagen über sie. 13 Den dritten Teil des Bands eröffnet Beat Bächi mit dem Beitrag „Zur Geschichte, Epistemologie und sozialen Robustheit des Regulierungswissens: Grenzwerte für gefährliche Arbeitsstoffe als produktive Missverständnisse (1955-1980)". Grenzwertpolitik ist für Bächi vor allem eine Frage der Definitionsund Deutungsmacht. Er stellt die Grenzwertpolitik anhand der Geschichte der in Westdeutschland einflussreichsten Grenzwerte, der sog. MAK-Werte (MAK = Maximale Arbeitsplatz-Konzentration), dar. Bächi beschreibt, welche politische Sprengkraft die Definition von Grenzwerten im Kalten Krieg gewann, als die Gefährdungshaftung eingeführt wurde, die auch für gefährliche Kampfstoffe der amerikanischen Armee galt. Anders als ihr Zahlencharakter suggeriert, sind Grenzwerte Bächi zufolge keine objektiven, wertfreien Grössen, sondern „ein Amalgam aus Wissenschaft und Werten". Das von den Beteiligten meist nicht erkannte Missverständnis, dass die an der Grenzwertfindung beteiligten Wissenschaftler ein einheitliches Verständnis davon hätten, was Grenzwerte sind und wofür wir sie brauchen, habe sich jedoch insofern als produktiv entpuppt, als der Begriff des Grenzwerts so zum Angelpunkt eines stark interdisziplinären Diskurses werden konnte und die in diesem Rahmen festgelegten Grenzwerte eine grosse Legitimität gewannen. Dies funktioniere jedoch nur solange, wie der implizite Konsens nicht infolge aktueller Probleme aufbreche. Die Bedeutung von Grenzwerten müsse mithin immer wieder neu verhandelt werden. In seinem Kommentar „Produktive Missverständnisse?" greift Daniel Gruschke die zentrale These Bächis auf, Grenzwerte seien Missverständnisse, wenn auch produktive: Nur dadurch, dass die an ihrer Festlegung beteiligten Akteure gewissermassen aneinander vorbeiredeten, könnten Grenzwerte als Interdiskurs fungieren, der verschiedene Spezialdiskurse miteinander verzahnt. Gruschke schlägt vor, die Rede von „Missverständnis" durch die von „Umstrittenheit" zu ersetzen: Der Begriff des Grenzwertes weise gewisse Ähnlichkeiten zu den von W. B. Gallie als „essentially contested concepts" bezeichneten Begriffen auf, zu deren korrektem Gebrauch nicht enden wollender semantischer Streit gehört. Aufgrund der Umstrittenheit des Begriffes des Grenzwerts ist nach Gruschke ebenfalls umstritten, was Grenzwerte sind, können und sollen. Folglich bestehe auch Dissens darüber, was bei ihrer Festsetzung zu berücksichtigen ist, welche Aspekte also in die Festlegung der konkreten Werte mit welchem Gewicht eingehen sollen. Grenzwerte seien deshalb weniger das Resultat von Berechnung auf der Grundlage von naturwissenschaftlichen Daten, sondern vielmehr das Ergebnis von Prozessen der Abwägung und Kompromissfindung zwischen konfligierenden Interessen und Perspektiven. Die beiden letzten Beiträge des Bandes widmen sich demjenigen Grenzwert, der die umweltpolitische Diskussion zur globalen Klimaerwärmung dominiert. Gregor Betz stellt in seinem Beitrag „Wie ist das Zwei-Grad-Ziel der internationalen Klimapolitik begründet?" das Klimaziel als Beispiel für einen vernünftigen Umgang mit unscharfen Grenzen dar. Das Zwei-Grad-Ziel wurde das erste Mal vom Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) unter Bezug auf das Übereinkommen der UN-Klimarahmenkonvention von 1992 formuliert. Nach Betz lassen sich klimapolitische Massnahmen aufgrund der Komplexität des Klimasystems durch traditionelle Entscheidungsanalysen nur schlecht begründen. In der 14 klassischen Kosten-Nutzen-Analyse wird vorausgesetzt, dass sich die Eintrittswahrscheinlichkeit von Handlungsfolgen bestimmen lässt und dass letztere auf Grundlage von Nutzenfunktionen bewertet werden können. In Bezug auf klimapolitische Massnahmen sei beides nicht möglich. Die Alternative läge im Leitplankenoder Toleranzfenster-Ansatz. In diesem Ansatz wird nicht versucht, die optimale Klimapolitik zu berechnen, sondern einen Rahmen für eine tolerable Entwicklung des Klimasystems zu bestimmen. Das Einhalten der Leitplanken ist dabei keine Garantie auf Schadensabwendung. Auch wird zugestanden, dass die Grenzziehung der Leitplanken ihrerseits unscharf ist. Die Leitplanken des Zwei-Grad-Ziels ergaben sich aus der Schwankungsbreite der Erdtemperatur im jüngeren Quartär: Die niedrigste Mitteltemperatur betrug 10,4°C, die höchste 16,1°C. Der Toleranzbereich wurde um 0,5°C an beiden Rändern erweitert: Der Bereich zwischen 9,9°C und 16,6°C ist derjenige, in dem sich die Spezies Homo sapiens sapiens entwickelte und bisher überlebte. Er sollte nicht verlassen werden, da wir nicht wissen, wie sich eine Veränderung der Rahmenbedingungen auf das Überleben unserer Art auswirken würde. Auch Daniel Klingenfeld gelangt in seinem Beitrag „Die 2°C-Temperaturleitplanke als Koordinate globaler Klimapolitik" zu einer grundsätzlich positiven Einschätzung des Leitplankenansatzes. Der Artikel 2 der 1992 in Rio de Janeiro verabschiedeten Klimarahmenkonvention enthält das Ziel, „gefährliche anthropogene Störung[en] des Klimasystems" zu verhindern. Es stellt sich die Frage, was gefährlicher Klimawandel ist und welche Vermeidungsstrategien Anwendung finden sollen. Klingenfeld beschreibt die Genese und Begründungslinien der Zwei-Grad-Leitplanke: Jenseits der Leitplankenwerte steige die Wahrscheinlichkeit für das Auftreten sogenannter Kippelemente („tipping elements"), bei denen der Temperaturanstieg unumkehrbar wird, überproportional an. In der Gesamtschau ergebe sich indes eher ein normativer Kompromiss statt einer deskriptiv erfassbaren physikalischen Grenze. Eine auf Mittelwerten beruhende blosse Kosten-Nutzen Rechnung kranke unter anderem daran, dass in ihr Szenarien mit sehr deutlichen Erhöhungsspitzen kaum Berücksichtigung finden können. So stark das Zwei-Grad-Ziel von Abwägungsprozessen abhänge und so unsicher sein Potential zur Vermeidung gefährlichen Klimawandels sei, liege sein unbestreitbarer Vorteil in der politischen Operationalisierung für weitere globale Verhandlungsprozesse. Um die Temperaturleitplanke in konkrete politische Massnahmen zur Emissionsbegrenzung zu übersetzen, müsse der bisherige Ansatz insbesondere durch eine gesellschaftliche Verständigung darüber weiterentwickelt werden, mit welchem Wahrscheinlichkeitsgrad die Massnahmen zur Einhaltung der Zwei-Grad-Leitplanke beitragen sollen. Für ihre Unterstützung bei der Organisation der Tagung und der Vorbereitung dieses Bandes danken wir den Mitarbeitern des „Unscharfe Grenzen"-Projekts: Sebastian Bramorski, Daniel Gruschke, Rico Hauswald, Matthias Kiesselbach, Nora Kluck, Benedikt Schauberer und Marc Andree Weber. Unser Dank gilt weiterhin der Volkswagen-Stiftung für die grosszügige finanzielle Unterstützung des Forschungsprojekts, der Tagung sowie der Publikation dieses Bandes.