Zusammenfassung
Der Beitrag diskutiert die Idee einer Substitution des Patientenwillens insbesondere in entscheidungskritischen Situationen mittels eines KI-gesteuerten ‚recommender system‘, d. h. durch Programme zur datenbasierten Unterstützung ärztlicher Therapieentscheidungen. Zentral für die Untersuchung dieser Fragestellung ist hierbei die Betrachtung der diachronen Identität des Willens und dessen Subjekts. Vor allem im klinisch-medizinischen Kontext erhält der menschliche Wille, je nach Zugriffsperspektive und Art der Zweckbestimmung, verschiedene, normativ unterschiedlich zu gewichtende Attribute („natürlich“, „autonom“, „mutmaßlich“ etc.), die zueinander in einem kaum auflösbaren Spannungsverhältnis stehen. Vor dem Hintergrund des Versuchs eines Abbaus dieser begrifflichen Spannungen soll in dem Beitrag insbesondere deutlich werden, dass jedes hybride (technische) System zur Willensinterpretation und Entscheidungsunterstützung zunächst den Lackmustest bezüglich der Frage bestehen muss, inwieweit gute Funktionalität des Systems, verlässliche Interpretierbarkeit des Patientenwillens und delegierbare Entscheidungssouveränität des Arztes (oder eines gleichrangigen Vertreters) in einer konkreten Anwendungssituation gewährleistet werden können. Erst dann ist die Behauptung gerechtfertigt, dass ‚recommender systems‘ der nicht substituierbaren Entscheidungsfindung des Arztes dienen können.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Similar content being viewed by others
Notes
- 1.
- 2.
Diese Form der Anerkennung ist weder sozial noch psychologisch zu verstehen.
- 3.
Mehr zu dieser relationalen Personentheorie: Buchheim (2019).
- 4.
Mit Hilfe der sogenannten Leibphilosophie, die uns reichhaltiges Material für eine Moralphänomenologie zur Verfügung stellt, könnte gezeigt werden, dass auch der autonome Wille eine Natur hat, die sich vor allem leiblich bekundet.
- 5.
So kann uns auch das Gegenteil eines aversiven Verhaltens (z. B. Abwehrgesten beim Essen) keine Hinweise über das innere Befinden des Patienten geben. Das bezieht auch Einschätzungen ein, die davon ausgehen, dass eine Verweigerung vielleicht doch eine Einwilligung bedeute: „Wenn es gar nicht geht, dann müssen sie die Magensonde legen (…) man kann in den Menschen wirklich nicht reinschauen. Wenn er den Kopf wegdreht und er meint es vielleicht gar nicht böse (…).“
- 6.
Im operativ wirksamen, aber nicht-thematischen Leibgedächtnis (das sich vor allem ins Gesicht einschreibt) sind sowohl habituelle Bewegungsabläufe als auch erlernte Fertigkeiten (Laufen, Fußballspielen) und leiblich-emotionale Erfahrungseindrücke gespeichert. Anhand dieser zahlreichen ‚Fähigkeiten‘ des Leibes wird nicht nur die „sensomotorische Intelligenz“ (J. Piaget) des Leibes erkennbar, sondern auch seine intersubjektive Verwiesenheit auf andere Leiber nachvollziehbar. Der Leib ist damit vorzügliches ‚Medium zur Welt‘ und stellt eine besondere Brücke zwischen dem Patienten – vor allem dem unnötig leidenden, dementen Patienten, dessen Willensbestimmung nicht gelingt – und der Mitwelt, d. h. Angehörige, Pflegepersonal und Ärzte dar. Er bringt etwas zur Sprache, das bislang nicht oder nur beiläufig wahrgenommen worden ist.
- 7.
Dass sich Werthaltungen und religiöse Überzeugungen im Laufe der Zeit ändern können, ist kein Argument gegen, sondern vielmehr für die Kohärenz eines Lebensplanes, dessen Inhalt durchaus unvorhersehbare Konversionen beinhalten kann, die jenen Lebensplan ex post (d. h. mit dem Tod eines Patienten) vervollständigen.
- 8.
Bis heute wurden und wohl auch in naher Zukunft werden solche EES in der Medizin nicht eingesetzt: vgl. Gräßer et al. (2017).
- 9.
Der Algorithmus wird gewissermaßen zum sich mehr oder weniger aufdrängenden Mitentscheider, ist aber kein souveräner Akteur im eigentlichen Sinne (Jaume-Palasí und Spielkamp 2017).
- 10.
Sicherlich können Maschinen und Menschen gleichermaßen verlässlich und nicht verlässlich sein, was die Erfüllung von an sie herangetragenen Aufgaben angeht. Gegenüber Maschinen wäre jedwedes entgegengebrachte Vertrauen eine unangemessene Haltung, die sich letztlich auch gar nicht auf die Maschine selbst richtet, sondern auf deren menschlichen Konstrukteur verweist, von dem man in dieser Hinsicht auch erwarten darf, dass er die Maschine so entworfen hat, dass sie ihre Funktionen einwandfrei erfüllt. Vertrauen kann aber nicht nur im Sinne einer funktionalistischen Verlässlichkeitserwartung verstanden, sondern muss vielmehr als eine personale Einstellung begriffen werden. Von personalen Einstellungen ist aber nur dann sinnvoll die Rede, wenn eine affektive Verbundenheit zum Gegenüber besteht (Lahno 2022), welche aber erst dadurch entstehen kann, wenn sich Vertrauende und Vertraute allgemeineZiele teilen. Da KI-Systeme aber bislang nicht von sich aus solche Ziele formulieren und definieren können, die sie darüber hinaus auch noch mit Menschen zu teilen vermögen, ist die Herstellung und Perpetuierung eines stabilen Vertrauensverhältnisses zwischen Arzt, Patient und KI-gestütztem EES bislang noch ein bloßer Wunschtraum.
- 11.
Eine Verabsolutierung einer nicht-natürlichen Autonomie des Willens birgt die Gefahr, dass zukünftige KI-Systeme an diesem transhumanen Maßstab gemessen werden. Das Phänomen des natürlichen Willens zeigt jedoch, dass jegliche Autonomie bzw. Autonomiezuschreibung auf etwas verweisen muss, in das sie selbst eingebettet ist, z.B. in einen Leib und in eine von Programmierenden geschaffenen Datenbasis. Das disanalogische Verhältnis Leib und Datenbasis ist dabei selbst nochmal gesondert in den Blick zu nehmen und kann nicht Gegenstand dieser Ausführungen sein.
Literatur
Bauer, M., Glenn, T., Monteith, S., Bauer, R., Whybrow, P. C., und Geddes, J. (2017): Ethical perspectives on recommending digital technology for patients with mental illness. International journal of bipolar disorders, 5 (1), 6. https://doi.org/10.1186/s40345-017-0073-9.
Buchheim, T. (2019): What Are Persons? Reflections on a Relational Theory of Personhood, in: Jörg Noller Hg.: Was sind und wie existieren Personen? Probleme und Perspektiven der gegenwärtigen Forschung (Reihe „ethica“, hg. v. Julian Nida-Rümelin, Dieter Sturma und Michael Quante) Münster (Mentis) 2019, 31–55.
Braun M., Hummel P., Beck S., Dabrock P. (2020): A Primer on an Ethics of AI based decision support systems in the clinic. Journal of Medical Ethics (2020), https://doi.org/10.1136/medethics-2019-105860.
Coors, M., Jox, R., in der Schmitten, J. (Hrsg.) (2015): Advance Care Planning. Von der Patientenverfügung zur gesundheitlichen Vorausplanung, Stuttgart.
Elwyn G., Frosch D., Thomson R. (2012): Shared decision making: a model for clinical practice. J Gen Intern Med 27:1361–1367.
Esposito, E. (2017): Artificial Communication? The Production of Contingency by Algorithms. Zeitschrift für Soziologie 46:249–265.
Fuchs, T. (2008): Die Würde des menschlichen Leibes, in: W. Härle, B. Vogel (Hrsg.), Begründung von Menschenwürde und Menschenrechten, St. Augustin, 202–217.
Fuchs, Thomas. (2016): Wollen können. Wille, Selbstbestimmung und psychische Krankheit, in: Moos, Thorsten/Rehmann-Sutter, Christoph/Schües, Christina (Hrsg.), Randzonen des Willens. Anthropologische und ethische Probleme von Entscheidungen in Grenzsituationen, Bern, 43–61.
Gräßer, F., Beckert, S., Küster, D., Schmitt, J., Abraham, S., Malberg, H., und Zaunseder, S. (2017): Therapy Decision Support Based on Recommender System Methods. Journal of Healthcare Engineering, 2017, 8659460.
Hallich, Oliver (2019): Zwei Arten von Selbstbindung, in: Zeitschrift für Ethik und Moralphilosophie 2, 305–314.
Jaume-Palasí, L., Spielkamp, M. (2017): Ethik und algorithmische Prozesse zur Entscheidungsfindung oder -vorbereitung. In: AlgorithmWatch. Arbeitspapier Nr. 4.
Lahno, B. (2020): Trust and Emotion, in: Simon, J. (Hg.), The Routledge Handbook of Trust and Philosophy, New York/London, 147–159.
Locke, J. (1979): An essay concerning human understanding. Hg. v. Peter H. Nidditch. Oxford: Oxford University Press.
Luhmann, N. (1984): Soziale Systeme, Frankfurt a. M.: Suhrkamp.
Olson, Eric T. (1997): The human animal. Personal identity without psychology. Oxford u. a.: Oxford University Press.
van Inwagen, Peter (1990): Material beings. Ithaca: Cornell University Press.
Wagner, B., und Vieth, K., im Auftrag der Bertelsmann Stiftung (2017). Teilhabe, ausgerechnet. Gütersloh.
Witt, Karsten. 2018. Demenz und personale Identität. Zeitschrift für praktische Philosophie 5, 153–180.
Author information
Authors and Affiliations
Corresponding author
Editor information
Editors and Affiliations
Rights and permissions
Copyright information
© 2023 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature
About this chapter
Cite this chapter
Hähnel, M. (2023). Der Patientenwille, seine Identität und die Bewertung der Absicht, ihn mittels eines KI-gesteuerten recommender system zu ersetzen. In: Fuchs, M.J., Hähnel, M., Simmermacher, D. (eds) Der Patientenwille und seine (Re-)Konstruktion. Philosophische Herausforderungen der angewandten Ethik und Gesundheitswissenschaften/ Philosophical Challenges of Applied Ethics and Health Sciences. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-40192-4_11
Download citation
DOI: https://doi.org/10.1007/978-3-658-40192-4_11
Published:
Publisher Name: Springer VS, Wiesbaden
Print ISBN: 978-3-658-40191-7
Online ISBN: 978-3-658-40192-4
eBook Packages: Social Science and Law (German Language)