|
01.12.09: Kolloquium UFSPE
Der von mir vorgestellte Text „Is it irrational to be amoral?“ von Shaun Nichols ist Thema. Nur einige wenige Gedanken: Nichols verwendet möglicherweise ein zu verengtes Verständnis von „moral rationalism“ – es ist nicht so klar, ob man z.B. der These einer begrifflichen Verknüpfung von moralischem Urteilen und einer notwendig motivierenden Kraft eines solchen Urteils zustimmen muss. Auch können affektive Komponenten, die er von der „Rationalität“ abgetrennt sehen will, durchaus Teil eines (bestimmten) Rationalitätsverständnisses sein.
Zudem sollte der Status empirischer Experimente (?) zwecks Ermittlung von philosophischen Intuitionen, die von „normalem Menschen“ geteilt werden, (z.B. begrifflichen Intuitionen) genauer geklärt werden. Es ist sicher interessant, diese zu erfassen – doch man könnte sie in einem nächsten Schritt ja auch kritisieren.
24.11.09: Workshop UFSPE
Der von Elisabeth Ehrensperger vorgestellte Text gibt Anlass darüber, verschiedene Varianten der Unterscheidung von Moral und Ethik zu diskutieren. Man könne mindestens fünf Varianten Unterscheiden (Kohler): Moral als Bezeichnung der althergebrachten Normen, Ethik als Bezeichnung der neuen Normen; Moral als Regelsystem, Ethik als systematisches Nachdenken über Moral; Höffe mit Moral 1 (Sitte), Moral 2 (Sittlichkeit), Moral 3 (Richtigkeitsansprüche betreffend, also Ethik); Habermas: Moral als Set der zwingenden Normen, Ethik als Set der relativierbaren Normen; Foucault: Moral als Sitte, Ethik als Lebensform. Bei Ehrensperger wird Ethik als etwas charakterisiert, das massgebend für moderne Lebensgestaltung ist, Ergebnis einer Deliberation sein soll und eine sozialintegrierende Funktion haben soll. Dieses Verständnis von Ethik wurzelt im derzeit kulturellen Prozess der Institutionalisierung einer „Menschenrechtskultur“. Mehrere interessante Beobachtungen, u.a. ein Unbehagen gegenüber einer „Toolbox-Ethik“, die viele aktuelle Probleme als zu lösende (und lösbare) Wertprobleme ansieht. Doch vielleicht sollte man gar nicht alle ethischen Probleme lösen, weil mit bestimmten moralischen Haltungen auch Identitäten verbunden sind, die man nicht verlieren will.
Interessant ist auch der Unterschied zwischen moralischer Handlung und moralischem Verhalten, der in der Diskussion aufkam. Letzteres kann nämlich durchaus begrifflich Sinn machen: als eine Disposition, gewisse Verhaltensmuster zu zeigen – und das Aufbauen/Einhalten einer solchen Disposition ist ethisch relevant (Tugend = Disposition zu bestimmtem Verhalten). Eine rein auf Handlungen fokussierte Ethik würde „moralisches Verhalten“ als Begriff evt. gar nicht akzeptieren (da einem Verhalten kein bewusster Entscheid, X zu tun, vorangeht). Doch eine solche Ethik trennt möglicherweise Handlungen von Motiven (genauer überlegen, ob das stimmt).
17.11.09: Kolloquium UFSPE
Adrian Müller stellte den Text „How can Political Liberals be Environmentalists“ von Derek Bell vor. Thema ist die Beurteilung der These, wonach Liberalismus mit der Verfolgung einer umweltorientierten Politik nicht kompatibel sei, weil letztere die Festlegung auf eine spezifische Form des „guten Lebens“ beinhalten würde. Dies verneint er mit Blick auf die Konzeption von Rawls („justice as fairness“), die er als Variante des Liberalismus ansieht und die mit einer Umweltpolitik vereinbar sei, solange keine „constitutional essentials“ verletzt würden und die Mehrheit der Bürger in einem Staat diese mittragen würde. Erster Punkt ist kaum kontrovers, letzter Punkt berührt die Problematik der (überspitzt formuliert) Legitimität der „Diktatur der Mehrheit“. Bell erweckt den Eindruck, als konsequenter Liberaler könne man nicht einmal die Frage diskutieren, ob es eine Umweltpolitik geben dürfe oder nicht (behauptet das wirklich jemand?). Auch lässt der „Public Market Liberalism“, der nur Diskussionen über „basic needs“ zulassen würde, mehr Spielraum als hier angedeutet – denn eine Debatte darüber, was als „basic need“ zu gelten habe, ist ja ebenfalls zulässig (wie soll man das als Liberaler verhindern können/wollen?). Letztlich bleibt das Paper recht inhaltsleer, weil die interessante Frage, ob ein Liberalismus à la Rawls Argumente für eine Umweltpolitik liefern würde (nicht nur damit kompatibel wäre), nicht angegangen wird.
03.11.09: Kolloquium UFSPE
Elisabeth Ehrensperger spricht zu einem Text von Julian Nida-Rümelin und Boris Groys zu Menschenwürde. Zielsetzung der Texte sind klar unterschiedlich: Nida-Rümelin will eine begriffliche (normative) Engfassung, die auch auf die Kritik am Menschenwürde-Begriff eingeht (über die Konzepte von Demütigung und Selbstachtung, Verneinung der Gleichsetzung Menschenwürde = Menschenrechte, strikter Bezug auf das Individuum). Groys bringt eine empirisch zwar schlecht fundierte (d.h. vielfach angreifbare), aber erfrischende Provokation: der „Westen“ verabsolutiert das Leben und macht die Würde handelbar, der „islamische Terrorist“ verabsolutiert die Würde und setzt das Leben ein (ins Spiel). Wohl ein anderer Würdebegriff (ästhetisch fundiert), wenngleich sich die beiden wohl bei mehreren Diagnosen gar nicht so uneinig sein dürften.
20.10.09: Kolloquium UFSPE
Claudia Rudolf von Rohr sprach zum Text „Mysteries of morality“ von DeScioli und Kurzban, Psychologen mit Fokus behavioral games. Nehme nur das kurz auf, was mich interessant dünkt:
-
Moral wird rein prozessorientiert verstanden. Moral cognition hat gewisse Eigenschaften (nicht so klar definiert, u.a. evoziert bestimmte Emotionen, hat bestimmte intentionale Struktur – da müsste man präziser sein) unabhängig vom Gegenstand der Beurteilung. Wenn immer der Gegenstand der Beurteilung unter Nutzung dieser kognitiven Fähigkeit beurteilt etc. wird, wird er zu einem moralischen Gegenstand (aber die ontologischen Fragen sind recht unpräzise).
-
Moralische Interaktion wird generell als 3-Personen-Game verstanden mit dem Aktor, der second party (quasi dem Betroffenen) und der third party (der die Moralität der Handlung des Aktors gegenüber B beurteilt).
-
Empirisch (so die Behauptung) ist in faktischen Interaktionen der third party Kommentar meistens negativ, d.h. es geht um Verurteilungen, condemnations. (ein interessanter Punkt). Man solle diese Sicht auf den Prozess stärker betonen – also nicht die Tatsache, dass es moral agents gibt, die moralisch (falsch) handeln (und wie sie das tun), sondern moral agents, die andere beurteilen (und wie sie das tun).
-
Condemnations stellen dann drei evolutionsbiologische Rätsel: Warum macht man überhaupt moral judgments über Handlungen dritter? Warum nimmt man die Kosten einer Bestrafung Dritter auf sich? Warum will man dabei unparteiisch sein?
-
Das evolutionäre Erklärungsraster ist sicher an sich legitim, doch es fehlt die Unterscheidung zwischen biologischer und kultureller Evolution (wobei diese sicher konzeptionell unklarer ist). Insofern sind die Eigenschaften von „condemnation“, die aus der Warte der biologischen Evolution rätselhaft sind, aus der Perspektive einer kulturellen Evolution vielleicht deutlich weniger rätselhaft (z.B. die Unparteilichkeit).
Das Paper hat viele Referenzen, die interessant sein könnten.
24.-26.09.09: AEM-Tagung Berlin
Eröffnungsvortrag am Donnerstag von Valentin Groebner zur Frage, ab wann menschliche Körper kommerzialisiert wurden (mit dem Erkenntnisinteresses des Historikers: Kategorien von heute aus der Vergangenheit zu rekonstruieren. Interessant ist: das Reden über kommerzialisierte Körper heute, z.B. in der Transplantationsdebatte). Kennzeichnend für ihn für diese Thematik ist der Begriff „Fleischmarkt“ – es geht nicht um käuflichen Sex, Sklaverei oder Adoption, sondern um das Zerteilen von Körpern, deren Anonymisierung und Platzierung auf einem Markt. Beginn mit der Innovation des Christentums: alle Menschen haben gleichen Körper. Demokratisierung der Körper: jeder bekommt am jüngsten Gericht seinen „perfekten“ Körper (mit 30 oder 33 Jahren) – corpus incorruptum. Besessenheit des Christentums an Körpern zeigt sich an den Reliquien (spätantike Grabstätten waren eigentliche Bergwerke für Knochen und dergleichen): Versprechen auf den regenerierten Körper, Reliquien wurden als lebendig definiert und durften nicht verkauft werden (vgl. mit der Hostie – die Kommerzialierer des Körpers waren die Juden, Hostienschänder und dergleichen. Dazu existierten zahlreiche Geschichten: Körperteile verkaufen waren Verträge mit dem Teufel, wie die Geschichten, wo Menschen ihre Körperteile an Satan verkauften. Man denke an den Kaufmann von Venedig: ein Pfund eigenes Fleisch als Sicherheit für einen Kredit). Aber so einfach war es nicht – denn es existierte auch ein florierender Markt für menschliche Körperteile: Menschenfett, Mumien (Mumia: aus Ägypten) etc. Zeitgenössische Kompendien nannten 24 Körperteile, aus denen sich Medikamente machen liessen. Doch dieser „Markt“ war hoch reguliert (Henker, Staatsangestellte, durften z.B. aus den Hingerichteten Medikamente herstellen. Beispiel: Haut von Hingerichteten für die Geburtshilfe. Zeithorizont: 1500-1800). Das Verkaufen von Körperteilen war dann legitim, wenn es von ganz bestimmten Experten vorgenommen wurden (Frage: schützten die anderen Storys die Monopole dieser Experten?). Es gab auch immer wieder Rebellion dagegen. Z.B. ein wichtiger Abnehmer von Körper waren Anatomen. Da gegen Ende des 18. Jahrhunderts immer weniger Hinrichtungen vorgenommen wurden, mussten andere Quellen erschlossen werden: Leichen von Armen. Es gab immer wieder Geschichten, in Armenkrankenhäusern würden Leute getötet, um daraus Arzneimittel zu machen (führte zu Aufständen, Lynchjustiz gegen Ärzte). Und auch im 19. Jahrhundert: Woher hatte Virchov seine über 23'000 Präparate? These: Diese erhielten einen ähnlichen Status wie Reliquien (abgesegnet durch die Wissenschaft – Versuche der Eltern missgebildeter Kinder, Geld dafür zu bekommen, wurden vom preussischen König abgelehnt). Interessant ist nun, wie dieser reiche Fundus von Metaphern aus der Geschichte heute genutzt wird, z.B. in der Transplantationsdebatte (man bedenke: der Verkauf der Leichenteile früher war kein Markt, da hochgradig reguliert, „freie“ Teilnehmer, z.B. Räuber, die mitmischen wollten, wurden hochgradig diskriminiert). Und was ist eigentlich das Gegenteil der Kommerzialisierung? Die Spende. Doch der Kontext ist: alle verdienen was im Transplantationsgeschäft, nur der Spender darf nichts verdienen. Eigentlich seltsam.
Der Freitag begann mit Marcus Düwell, der eine strukturierte Übersicht zum Begriff Menschenbild anhand von vier Teilen gab: Funktion von Menschenbildern, Begriff und Tradition von Menschenbildern, Ethik und Menschenbild sowie die Herausforderungen der Life Sciences betr. Menschenbild. Drei Funktionen von Menschenbildern lassen sich unterscheiden: als Grundlage von Normativität, Menschenbild und dessen Relation zur Moralfähigkeit des Menschen (freier Wille etc.), Verwendung in heuristischer Funktion (meistens unterbestimmt). Zum Begriff selbst: es fällt auf, dass er in anderen Sprachen gemäss der deutschen Verwendung kaum vorkommt. Die Bildlichkeit impliziert ein gleichzeitiges Auftreten verschiedener Aspekte, die den Mensch ausmachen sollen. Der Begriff verknüpft deskriptive und normative Elemente (ein thick concept). Und er hat von der Tradition her eine Nähe zur Gottesebenbildlichkeit (imago dei). Der Begriff steht damit im Verdacht eines „anthropologischen Essentialismus“. Gängige Traditionen von Menschenbildern sind: christlich (Verknüpfung mit Heilsstatus), kosmologisch (Renaissance), kantianisch (Verknüpfung von Ratio und Respekt), Verknüpfung mit Menschenwürde und Menschenrechte. Die enge Verknüpfung normativer und deskriptiver Aspekte in „Menschenbild“ macht diesen Begriff in ethischer Hinsicht schwierig – seine Verwendung verschleiert oft das ethische Problem und liefert Schein-Begründungen (auch eine Erinnerung an das jüdische „Du sollst Dir kein Bildnis machen“). Dennoch kann der Begriff wichtig sein: als kritisches Element am anthropologischen Bias der Ethik, zur Verständlichmachung des Handlungsraums des Menschen (nicht nur eine empirische Frage), als Vermittler der verschiedenen Dimensionen des Menschseins. Die Herausforderung der Life Science sieht er in einer Art „Klassifikationsproblem“. Der Begriff „Mensch“ erlaubt einen Transfer zwischen Fakten und Normen, doch was passiert mit Chimären?
Theda Rehbock interessiert sich für das Personsein in Grenzsituationen. Sie sieht Anthropologie als eine Quelle der Kritik gegen Wissenschaft und Ethik gleichermassen (beides sind Tätigkeiten, die Abstrahieren, Anthropologie erlaubt das Konkretisieren?). Danach Diskussion des Beispiels Hirntod (entlang der bekannten Argumentationslinien). Der zentrale Punkt danach: ist ein Mensch auch nach dem Tod noch eine Person? Sie will dafür argumentieren. Die ethische Bedeutung des Todes liege darin, dass gewisse Pflichten gegenüber der Person sich ändern würden – nicht aber, dass die Person als solche aufhört zu existieren (dass dies nicht so ist, zeige sich daran, dass man eben immer noch Pflichten gegenüber dem Verstorbenen habe, wenn ich das recht verstehe). Sie sieht dann drei Missverständnisse im Hinblick auf die Beurteilung der Frage, ob Menschen nach dem Tod Personen sind. Erstes Missverständis: objektivistisch. Das Personsein könne nicht Gegenstand einer objektivierenden Betrachtung sein (doch irgendwie kann man darauf ja auch nicht verzichten?). Personsein sei nicht an Eigenschaften oder Fähigkeiten geknüpft, haben mit anderen „Strukturkomponenten“ zu tun (Interpersonalität, Leiblichkeit, Sprachlichkeit, Vernunft, Autonomie – habe das Argument nicht wirklich verstanden). Ein „positives Personsein“ besteht in einer reflektierenden Einstellung, einer interpersonalen Beziehung, Leiblichkeit und Sprache. Dann gebe es noch das instrumentalistische Missverständnis (dazu sprach sie aus Zeitgründen nicht) und das reduktionistische Missverständnis. Letzteres bestehe in der Blickverengung auf Teilaspekte, man müsse aber alles Relevante ansehen (doch auch im Relevanzbegriff steckt ha eine Gewichtung und Einengung – zudem stellt sich das Überforderungsproblem).
Gesa Lindemann sprach über Gründe zur Zugehörigkeit zur Klasse Person gesellschaftlicher und institutioneller Art. Zugehörigkeit resultiert aus einer sozialen Praxis. Ihre Basis ist die Theorie der Mitwelt (Plessner), der zwei Formen von Mitwelt unterscheidet. Allgemeine Mitwelt: gegenseitige Anerkennung des Personseins vollzieht sich vor einem Dritten (triadische Struktur) – das ist nur eine formale Bestimmung. Will man diese mit Inhalt füllen, muss man die „historische Mitwelt“ anschauen. Sie unterscheidet dann zwischen der Vormoderne (hierarchisch geordnete Gesellschaften, Gott als oberster Bezugspunkt, Positionen nahe der Spitze waren klar definiert): hier war das soziale Personsein hierarchiegebunden. Und der Moderne (funktional differenzierte Gesellschaften) mit dem universalen Kriterium, alle lebenden Menschen sind Personen und einem Freiheitsbegriff, der der Tendenz des Staates zur Vereinnahmung von Menschen entgegenwirke (es bestehe eine Freiheit zum Vollzug der Vergesellschaftung). Diese Moderne gehe einher mit einem „anthropologischen Quadrat“ (soll um 1800 auftreten), wonach sich der Mensch gegen vier Seiten abgrenzen muss: entlang der zeitlichen Dimension zwischen Geburt und Tod und entlang der ontologischen Dimension zwischen Tier und Maschine. Man könnte evt. noch eine dritte Dimension hinzufügen (das wäre dann ein „anthropologischer Kubus“): Abgrenzung zwischen dem Untermenschen (oder heute eher: Unmenschen) und dem Übermenschen - zweifellos sehr umstrittene Abgrenzungen, sie wurden aber diskutiert.
In der Session (Enhancement) sprach dann zuerst Roland Kipke zu den Menschenbildern, die mit Neuroenhancement einhergehen. Er spezifiziert nicht gross, was Neuroenhancement ist (im wesentlichen die Idee, es gebe eine Pille, um gewisse wünschenswerte mentale Zustände oder Funktionen zu verbessern). Voraussetzungen beider Positionen (pro, contra) sei: Mensch ist unvollkommen, verbesserungsbedürftig und verbesserungsfähig. Zuerst die Feststellung, dass die in der Debatte auftretenden Menschenbilder zu vereinfacht sind und klar von der argumentativen Zielsetzung abhängen: Entweder ist der Mensch ein „Gewordener“ (NH wäre dann ein fataler Perfektionismus) oder ein „Gemachter“ (NH wäre eine Fortsetzung dessen, was der Mensch immer schon gemacht habe). Die darauf aufbauenden Argumentationen seien holzschnittartig und man müsse feststellen, dass Menschenbilder in der Debatte um NH nicht weiterhelfen würden. Man solle vielmehr die genaue Art und Weise des Enhancement anschauen – und dies im Vergleich mit sonstiger „Selbstformung“ (mittels Meditation, Training und was auch immer das Ziel hat, mentale Zustände oder Funktionen zu verbessern). Her gebe es Unterschiede entlang vier Dimensionen: (die ersten zwei kann ich in meinen Notizen nicht mehr lesen – nachschauen, was er geschrieben hat!), Langfristigkeit, Anstrengung. Doch ich frage mich, inwieweit diese Unterschiede in seiner Kontruktion des NH liegen. Betrachtet man die Nutzung pharmakologischer Substanzen in der Praxis (vorab Psychopharmaka), so sind diese oft eingebunden in langfristige Praktiken die vieles Umfassen können (wann, was tun, welche Begleitmassnahmen etc.) – die Grenzen verschwimmen dann (und das wäre dann wohl ein Grund, warum solches NH akzeptabel wäre).
Oliver Müller sprach dann zum technisierten Mensch. In dieser Debatte will er Menschenbilder als „anthropologische Reflexionsfiguren“ verstehen, nicht im Sinn von Festschreibungen, sondern als Orientierungspunkte (das dürfte in der Tat eine korrekte Beschreibung des faktischen Gebrauchs von Menschenbildern sein).
Oliver Rauprich schliesslich diskutierte die Frage, inwieweit ungewollte Kinderlosigkeit eine Krankheit sein soll. Zuerst Prüfung bestehender Krankheitsbegriffe: In der WHO findet sich in der Tat was dazu, aber hier werde nur gesagt, dass Reproduktionsfähigkeit zur Gesundheit gehöre, nicht aber, dass dessen Fehlen eine Krankheit sei (wichtig: Die Menge der Zustände „krank“ ist nicht das Komplement der Menge der Zustände „gesund“). Gemäss dem biostatistischen Modell von Krankheit nach Boors (Krankheit als signifikante Abweichung vom Normwert einer spezies-/alters-/geschlechtsspezifischen Funktion) wären Reproduktionsstörungen klar eine Krankheit. Gemäss dem deutschen Gesetz (Krankheit = objektiv nach ärztlichem Urteil bestehender, anormaler bzw. regelwidriger Körper- oder Geisteszustand) ebenfalls. Gemäss Nordenfelds holistischem Wohlfahrtsmodell (Gesundheit = die Fähigkeit, unter normalen Bedingungen wesentliche Lebensziele erreichen zu können) wohl auch (wenn Kinderwunsch besteht). Nur sei aber ungewollte Kinderlosigkeit eine Krankheit ohne Symptom (im Vergleich zu anderen) und (falls man das so sehen will) eine Behinderung, die sich nicht wie andere Behinderungen anführt. Wohl deshalb zeigen Umfragen, dass Reproduktionsstörungen in der Regel nicht als Krankheiten (ausser von den Betroffenen selbst und den Reproduktionsmedizinern) und erst recht nicht als Behinderung angesehen werden. Unfruchtbarkeit sei deshalb schwer mit dem gängigen Krankheitsbegriff vereinbar.
In der Session nach mir sprach dann Christine Knust über Menschenversuche mit Afro-Amerikanern – u.a. eine Darstellung der Tushegee Syphilis-Studie (diese dauerte von 1932 bis 1972, fast 40 Jahre!) – zweifellos ein eklatantes Beispiel für unethische Medizin. und Sabine Müller über Anorexie und Entstigmatisierung durch Biologisierung. Sabine Müller sprach dann über Anorexie und Entstigmatisierung durch Biologisierung. Viele Zahlen (eigener Umfragen) und Darstellung des Paradigmenwechsels in der Erklärung von Anorexie weg von einer rein sozial verursachten Krankheit (Familie und gesellschaftliche Normvorstellungen) hin zu biologischen Faktoren (gestörter Leptin-Regelkreis, genetische Vulnerabilität). Dann die These zur Frage, wann wirken Biologisierungen von Störungen entstigmatisierend? Dann, wenn Sie entweder Krankheiten ohne Fremdschädigung betreffen oder – falls Fremdgefährdung vorliegt – diese Therapierbar sind. Sind diese Krankheiten nicht therapierbar, unterstützen sie hingegen Stigmatisierungen.
Ursula Naue sprach über Behinderung und der Entwicklung, diese nicht als Krankheiten anzusehen (im Rahmen der disability studies etc.). In der Tat umfasst Behinderung immer zwei Perspektiven: auf den Menschen (der etwas nicht kann) und die Umgebung (die auf dieses Nichtkönnen nicht eingeht). Es sei falsch, nur ersteres zu fokussieren (was sicher stimmt). Die Gegenbewegung wollte dann Behinderung als ein rein soziales Phänomen ansehen (was, wie sie auch meinte, ebenfalls falsch ist). Beide Aspekte sind gleichwertig (so verstehe ich sie). Doch ist das wirklich so? Denn an was bemisst sich denn die Massnahme, mit der die Umwelt konkret umgestaltet werden soll: an der Art der Behinderung. Insofern ist diese das Kriterium und logisch vorgeschaltet. Und ein anderer Gedanke: Werturteile sind auch als Klassifikation aufzufassen – überlege dir, was das betreffend der zwei Arten zu klassifizieren (bottom-up, top-down) bedeuten kann.
Johannes Fischer schliesslich sprach zur religiösen Wahrnehmung von Krankheit und deren Verknüpfung mit einem Sinn; durch den Kranken selbst – aber auch in einem weiteren theologischen Kontext. Ersteres kann sicher eine Strategie sein, um mit der elementaren Erschütterung des Krankheitserlebens (insbesondere, wenn man z.B. die Diagnose einer tödlichen Krankheit erfährt), umzugehen, die Krankheit in das eigene Leben einzubauen. Hingegen ist er skeptisch gegenüber einer religiösen Interpretation von Krankheiten als potentiell sinnhaft (entweder dahingehend, dass sie eine Art Strafe sind oder eine Chance zur Läuterung). Er vermutet, dass diese Vorstellung implizit Stellungnahmen der Kirchen in ethischen Fragen leitet, z.B. gegen PID. Sein Verständnis von Religion: sie sollte an sich nicht Sinn schaffen, sondern helfen, mit dem Sinnlosen umzugehen (wenn ich das recht verstanden habe). Eine interessante Bemerkung: Wenn jemand sagt: X ist moralisch falsch“. Inwieweit beansprucht dieser jemand damit eigentlich Allgemeingültigkeit? Muss er das wirklich, damit der Satz als moralisch qualifiziert werden kann?
Der Samstag beginnt mit einer Session: Tobias Eichinger sprach zu Anti-Aging-Medizin – zuerst die Klischees der amerikanischen Debatte (mit all ihren Seltsamkeiten, wenn man die dortige Anti-Aging-Gesellschaft anschaut) und dann, was sich hier tut. Das Menschenbild ist an sich klar: Fit, jung und vital auch im Alter, vorab Bezug auf körperliche Funktionen (werden die geistigen wirklich nicht beachtet, Demenz!), Ideologisierung des mittleren Lebensabschnitts. Die meisten Massnahmen sind aber an sich unproblematisch (Verhältnis zur Prävention generell ist unklar): Lebensstil-Änderung (Mehr Bewegung etc.), Nahrungsmittelergänzung, Hormontherapie (der umstrittenste Punkt), kosmetische Operationen. Hintergrund ist natürlich die Idee der gesundheitlichen Selbstverantwortung (und der damit verbundene Druck betr. Gesundheitskosten). Die hier wohl wichtigste Entwicklung: Der Arzt wird zum „Gesundheits-Coach (wer soll das bezahlen?).
Julia Glahn zeichnet einige Linien ihres künftigen Dissertationsprojektes zur Frage, was der Umgang mit Toten über die Lebenden verrät. Interessant ist ihr Bezug zu Levinàs, der Ethik versteht als die Ausgestaltung der Beziehung zwischen sich und dem Anderen, was notwendigerweise asymmetrisch ist. Insofern können auch ethische Beziehungen mit Verstorbenen bestehen. Norbert Walz schliesslich argumentiert dafür, dass der Transhumanismus kein Antihumanismus sei und ewiges Leben erstrebenswert. Das Problem bei solchen Sachen ist immer dasselbe: man abstrahiert alles mögliche weg und die Welt, in der Transhumanismus dann als erstrebenswert und ethisch gut dargestellt wird, wird eben genau so geschaffen, damit das funktioniert (und diese Weltbilder sind dann immer erstaunlich naiv) – keine überzeugende Argumentation.
Zur Abschlussdebatte zwischen Ralf Stoecker und Jochem Rieger (Menschenbild und Neurowissenschaft) hab ich dann nichts mehr aufgeschrieben.
24.-27.08.09: Conference on moral responsibility, Delft
Anthony Duff spricht als erster über Objekte und Instanzen von Verantwortung aus einer rechtlichen Perspektive mit der Grundfrage: Welche Idee von Verantwortung bei kriminellen Taten soll es in einer liberalen Gesellschaft geben? Ausgangspunkt ist dabei, dass Verantwortung etwas mit „antworten“ zu tun hat, also gewissermassen einen diskursiven Charakter hat: man muss gegenüber jemand Stellung beziehen hinsichtlich des Verantwortungsobjekts. Hierbei sieht er dann auch einen Unterschied zwischen Verantwortung und Haftung (liability): Verantwortung ist zwar notwendig, aber nicht hinreichend für Haftung, denn man kann zwar für ein Verantwortungsobjekt verantwortlich sein, aber gute Gründe vorbringen, warum man dennoch dem Verantwortungsobjekt nicht gerecht geworden ist. Dieser Verweis auf Gründe habe einen deskriptiven wie auch normativen Charakter (man diskutiert evt. auch, welche Gründe gelten sollen). Ein Problem kann dann entstehen, wenn bestimmte Personen (z.B. Psychopathen) für bestimmte Gründe (z.B. moralische Gründe) nicht sensibilisierbar sind. Wenn der Bezug auf (rechtliche) Verantwortung der Verweis auf moralische Gründe brauchen würde, wäre in diesem Fall ein Psychopath für seine Taten nicht verantwortlich. Dann weiter zur Frage, für was man verantwortlich sein kann. Klassische Bedingungen sind: Kontrolle (d.h. minimale Kontrollmöglichkeiten hinsichtlich des Verantwortungsobjekts) und Wissen (nicht ganz klar, was er meint: wohl Prognosewissen, was passieren kann, wenn man etwas tut bzw. nicht tut?). Wissen gehört seiner Ansicht nach nicht zu den notwendigen Bedingungen für die Konstruktion der Relation zwischen Verantwortungssubjekt und -objekt (sondern ist nur nötig für Haftbarkeit). Dann als weiterer Punkt die Frage nach der Verantwortungsinstanz: ist gewiss abhängig vom konkreten Verantwortungsobjekt (nur die wenigsten betreffen prinzipiell alle moral agents, z.B. Mord) – diese enge Verknüpfung von Verantwortungsobjekt und -instanz ist wichtig! Danach folgen einige Gedanken zur Idee der „criminal responsibility“. Die Idee der „Antwortung“ würde einige dunkle Flecken erhellen: So ist die Antwortbarkeit mittels Gründen sowohl prospektiv als auch retrospektiv möglich und nötig (vor Gericht: man muss während der Tat zurechnungsfähig und während des Prozesses prozessfähig sein). Zudem könnten nicht alle Instanzen legitim sein (dieser Gedanke soll z.B. erklären, warum man Mühe damit hat, Personen mit schwieriger Vorgeschichte verurteilen zu wollen – doch was wäre die Alternative? Solche Personen begehen meist Verbrechen im gleichen Milieu – soll innerhalb des Milieus abgerechnet werden?).
Dann der Session-Vortrag von Gunnar Björnsson zur Frage nach einer gemeinsamen Verantwortung für kollektive Akte (habe dazu das Handout). Zwei klassische Beispiele, bei denen jede Einzelhandlung selbst noch nicht zum schlimmen Resultat führt, aber insgesamt ein schlimmes Resultat folgt (und die Agierenden nichts voneinander wissen). Seine Idee: Man solle die Motive der Personen als Ausgangspunkt für die Zuschreibung von Verantwortung nehmen. Doch aus den Beispielen wird nicht klar, warum man überhaupt die kollektive Handlung (bzw. deren Resultat) zum Verantwortungsobjekt nehmen soll, denn schon die Einzelhandlungen sind verwerflich (und wären damit bereits ein Verantwortungsobjekt). Interessante Fälle von kollektiver Verantwortung sind aber, wenn die Einzelhandlungen selbst nicht schon verwerflich sind. Und was macht man bei Konflikten zwischen Motiven bzw. wenn die Leute sich ihrer Motive gar nicht gewahr sind?
Matthew Braham bringt dann eine Anatomie von „moral responsibility“ (sehr interessant – Paper dazu dann lesen!). Er bringt mehrere paradigmatische Beispiele für das Problem der „many hands“ (z.B. Abstimmungen für schlechte Ziele). Hier stellen sich zwei Fragen: Kausalität („which hands?“) und normative Gewichtung („which hands are dirty?“). Beide Fragen sind schwierig wegen kausaler Überdeterminierung und fehlender intrinsischer normativer Evaluierbarkeit. Ohne auszuführen, würden traditionelle Lösungen wie Rollenverantwortung und kollektive Verantwortung nicht funktionieren (Verletzung des „principle of desert“, metaphysische Probleme bei kollektiver Verantwortung). Seine Lösung ist eine Art „general responsibility function“ (analog zu einer choice function), formuliert in einem spieltheoretischen Rahmen. Diese Funktion hat drei Inputs: agents, die die Neumann-Morgenstern-Bedingung erfüllen, Verantwortungsobjekt (?) erfüllt NESS-Test und ein so genanntes avoidance potential (man muss so was wie eine Statistik darüber machen, wie ein agent den negativen outcome verhindern kann). Im avoidance potential sind dann auch normative Bedingungen für die Strategien versteckt, die der agent zwecks Vermeidung haben kann. Eine schöne formale Idee, die von mir im Paper dann genauer erfasst werden sollte.
Zum Vortrag von Andrew Eshelman (er liest im Wesentlichen sein Paper vor) gibt es ein Handout. War zu müde, um das alles noch zu verstehen.
Der Dienstag begann mit Steve Vanderheiden (ich kam etwas zu spät) über kollektive Verantwortung und Klimawandel. Es schien, dass er vorab die Ansichten Anderer zu diesem Thema zusammentrug. So z.B. David Miller („Holding Nations Responsible“): Menschen einer bestimmten Gemeinschaft die von den kulturellen Praktiken dieser Gemeinschaft profitieren, sollen auch die externen Kosten, die diese Praktiken verursachen, tragen (doch das Messproblem bei externen Kosten ist immer sehr gross!). Dann Michael Walzer (Buch über den gerechten und ungerechten Krieg): Man trägt als Mitglied eines Staates mit schlechtem Regime die Kosten, nicht aber die moralische Verantwortung mit (doch fraglich, ob der ungerechte Krieg dasselbe ist wie das Ereignis (?) Klimawandel). Die Grundfrage für ihn, die daraus resultiert: unter welchen Bedingungen sind Mitglieder von Kollektiven nicht für die Taten (?) dieser Kollektive verantwortlich? Was muss man tun, um rauszufallen? Und vie verhält sich diese Frage zum Begriff der Solidarität? Und man könnte zudem fragen: Nehmen wir an, Mitglieder eines Staates akzeptieren ihre kollektive Verantwortung. Was dann? Die wirklich schwierigen Fragen stellen sich erst beim Umgang mit dieser Verantwortung. Und noch eine generelle Bemerkung: Gibt es eigentlich moralische Praktiken, die nicht unter die Begrifflichkeit von „Verantwortung“ fallen?
Andras Szigeti plädierte dann dafür, dass es so was wie eine constitutional agency gibt: Gruppen von Menschen, die sich eine Verfassung geben, werden dadurch zu einem kollektiven agent, der Verantwortung trägt. Offenbar umfasst diese politische Gemeinschaft dann auch Leute, die sich nur in einem Staatsgebiet aufhalten (mindestens unplausibel). Eine Verfassung ist ein Normenset mit folgenden Eigenschaften: sie beenden Konflikte (das ist zweifelhaft!), sie sind vergleichsweise schierig zu ändern (nicht überall), sie sind weitgeend akzeptiert (so klar ist das nicht), sie sind „dick“ (viel interpretativer Körper – das ist korrekt). Sehe drei Grundschwierigkeiten in diesem Ansatz: Erstens ist die normative Kraft von Verfassungen viel zu schwach, um eine kollektiven agent zu konstituieren (Verfassungsnormen sind notwendig offen, damit sie überhaupt generelle Akzeptanz findet. Man schaue nur auf die Praxis des politischen Diskurses: Gruppen mit widersprüchlichen Ansichten beziehen sich gleichermassen auf die Vefrfassung!). Zweitens sollte die Genese einer Verfassung mit in die Theorie reinspielen (denn diese definiert entscheidend die Legitimation einer Verfassung). Drittens müsste man die Compliance der Verfassungsnormen anschauen (diese ist mit Sicherheit nicht in jedem Land gleichermassen gegeben).
Nicole Vincent präsentierte dann ihre sehr schöne Taxonomie des Verantwortungsbegriffs (richtige Beobachtung: „Verantwortung“ ist mehr in Syndrom als ein klar definierter Begriff). Sie sieht sechs Verwendungsweisen: a) Verantwortung als Vermögen (eine kontinuierliche Variable). b) Verantwortung als Kausalität (hat mit a zu tun). c) Verantwortung als Rolle (Legitimität der Rollenzuschreibung hat auch mit a zu tun). d) outcome-Verantwortung (verknüpft b und c), e) Verantwortung als Tugend und f) Verantwortung als Haftbarkeit (braucht sicher d und auch gewisse Normen zur Legitimierung der Haftbarkeit). Man könnte vielleicht noch hinzufügen: Menschen die Verantwortung als Sündenböcke übernehmen (kann ebenfalls extern gerechtfertigt werden) ohne kausale, rollengemässe oder sonstwie relevanter Einbezug in die Verantwortungsrelation. Und man müsste sich noch fragen: wie ändert das Schema, wenn andere Verantwortungsobjekte thematisiert werden (nicht Handlungen)?
Ted Honderich mit einem sehr pointierten Vortrag (gewissen britischen Klischees entsprechend), einem 10-Punkte-Programm: Zuerst zur Frage, was Determinismus ist: mehr als Wahrscheinlichkeitsaussagen. Determiniert sind „events“ (Ereignisse), und quantentheoretische Erwägungen seien kein Gegenbeispiele zum Determinismus, weil sie sich nicht in events auf der Makroebene widerspiegeln würden. Dann das Statement, dass Determinismus wahr ist (und dazu der Verweis auf seine Bücher). Die beiden klassischen Weisen, auf die deterministische Herausforderung zu reagieren (im Hinblick auf den freien Willen), sind dann: Inkompatibilismus und Kompatibilismus – beide seien falsch. Kern der Freiheit sei Freiwilligkeit der Handlungen. Zwischen „frei sein“ und „verantwortlich sein“ bestünden dann enge Beziehungen (quasi sagen beide Begriffe dasselbe aus, und ist nichts Normatives) – aber jemanden verantwortlich machen ist etwas anderes, weit mehr mit Normen geladen. Dass neurowissenschaftliche Erkenntnisse kaum etwas zum Problem der Verantwortungsbestimmung (d.h. jemand verantwortlich machen) beiträgt, illustriert er dann am Beispiel eines komplexen Gerichtsfalls: was soll der Blick ins Gehirn vereinfachen, wenn schon das Beispiel „auf der Oberfläche“ sehr komplex ist? Schliesslich thematisiert er die Rechtfertigung von Strafe, die seines Erachtens nur darin liegen könne, welche positiven Effekte Strafe hinsichtlich der Minderung künftiger Verbrechen haben kann. Und diese positiven Effekte macht er an seinem „Principle of right and wrong“ fest: Es gibt gewisse Grundgüter; es gibt Zustände, die niemand will; Menschen wollen Freiheit und Macht, Beziehungen, Respekt, und gewisse kulturelle Güter. Womit er u.a. ein Problem hat: was, wenn der Akt des Strafens positive Effekte auf die gesellschaftliche Ordnung (im Sinn des „altruistic punishment“) hat?
Stephen Morse folgte dann am Nachmittag mit seinem Plädoyer, wonach derzeit keinerlei Anlass dafür besteht, dass die Erkenntnisse der Hirnforschung etwas an der Praxis des Rechts ändern würden: Es gebe zwei Challenges: der Determinismusverdacht, und das „Verschwinden der Person“. Gegen interne Kritik hat er nichts (d.h. wenn Neurowissenschaft dazu beitragen kann, die Schuldunfähigkeit präziser zu fassen – die Frage hier dann ist aber: was wenn immer mehr Straftäter im Zug der Fortschritte in der Erfassung menschlicher Handlungsgründe als schuldunfähig gelten? Auf diese Frage hatte er nicht wirklich geantwortet). Zur Externen Kritik: Erstens brauche das Recht in seinem Vollzug den Verweis auf den freien Willen gar nicht (ist wohl eher so was wie ne Hintergrundannahme – er könne das zeigen, was er im Vortrag nicht tut). Zweiter Punkt ist für ihn wichtiger: die mögliche Unterminierung der „folk psychology“. Doch eine solche zeichnet sich nicht ab: es ist sehr unklar, wie dieser Reduktionismus je funktionieren kann (bereits die Reduktion der Chemie auf die Physik funktioniere ja nicht – da würden evt. andere widersprechen). Man beachte: die Festsetzung von Schwellenwerten (z.B. hinsichtlich Autonomiefähigkeit) ist ein normativer Akt. Zum Argument der „Illusion, ein agent zu sein“: die indirekten stützenden Argumente hierfür seien nicht stichhaltig: Dass wir die kausale Basis unseres Denkens nicht kennen ist unwichtig, die Möglichkeit der Manipulation ist ein Punkt, mit dem das Recht jetzt schon klarkommen kann. Die Lokalisierung geistiger Tätigkeiten im Gehirn bringt hinsichtlich dem Verantwortungsproblem nichts. Und auch aus dem Libet-Experiment lassen sich keine Argumente gegen die Möglichkeit menschlicher Verantwortung gewinnen. Die restlichen Vorträge habe ich dann nicht mehr besucht.
Der Mittwoch beginnt mit Walter Sinnott-Armstrong über die Frage, ob Psychopathen verantwortungsfähig sind. Zuerst zur Definition von Psychopathie mittels dem PCL-R – eine Checklist mit 20 Items zu interpersonalen (4), Lebensstil-bezogenen (5), emotionalen (4), antisozialen (5), und sexuellen (2) Aspekten. Von Psychopathie zu unterscheiden sind die Antisocial Personality Disorder (ASPD, in US-Gefängnispopulationen bis zu 80% gegenüber 15-20% Psychophaten) und Soziopathie (evt. eine extreme Form von ASPD). Viele Fragen zu Psychopathie sind offen: ein distinktes oder graduelles Phänomen (er glaubt ersteres)?. Krankheit oder Lebensstil (er glaubt ersteres)? Kognitive oder emotionale Störung (gemäss ihm beides), genetische/neurobiologische Ursachen (letzteres gemäss ihm wahrscheinlich)? Gibt es Heilung (er glaubt nicht)? Abnahme im Alter (eher das Gegenteil)? Die Frage ist nun, inwieweit die bislang vorhandenen Erkenntnisse Antworten auf die Frage erlauben, ob Psychopathen moralisch verantwortlich sein können oder ob ihnen eine Fähigkeit fehlt, die für die Legitimität einer Verantwortungszuschreibung notwendig ist – ein empirisches wie normatives Problem gleichermassen. Für das Gericht ist das der relevanteste Punkt: fallen Psychopathen unter eine „insanity defense“? Das war der bislang eingeschlagene Weg bei der Verteidigung von Psychopathen. Der hier interessante Punkt ist, dass Psychopathen in einem kognitiven Sinn über moralische Urteile verfügen (sie können damit argumentieren) – doch sie sind ihnen unwichtig. Die bisherige Forschung scheint darauf hinzuweisen, dass der interne Mechanismus zur Generierung moralischer Urteile bei Psychopathen anders ist als bei normalen Menschen (zeigt sich z.B. bei Reaktionszeiten-Experimenten, Imaging-Experimenten). Eine mit den Resultaten kompatible These wäre: Psychopathen nutzen eine „als-ob Moral“. Doch es bleibt die Frage, was das für Verantwortung bedeutet. Dazu die verschiedenen philosophischen Positionen: Internalism (man muss über moralische Motive verfügen – ist das wirklich notwendig?), emotivism (man muss über moralische Emotionen verfügen – doch untersucht man wirklich das volle emotionale Spektrum bei Psychopathen, gewisse Emotionen haben sie ja schon?). Was mich am meisten interessieren würde: Wenn Psychopathen nur eine „als ob Moral“ haben: was ist der moralische Status der Motivation, dies zu tun?
Frank Hindricks thematisiert kollektive Entscheidungsfindung und die damit verbundene Verantwortung. Er geht vertieft auf das discursive Dilemma ein: Eine Entscheidung besteht aus drei Teilentscheidungen und wird von drei Agents entschieden. Jede Teilentscheidung kann zu einer Ja-Mehrheit führen – aber kein Agent stimmt wirklich allen drei Teilentscheidungen zu (und müsste insgesamt gesehen Nein stimmen). Doch das ist eigentlich gar kein Dilemma, sondern es löst sich auf durch den Entscheid, wie abgestimmt wird (denke ich). Das Problem ist dann doch eher: wie kommt der Entscheid über das Entscheidungsverfahren zusammen. Da dieses gewissermassen die Entscheidung determiniert, könnte man das Dilemma mit einer vierten Person ergänzen (Vorsitzender des Board), der zuerst jenes Entscheidungsverfahren bestimmt, das zu einem „Nein“ führt, und dann immer „Ja“ stimmt (die Mehrheit wäre dann aber „Nein“). Würde er nun die volle Verantwortung tragen? Hindricks geht dann weiter zu einem Paper von Petitt & List (2002), wo argumentiert wird, Korporationen hätten ein „mind of their own“ und es geben eine irreduzible korporative Verantwortung (Hindricks greift das an). Eie Frage die dann Hindricks interessiert: was sind die Entschuldigungs-Bedingungen, um eine kollektiv getroffene Verantwortung nicht verantworten zu müssen. Die klassische Antwort: man stimmt dagegen. Hindrick konstruiert dann aber ein Beispiel das zeigt: so billig kommt man nicht davon, man muss auch aus den richtigen Gründen Nein sagen (die Frage scheint mir dann aber: wie kommt man zu den „richtigen Gründen“?). Lies dann sein Paper!
Felicitas Kraemer spricht dann zur Frage, ob es Autonomie ohne Authentizität geben kann – sie greift damit eine entsprechende Behauptung von Bublitz & Merkel (Bioethics, 2009) an. Sie identifiziert einige Probleme in der Argumentation, es gebe keine Beziehung zwischen Authentizität und Autonomie (u.a. verdeckte Bezüge zur Authentizität – lies dazu das Paper von Merkel direkt). Es folgt dann eine (mehr oder weniger klare) Definition von Authentizität: Die Identifizierung einer Person mit ihrem idealen Selbst (man müsste dann aber den Bezug einer Person zu ihrem „realen Selbst“ klären, da dürfte es ja je nach Fall eine mehr oder weniger grosse Kluft geben). Das Fallbeispiel mit DBS und unterschiedlichen Einschätzungen der Handlungen des DBS-Trägers im on und off Zustand: mir ist nicht so klar geworden, was das Beispiel hinsichtlich Authentizität klärt – man könnte sich ja vorstellen, dass DBS entweder dem Agent ermöglicht, das ideale Selbst unter Stimulation zu erreichen (weil Hemm-Mechanismen wegfallen), oder das ideale Selbst verändert. Wie könnte man herausfinden, was der Fall ist (evt. Bezug auf Gründe, die bei der Beurteilung der Handlung in den beiden Zuständen verwendet werden).
Seumas Miller sprach dann über „kollektive epistemische Verantwortung“ (ob das „epistemisch dabei so klar abgrenzbar ist, wie er meint, sei dahingestellt) – eine Zusammenstellung dessen, was man gemeinhin so weiss zum Thema. Viele offene Punkte, die man kritisch beäugen sollte (doch der Vortrag war nicht interessant).
Michael Smith kam dann mit seinem sehr klaren, analytisch geprägten Vortrag zur Frage, was die Natur einer Handlung ist. Sehr gutes Handout (lies dort nach). Ihm ging es darum zu zeigen, dass das klassische Schema einer Handlungserklärung (belief-desire-account) eine Lücke hat. Kurz gesagt macht das klassische Schema zwei Unterscheidungen klar: aktiv-passiv (aktiv braucht desire) und bewusst-unbewusst (bewusst braucht Klarheit über mean-end-Beziehung). Das Schema verknüpft vier Enitäten: desire, mean-end-belief, die zur Handlung gehörende Bewegung selbst und die Relation. Doch es fehlt ein Element: „our being rational“. Es folgt dann ein Vergleich der Argumente von Hempel und Davidson (wobei Davidson sich irrt – siehe Handout) und die interessante Unterscheidung zwischen a) ein Vermögen zur Zweckrationalität haben aber nicht nutzen und b) das Vermögen voll auszuschöpfen doch es reicht nicht. Die Frage ist nur: ist ersterer Sachverhalt dann auf eine Entscheidung des agent zurückzuführen? Die restlichen Vorträge habe ich dann nicht mehr besucht.
Donnerstag (erster Vortrag besuchte ich nicht): Karen Houle liefert eher so was wie eine Diagnose des Geschäfts der Ethik, sich mit Verantwortung zu befassen (interessante Perspektive, „kontinentaleuropäisch“ wie sie meint): Kurz zum Argumentationsgang: Einführen der Begriffe Pluralität vs. Multiplizität (ersteres hat eine Art reduktionistischen Charakter, das andere eher was wie ein „uncompleted whole“) und kompliziert vs. komplex (letzteres kurz charakterisiert anhand der bekannte Form des „Ganzen ist mehr als die Summe seiner Teile“ (und Verbindungen)). Erläuterung am Beispiel der Physik (bin da unsicher ob die Sache nicht etwas überzeichnet wird), Argumentation dafür, dass das „moral universe“ complex, die Theoriebildung zum moral universe aber complicated ist (da würde ich das grösste Fragezeichen setzen: für eine analytisch geprägte Ethik mag das stimmen – doch das ist nicht die einzige. Theologische Ethiker (etc.) argumentieren z.T. ganz anders – und warum gehören die nicht ebenfalls zu den Theorie-Generierern?). Aufzeigen, dass die Ethik als Theorie eben „komplex“ sein soll. Die wichtige Beobachtung ist, dass die Rede von Verantwortung eine ganz bestimmte Strukturierung der Welt (im Sinn von Agents und deren Verknüpfungen) voraussetzt. Und ein weiterer Punkt: man denke an die Beispiele, mit denen im Philosophieunterricht Verantwortung eingeführt werden: immer diese (blutrünstigen) Dilemmas... Die nächste Session besuchte ich nicht.
Carl Mitcham sprach über Co-Responsibility: Wichtig war, dass er vorab einmal die historischen Bezüge des Verantwortungsbegriffs ausleuchtete: Theologische Wurzel (Verantwortung als die Pflicht, auf den Ruf Gottes zu antworten, Stichworte: Karl Barth, Buber, Levinah). Beobachtung zur rechtlichen Verantwortung mit einer interessanten Kluft. Während im Strafrecht der Verantwortungsbegriff im Laufe der Zeit abgeschwächt wurde, ist er im Zivilrecht immer strenger geworden (Haftung von Unternehmen etc. – das dürfte was mit einem gewandelten Blick auf das Individuum in der modernen Welt zu tun haben: es wird als mehr eingebunden und weniger verantwortungsfähig angesehen, bzw. die „grossen agents“ - Unternehmen und deren Chefs – werden als die waren Macher angesehen). Dann zu Verantwortung in der Philosophie als Ausdruck zweiter Aspekte: Reaktion auf den Erfolg der wissenschaftlichen Weltsicht, Versuch, die Komplexität der Welt neu zu fassen (da der Begriff der Pflicht nicht mehr funktioniert, die normativen Netze werden schwächer). Schliesslich zu „Verantwortung“ im Engineering. Erinnerung daran, dass der Beruf des Ingenieurs aus dem Militär kommt: Entwicklung von Waffen und Verteidigungsanlagen. Erst im 19. Jahrhundert entstand der civil engineer. Aus dieser Tradition war Verantwortung eben eher Pflicht im Sinn der soldatischen Pflicht – und auch der Switch ins Zivile änderte das zunächst nicht (man war nun halt der Gesellschaft verpflichtet). „Verantwortung“ im heutigen Sinn kam erst im 20. Jahrhundert in die Ingenieurswissenschaften (dazu brachte er interessante Fallbeispiele: Dammbau bei Los Angeles in den 1930er Jahren). Seine (unklare) These: Ingenieur als Beruf verschwindet, wir werden alle zu Ingenieure (die Rede vom „Meta-Engineering“ verstand ich nicht).
Jeroen van den Hoven brachte dann interessante Beispiele dazu, wie (Un-)Werte im Design technischer Systeme sich niederschlagen können. Zuerst aber eine Beobachtung zur Denkweise des Ingenieurs wenn er mit ethischen Dilemmas konfrontiert wird (z.B. Trolley-Dilemma): Das ist schlicht schlechtes Design. Man hätte verhindern müssen, das so was überhaupt hätte passieren können. Vorab die vielen Beispiele waren dann interessant, während er dann später noch eine Vielzahl neuer Verantwortungsobjekte für Ingenieure (und auch den Nutzern der Systeme) identifizierte – doch hier stellt sich das Complianceproblem.
Jillian Craigie thematisierte dann in der Session das Problem des Informed Consent bzw. autonomen Entscheidung in Falle von Krankheiten, die die Autonomiefähigkeit beschädigen könnten (Ihr Beispiel: Anorexie). Untersuchung der These, man solle die Werte, welche die Patienten bei ihren Entscheidungen leiten, mit in die Evaluation ihrer Autonomiefähigkeit miteinbeziehen. Habe dann nicht mehr alles präzise erfasst. Mir scheint aber: das erweitert zwar das Blickfeld, macht das Dilemma aber nicht einfacher.
22.-25.07.09: Role of University Konferenz - Monte Verità
Nachfolgend schreibe ich nur einige wenige Gedanken und Zusammenfassungen auf zu den einzelnen Sessions unserer Konferenz „The role of the university in our time“ (war Mitorganisator). Auf der Konferenz-Website finden sich die Paper bzw. Entwürfe der einzelnen Personen. Die Diskussionsgruppen und die Schlussdiskussion haben wir gestrichen, zu den einzelnen Panels schreibe ich nichts (diese wurden aufgenommen, ob wir sie transkribieren, ist noch unklar).
Starker Beginn am Mittwoch mit Andrew Abbott, der am Beispiel des britischen Hochschul-Evaluationssystem RAE (Research Assessment Exercise) die (negativen) Reaktionen der Wissenschaftler auf RAE im Sinn einer ethnografischen Studie untersuchte. Interessante Idee, die zentralen Begriffe „excellence“ und „quality“ im Paper dann mit Ersatzbegriffen zu belegen. Hauptergebnisse (d.h. die Einschätzungen der Wissenschaftler zu diesen Begriffen) sind: „excellence“ ist nicht messbar, nur in-group beurteilbar, veränderlich in Raum und Zeit aber im Zeitverlauf monoton steigend und anfällig auf „corruption“. Es gibt aber keinerlei inhaltliche Festlegung von Exzellenz - und das in keinen Disziplinen, d.h. der Exzellenz-Diskurs hat mit Disziplinengrenzen nichts zu tun. Nathalie Richards Vortrag ging von der Unterscheidung Wissenschaftler - Intellektueller aus (in der Philosophie: philosophe vs. penseur), die evt. im französischen Kulturraum ausgeprägter ist als anderswo (zu überprüfen). Drei Beispiele dazu, die (natürlich) zeigen, dass die Erfolgsbedingungen beim Intellektuellen anders sind: er ist erfolgreich, wenn er als Intellektueller sein Leben (ökonomisch) meistern kann, d.h. u.a. Erfolg in Salons hat, Bücher verkaufen kann. Interessante Frage: was passiert mit den Intellektuellen in einer Universitätskultur, die von Exzellenz geprägt ist? In der Diskussion dann zahlreiche Voten zum Exzellenz-Begriff: im deutschen Kontext ist z.B. Exzellenz stark mit der Idee der Elite verbunden. Man beachte, dass man die Einführung solcher Messverfahren auch als Ausdruck des Misstrauens gegenüber den Wissenschaftlern ansehen sollte (faktisch ist aber auch die Bemessung von Exzellenz weitgehend ein innerwissenschaftliches Geschäft, oder?). Zentral ist sicher, dass geklärt werden muss, auf welcher Zeitskala man Exzellenz bemessen will. Man sollte hier evt. auch vermehrt biografische Informationen einzelner (retrospektiv berühmter) Wissenschaftler genauer untersuchen: was würden sie als den wichtigsten Beitrag ihrer Arbeit ansehen (wenn man nicht mehr im Druck ist, seine Gelder via „Exzellenz“ zu begründen, ist man evt. ehrlicher)?
Ilana Löwy begann mit der Selbstbeobachtung, wie man ein Empfehlungsschreiben für einen Wissenschaftler verfasst. Interessante Beobachtung, dass im Nachdenken über Wissenschaft wie auch in der Wissenschaft selbst die Frage nach den Motiven, warum man Wissenschaftler sein will, mehr und mehr in den Hintergrund rückt. Paper selbst ist auch interessant. George Weisz untersucht den Unterschied zwischen Forschung und Praxis am Beispiel der Medizin/Klinik (sicher ein gutes Beispiel dafür, wobei aber fraglich, inwieweit auf andere bereiche verallgemeinerbar). Eine Hauptbeobachtung: das grosse Mass an Standardisierung in der klinischen Praxis, das für ihn Ausdruck der Tatsache ist, dass Kliniken (bzw. das Medizinsystem insgesamt) immer grösser geworden ist und es solche Standardisierungen für die Kontrolle des Systems (von Leuten und von Information) braucht. Ohne Standardisierung ist weder Transparenz noch definierte Verantwortungsbeziehungen (accountability) möglich. Interessant ist auch, dass im Kontext solcher Standardisierungen eine neue soziale Rolle geschaffen wird: jene des medical educators. Und wichtig ist, auch dass dadurch die Toleranz für Diversität im klinischen Handeln abnimmt.
Shaul Katz war in seinen Ausführungen nahe an Ben-David und untersuchte zwei Polaritäten, die auch Ben-David interessierten: small-big und center-periphery (am Beispiel der israelischen Wissenschaft). In Israel begann Wissenschaft als „Kolonialwissenschaft“ (noch während der britischen Mandatszeit), hatte später aber (aus einleuchtenden Gründen: Immigration, Sprache) rasch Anbindung an die grossen Wissenschaftszentren. Chikako Takeishi sprach darüber, wie Ben-Davids Konzept der „centers of learning“ in Japan eingeführt wurde und welche Folgen das hatte. Offenbar läuft auch in Japan (seit 2007) eine grosse Universitätsreform (es gibt dort 765 Unis). Mehr dazu im Paper.
Rivka Feldhay untersucht den Unterschied zwischen Universitäten in kleinen und grossen Ländern. Hinweis darauf, dass Disziplinen für die Bewahrung von Wissen und Methoden wichtig sind (d.h. im Zeitverlauf ist die interessante Frage nicht, dass Disziplinen fusionieren sollten, sondern wie sich neue bilden); weitere interessante Gedanken im Paper. Dorothee Kimmich sprach darüber, was „Innovationen“ in Geisteswissenschaften sein könnten (zweifellos ein symbolisch überladener Begriff, vor allem heute). Zuerst einige begriffliche Unterscheidungen, z.B. zwischen Innovation und Kreativität (ersteres kann als Produkt eines kreativen Prozesses angesehen werden). Eine Beobachtung: in den Geisteswissenschaften spricht man kaum von „Innovation“ (vielleicht auch, weil man das Wort durchschaut hat?).
Der Donnerstag begann mit einer quantitativen Session. Das Paper von Nicolas Carayol war wohl deutlich zu technisch für die meisten - auch wenn er es dann in der Präsentation runterbrechen konnte (für mich ist die Sache sehr interessant betr. meinen eigenen Zitationsanalysen). Doch wenn ich das richtig verstanden habe, gibt es einen zentralen Punkt, der nicht thematisiert wurde. Er scheint nämlich mathematisch gezeigt zu haben (was als Intuition ja schon besteht), dass jeder Vergleich von Universitäten, der auf Verteilungen von Eigenschaften (ob Zitationen oder was auch immer) beruht (und nicht auf einen einzigen quantitativen Wert - und das macht ja niemand), in den meisten Fällen nicht in ein klares Ranking führen kann (d.h. es gibt meistens kein „complete dominance ranking“). Ivan Chompalov präsentierte die sich über zehn Jahre erstreckende Studie zu wissenschaftlichen Grossprojekten, in denen zahlreiche Organisationen kooperierten (nicht nur wissenschaftliche, auch staatliche sowie Unternehmen). Die Zahl solcher Kollaborationen (bzw. der Wissenschaftler, die in einem Projekt zusammenarbeiten) hat enorm zugenommen, vorab in bestimmten Naturwissenschaften. Die Ergebnisse weisen darauf hin, dass sehr viele Faktoren den Erfolg solcher Kooperationen bestimmen (wie wohl zu erwarten war) - es fanden sich nur wenige (und auch nicht so interessante) gemeinsame Muster (ein Punkt: Projekte, die von Universitäten initiiert wurden, sind tendenziell bürokratischer organisiert).
Liah Greenfeld sprach zur „Stagnation“ der Sozialwissenschaft und den Gründen dafür - viel zu lang (einfach das Paper vorgelesen). Ihr Wissenschafts- und Fortschrittsbegriff sind sowohl empirisch unzutreffend als auch normativ ungeeignet - es dürfte sich um genau jene Punkte handeln, die man von Ben David heute kaum mehr brauchen kann. Peter Wood sprach (am Beispiel der Sustainibility-Bewegung an den US-Hochschulen) ein an sich durchaus interessantes Thema an - ein wichtiges empirisches Faktum (falls das stimmt; er brachte das erst am Schluss seines Vortrags) ist die Beobachtung, dass vor ein, zwei Jahren erstmals mehr Leute an amerikanischen Unis angestellt sind, die in der Administration und in den diversen Programmen (diversity, affirmative action, sustainability etc.) arbeiten als in Lehre und Forschung. Doch dieses Faktum verdient eine bessere Untersuchung als die von Wood präsentierte (das war eher eine Gegen-Ideologie zu einer gewiss ebenfalls fraglichen (und karikierten) Ideologie).
Beate Krais präsentierte eine Studie zur Frage, warum es in der Wissenschaft das Phänomen der leaky pipeline gibt (der Anteil der Frauen nimmt ab, je höher man in der wissenschaftlichen Hierarchie steigt), obgleich man von formalen Hindernissen kaum mehr sprechen kann. Sie untersuchte die Theorie der „self-elimination“ genauer und identifizierte diverse subtile Faktoren, die auch mit der Kultur des „wissenschaftlichen Wettbewerbs“ zu tun haben (mehr dazu im Paper). Roger de Weck präsentierte dann eine Geschichte zum Wechselverhältnis von Medien und Universität mit einem Bekenntnis dafür, dass sich die Universität den Trivialisierungen, die die Medienwelt mehr und mehr dominierten, entziehen sollte. Ich bezweifle, dass sein idealisierendes Bild der Massenmedien historisch stimmt - diese waren doch immer schon primär Unterhaltungsmedien. Der Verweis auf die Aufklärungs-Presse (18. Jahrhundert) ist fraglich (denn wer konnte damals schon lesen?). Auch dieses Thema verdient eine genauere Analyse (die auch das Paper nicht liefert). Es folgte dann das Panel mit Gerd Folkers und Britta Padberg (keine Notizen).
Der Freitag begann mit Mario Coccia und seiner Analyse der Auswirkungen der Reform des italienischen Hochschulwesens (Public Research Institutions). Schöne Darstellung dessen, wie die gesteckten Ziele im wesentlichen nicht erreicht wurden: Einführung von Projekt Management Konzepten (z.B. Matrix-Organisation) verfehlte das Ziel ebenso wie die Idee, Forschungszentren zu fusionieren um die Produktivität der Forschung (Output pro Forscher) zu erhöhen (das Gegenteil traf ein). Grund für diesen Wandel sei die „Kommerzialisierung“ der Forschung (wobei ich denke, dass diese Kommerzialisierung meist zu einfach und zu holzschnittartig gezeichnet wird - inwieweit hat diese auch eine rhetorische Funktion?). Man sollte eigentlich einmal genauer die „Management-Traditionen“, die es in der Wissenschaft selbst gibt, genauer ansehen. Christoph Mandl präsentierte einige interessanten Beobachtungen hinsichtlich kultureller Unterschiede in US-Institutionen und europäischen (österreichischen) Unis. Er vertritt ein anderes Bild von „unternehmerisch“, wenn er von unternehmerischem Denken bei den Unis spricht (nicht ein Platzhalter für „kommerziell“ oder so): es geht nicht um Strategien, sondern um Ziele. Ich denke, an diesem Wort solle man mehr herumdenken - und auch daran, wer der unternehmerische Akteur sein soll (Forscher, Uni-Verwaltung, Hochschullehrer).
Claudius Gellert zeichnet ein historisches Bild der deutschen Universität (das gemäss Stichweh zu spät beginnt) im Vergleich zur amerikanischen Uni - eine Zusammenfassung der vorherrschenden Sicht auf diese Thematik (soweit ich das verstehe). Eine Beobachtung: die unterentwickelte Kultur ethischer Standards an deutschen Universitäten (die dann auch durchgesetzt werden). Richard Münch fokussierte in seinem Vortrag dann die Metaphorik von „Wettbewerb“ (zwischen Forschern/Universitäten), und ging weniger auf seine (interessanten) Überlegungen zur „kognitiven Geschlossenheit“ der Geisteswissenschaften in Deutschland ein.
Thomas Schott in seinem lebhaften (clownesken) Vortrag sprach dann weiter zu „Entrepreneurship“, ohen aber eine befriedigende Definition zu liefern - wohl auch deshalb weil auch dieser Begriff derart symbolisch aufgeblasen ist (wie Innovation und Exzellenz). Rudolf Stichweh schlug dann den grossen historischen Bogen ab dem Mittelalter und zweifellos sind in den präsentierten Zahlen viele Gründe für den Wandel im Hochschulwesen verborgen: 1900 gab es weltweit 500'000 Studierende in einigen hundert Unis (weltweit 1% der relevanten Altersgruppe), 2000 gab es weltweit 100'000'000 Studierende in 20'000 Unis (je nach Land 30-80% der relevanten Altersgruppe). Zahlen für die USA betr. durchschnittlicher Aufenthaltszeit im Bildungssystem: 1890: ~6Jahre, 1970: ~14 Jahre. Weitere interessante Gedanken im Paper. Zum Panel der Studienstiftler habe ich keine Notizen gemacht.
Am Samstag dann zuerst Anke te Heesen mit einem eher peripher scheinendem Thema: der Bedeutung von Sammlungen an den Universitäten. Doch früher waren solche Sammlungen für Unis sehr wichtig (auch als Statussymbol). Interessant waren die Gedanken zur heutigen Nutzung von Sammlungen (und Ausstellungen, sie sich solcher Sammlungen bedienen) als „research tool“ (die Frage ist: was wäre der Forschungsgegenstand? Doch eine heuristische Bedeutung hätte ein solcher Blick auf Sammlungen sicher). Dimitri Panchenko sprach dann vom Aufkommen der Wissenschaft im antiken Griechenland (auch eher off the track). Erstaunlich ist immer wieder, wie sich gewisse Vorstellungen von der Rolle des Experiments (als Theorienüberprüfer - doch so einfach ist es eben nicht) trotz nun schon jahrzehntelanger wissenschaftshistorischer Forschung dazu immer noch halten…
Michael Ben-Chaim machte dann ein Plädoyer über Bildung generell (vor der universitären Stufe) mit Verweis auf die US-Situation mit ihren sicher grossen Problemen in diesem Bereich. Die Frage der Bildungsstandards, die er in einem Paper anspricht, thematisierte er im Vortrag nicht (dort finden sich auch einige fragliche Punkte). Yaron Ezrahi brachte dann einige interessanten Punkte zu den Auswirkungen der „Kommerzialisierung“ der Hochschulen im Verbund mir gleich mehreren Trends: Abnahme des Status der Wissenschaft (als nötig für den Erhalt der Demokratie), Verlust eines „moral holism“, Medialisierung des Wissenschaftsbetriebs. Die Wissenschaft habe ihre Rolle als „Skizzierer der Zukunft“ an die Wirtschaft verloren, die Rolle des Wissenschaftlers selbst „diversifiziert“ sich (ich frage mich manchmal: vielleicht ist die Zahl der interessanten wissenschaftlichen Fragen endlicher, als man denkt - und auch darauf reagiert die weltweit enorm gewachsene Zahl an Professoren).
22.-24.06.09: NDES 2009 Rapperswil
Montag war ich beschäftigt mit administrativen Arbeiten und Dienstag anderweitig verpflichtet. Nur einige wenige Notizen zu einigen Hauptvorträge vom Mittwoch. Jürgen Schmidhuber sprach zu Kompression (Datenkompression, messbar in Bits) und präsentierte diese als umfassendes Erklärungsprinzip für zahlreiche unterschiedliche Phänomene wie Schönheit, Neuheit etc. Die Idee ist: Fortschritt ist Fortschritt in der Fähigkeit, Daten zu komprimieren (z.B. ist ein wissenschaftliches Gesetz eine kürzere Beschreibung einer Klasse von Phänomenen als das Phänomen selbst. Ist an sich eine schon seit längerem diskutierte Geschichte - und einige der präsentierten Beispiele sind nicht plausibel. Z.B. die Idee: Schönheit sei proportional mit der (kleineren) Menge an Bits zur Beschreibung des schönen Objektes. Wäre Schönheit eine monotone Funktion der Zahl der Beschreibungs-Bits, wäre das Maximum bei 0 Bits, was offensichtlich Unsinn ist. Natürlich spielt z.B. Symmetrie (und damit ein Komprimierungs-Faktor) eine Rolle - aber das Maximum ist eben vorher (d.h. man muss die Objekte, deren Schönheit man bemessen will, zuvor in eine einheitliche Klasse bringen - und das hat mit der Zahl der Bits selbst nichts zu tun). Dennoch sind sicher einige Intuitionen interessant: z.B. die Idee, dass man den „Reward“ eines kognitiven Systems mit der Zahl der eingesparten Bits der Repräsentation von Erfahrungen in Beziehung bringen kann; oder die Idee, dass Entdeckungen sprunghafte Verbesserungen der Kompressionsfähigkeit eines Systems sind. Die Frage ist nur, wie stark diese Analogien für praktische Anwendungen wirklich tragen.
Sebino Stramaglia sprach zur Frage, wie man aus gemessenen Daten das darunter liegende Netzwerk eines Systems erkunden kann - zweifellos ein zentrales Problem in der Neurowissenschaft, Systembiologie oder auch Klimamodellierung. Sehr interessante Ausführungen, die ich nur teilweise erfassen konnte (bin da zuwenig drin). Der klassische Weg ist natürlich, davon auszugehen, dass die Messpunkte a priori unabhängig voneinander sind und dann die Korrelationen zwischen den Zeitserien jedes Messpunktes zu bestimmen. Dann die Methode der partial correlations (stehen in Beziehung zur Inversen der Korrelationsmatrix, Nicht-Nullstellen ergeben Netzwerk-Verbindungen, aber nur ein nichtgerichtetes Netz). Weiter die Methode der Bayesian networks. Dieses Verfahren gibt gerichtete Netze, aber mehrere Möglichkeiten hinsichtlich der genauen Konnektivität, so dass man weitere Verfahren anwenden muss. Bemerkungen zu dynamischen Bayes’schen Netzwerken (Kolaczyk 2009). Sollte die Präsentation anfordern, hat viele interessante Infos.
Hans Herrmann sprach zur Robustheit von Netzwerken (habe den Anfang leider verpasst). Robustheit ist ein Faktor, der erwünscht ist, aber zuweilen (z.B. bei Bot-Netzen und dergleichen) auch vermindert werden sollte. Allopponian networks als exemplarische Klasse robuster Netze (siehe PRL 94 018702, 2005): sind skalenfrei und haben small-world-Eigenschaft. Wichtig ist auch: Die Robustheit von Netzen kann man nur relativ zu einer bestimmten Angriffs-Strategie quantifizieren. Er präsentierte ein interessantes Beispiel von Netzwerken, die man dadurch robust (oder nicht robust) macht, indem man nur die Stärke der Verbindungen zwischen den Knoten verändert (PRL 102 018701, 2009). Dann die Untersuchung der schlimmstmöglichen Angriffs-Strategie: man entfernt immer jene Knoten mit dem höchsten Degree (die meisten Verbindungen). Wie wehrt man so was ab? Durch dynamische Re-Allokation der Verbindungen, ohne dass die Degree-Distribution des Netzwerks (und damit auch der Aufwand an Verbindungen) sich verändert. So kann man z.B. in der Peripherie von Netzwerken Ketten generieren, die dann als Ausweichwege figurieren, wenn im Zentrum hochverbundene Knoten entfernt werden. Der Aufwand für den Aufbau solcher Bypässe wächst unterproportional zur Netzwerkgrösse, ist also effizient. Dazu brachte er ein sehr interessantes Beispiel, wie man mit verhältnismässig wenig Aufwand das europäische Power-Grid robuster machen kann.
25.05.09: Seminar Natur und Kultur
Schlussdiskussion. Mich interessiert vorab der Begriff der „kulturellen Evolution“. Definiert dieser dasselbe Framework wie „Evolution“ in der Biologie? Gründe für die Einführung dieses Begriffs sind evt. auch die Abkehr von deterministischen Geschichtsvorstellungen. Doch (mindestens) ein wichtiger Unterschied besteht zur biologischen Evolution: Im Zug der kulturellen Evolution werden umfassende Sollens-Vorstellungen formuliert (wie die Kultur sein soll, wie die gesellschaftliche Organisation sein soll etc.) – und die wiederum wirken im Prozess einer kulturellen Evolution. Ein solches Äquivalent scheint es in der biologischen Evolution nicht zu geben. Was „produziert“ eigentliche biologische Evolution? Arten und deren Vernetzung? Und was wäre das Äquivalent bei einer kulturellen Evolution? Sie produziert Kulturen? Zudem, warum will man Kulturprozesse unter dem Gesichtspunkt der Evolution verstehen? Weil man ihre Mechanismen verstehen will – und dieses Wissen wird ja dann ebenfalls in den Prozess rückgekoppelt. Es bestehen also mindestens zwei Feedback-Mechanismen in kultureller Evolution, die in einer biologischen nicht vorkommen. Deshalb ist die Frage berechtigt, ob mit dem Begriff „kulturelle Evolution“ wirklich der gleiche Erklärungsraum aufgespannt wird wie bei der biologischen Evolution.
19.05.09: Kolloquium Huppenbauer
Textausschnitt von Nozick zu Gerechtigkeit. Grundproblem ist, dass wir nur einen Textausschnitt (mit Kürzungen) haben und man an sich das ganze Buch lesen sollte, um den Kontext zu verstehen. So gesehen ist seine Gerechtigkeitsverständnis formal in sich stimmig aber inhaltlich wird viel offen gelassen. Grundsätzlich wendet er Gerechtigkeit auf das Problem an, wie Besitztümer innerhalb einer Population verteilt sind und inwieweit diese Verteilung gerechtfertigt werden kann. Seine Anspruchstheorie hat drei Grundsätze, die im gegebenen Abschnitt material nicht weiter bestimmt werden:
-
Grundsatz der gerechten Aneignung von Besitz (d.h. der Übergang von „herrenlosem Besitz“ zu Eigentum, das kann auch das Schaffen eines Besitztums beinhalten).
-
Grundsatz der gerechten Übertragung von Besitz (mit einschliessend, wie ein besessener (gutes Wort hier!) Gegenstand wieder in den herrenlosen Zustand übergeführt wird).
-
Berichtigungsgrundsatz zur Korrektur von Verteilungen, die aufgrund der Verletzung der Grundsätze 1 und/oder 2 entstanden sind.
Sein Gerechtigkeitsverständnis ist also rein prozessorientiert. Werden die Grundsätze 1 bis 3 korrekt angewendet, ist jegliche resultierende Verteilung von Besitzgütern gerecht und eine Umverteilung kann nicht unter Bezugnahme auf Gerechtigkeit gerechtfertigt werden (möglicherweise auf Bezugnahme anderer Prinzipien, die in seinem Minimalstaat gelten). Natürlich: in die materiale Ausgestaltung der Grundsätze 1 bis 3 kann sehr viel reingepackt werden – und insofern ist die Theorie unbefriedigend da unterdeterminiert. Interessant sind aber die grundsätzlichen politischen Schlüsse, die aus diesem Perspektivwechsel resultieren: Demzufolge braucht jede zielorientierte Gerechtigkeitsvorstellung („strukturelle Gerechtigkeitsgrundsätze“) eine praktische Implementierung von Zwang in der Gesellschaft. Viele solche strukturelle Gerechtigkeitsvorstellungen haben einen einseitigen Fokus auf den, der was bekommen soll und vernachlässigen die mögliche Verletzung von Rechten jener, die was geben müssen. Das ist die Pointe von Nozick: Wird Gerechtigkeit prozedural verstanden (und es gibt gute Gründe, Gerechtigkeit so zu verstehen), so beinhaltet jede Umverteilung einen zu rechtfertigenden Zwangsmechanismus, wobei die Rechtfertigung selbst nicht über das Prinzip der Gerechtigkeit laufen kann.
11.05.09: Seminar Natur und Kultur
Thema ist der Text von Kim Hill über „animal culture“ – quasi ein Kovertiten-Text eines Biologen, der über drei Jahrzehnte an einen kontinuierlichen Übergang der definierenden Elemente von „Kultur“ bei Tieren und Menschen glaubte und heute einen qualitativen Unterschied sehen will (as implizit einfach eine Anpassung der Definition seines Kulturbegriffes ist). Marschall kritisiert in seiner Vorstellung des Textes die Plausibilität dieses Übergangs – zudem werden die Begriffe im Text selbst unpräzise verwendet (z.B. Übergänge von „social“ zu „cultural“, unklarer Bergriff von „information“). Hinweise von Marschall über die Bezeichnung von Menschengruppen, die keine Landwirtschaft und keine Tierhaltung betreiben. Üblich ist heute „Wildbeuter-Gesellschaften“ (im englischen manchmal auch „foreaging societies“), früher sprach man von Jäger-Gesellschaften oder Jäger-Sammlerin-Gesellschaft (da geschlechtstypische Spezialisierung).
Die drei Komponenten von „Kultur“ gemäss Hill sind: Erstens, Techniken, die entwickelt und weitergegeben werden. Zweitens, Regelsysteme, die an Sanktionssysteme geknüpft sind. Drittens, symbolische Verstärker von Regeln. Erstaunlicherweise spricht er nie die Sprache als Merkmal an. Gemäss Hill findet sich bei Tieren nur die erste Komponente von Kultur. Typisch für menschliche Kultur sei zweierlei: Vorhandensein von Lernmechanismen („Unterrichten“) vorab für soziale Normen (andere Formen von lehren finden sich im Tierreich durchaus auch). Akkumulation von sozialem Wissen (hier wäre der Hinweis auf Sprache und Schrift angebracht). Zudem solle man Kultur nicht mittels typischen Klassen von Verhalten definieren – vielmehr seien diese Verhaltenstypen das Resultat von Kultur, d.h. Kultur produziert typische Arten von Verhalten und typische Gegenstände. Man sollte übrigens auch vom Unterschied Kultur (Einzahl) und Kulturen (Mehrzahl) sprechen. „Kultur“ in Einzahl als formale Definition, „Kulturen“ könnten dann inhaltliche Unterschiede derselben formalen Definition oder auch aus Unterschiedlichen formalen Definitionen von „Kultur“ resultieren.
Hinweis von Marschall zur klassischen Kulturdefinition von Tyler aus dem Jahr 1871: diese entstammte aus einem Buch mit dem Titel „Primitive Culture“ – und die Verknüpfung dieser zwei Begriffe war im damaligen victorianischen England ein Skandal (es ging ihm auch nie um eine Ausweitung des Kulturbegriffs auf Tiere). Und noch ein Literaturhinweis: Maurice Bloch: What goes without saying.
Noch ein Gedanke zu einem der zwei Argumente für die „Konvertierung“ von Hill: Die Wildbeuter-Gesellschaften, in denen er seine Feldstudien gemacht hatten, hatten sich immer beleidigt gefühlt, wenn er von einem Kontinuum zwischen Tieren und Menschen sprach. Dieses beleidigt Sein hat zwei Komponenten: zum einen sind sich diese Gesellschaften wohl bewusst, dass sie Beobachtungsobjekte eines Ethnologen sind und die Kontinuumsthese kann dann als Abwertungsstrategie angesehen werden, die sich ja im Verhältnis europäische Kultur versus die „Barbaren“ immer wieder findet. Zudem verweist das beleidigt Sein auf eine positive Überhöhung der Normensysteme, deren Nutzung ja mit Kosten verbunden ist – diese Überhöhung könnte auch ein Kulturmerkmal sein.
05.05.09: Kolloquium Huppenbauer
Text von Amartya Sen über Freiheit und die Grundlage der Gerechtigkeit. Kernpunkte des Textes sind unter anderem die Frage der Informationsbasis normativer Ethiken (welche Informationen werden ein- und ausgeschlossen wenn es darum geht, normative Entscheidungen zu treffen?), das Problem des Messens und Vergleichens des Wohlergehens von Individuen und das Konzept der Verwirklichungsmöglichkeiten.
Er diskutiert drei konkurrenzierende Theorien aus der Perspektive ihrer Informationsbasis: Utilitarismus (nur Nutzen – aber das könnte man bestreiten, denn das Haben von Rechten beispielsweise hat wie er ja selbst bemerkt eine mittelbare Wirkung auf den Nutzen und diese nachordnung ist gar nicht so wichtig – Hauptsache, man kann die Informationsbasis entsprechend verbreitern), der Ansatz von Rawls (hier eher unklar, eventuell die Behauptung, Rawls mache einen zu kleinen Unterschied im Zweck-Mittel-Verhältnis der von ihm deklarierten Grundgüter) und der harte Liberalismus im Sinne von Nozik (Ausblendung der Folgen). Man könnte die drei Ansätze auch so unterscheiden: Utilitarismus sieht ein methodisches Primat in der Messbarkeit dessen, was Menschen wirklich interessiert, deshalb auch die Ausrichtung an einem einzigen Prinzip. Rawls will festlegen was es braucht, damit Verfahren funktionieren können (und das braucht auch etwas Empirie). Liberalismus setzt bestimmte Grundwerte/Rechte und ist insofern am wenigsten empirisch angehaucht.
In seinem Ansatz dann unter anderem wichtig: die Untershceidung zwischen functionings (Funktionen, die der Mensch braucht, Zustände und Fähigkeiten) und Verwirklichungs-Chancen (Optionen, wohl eine Funktion der inneren Möglichkeiten von Menschen und den äusseren Umständen unter denen sie leben). Interessant sind insbesondere seine Überlegungen zum Messproblem. Grundproblem dürfte sein, dass die Güter nicht in eine skalierbare Funktion gebracht werden können, da keine transitive Beziehung herrscht – man müsste auch hier wohl eher die Idee des Clustering weiter verfolgen.
04.05.09: Seminar Natur und Kultur
Thema sind die zwei Review-Texte zu „Kultur bei Tieren“ und wie man das methodisch nachweist. Kulturbegriff (hier auch „Tradition“): Regionale Unterschiede in Verhaltensweisen bei Tierpopulationen, das auf sozialem Lernen basiert und mehrere Generationen überdauert. Grundproblem beim Feststellen von Traditionen: in reinen Freilandbeobachtungen schwer feststellbar, in experimentellen Situationen mehr oder weniger arbiträr. Im Review wird ein Raster zur Einordnung solcher Untersuchungen gegeben anhand der Dimensionen Typen und experimentellen Konditionen. Zu den Typen:
-
Open group: Ein mit einer neuen Verhaltensweise vertrautes Individuum wird in eine Gruppe eingebracht und es wird beobachtet, wie sich diese Verhaltensweise ausbreitet. Diese experimentelle Situation ist nahe der Wildbahn, doch das Ausbreitungsmuster ist schwer zu bestimmen.
-
Linear chain: Man konfrontiert ein mit der neuen Verhaltensweise vertrautes Individuum A mit einem naiven Individuum B, das erlernt die neue Verhaltensweise und dann wird B mit einem naiven Individuum C konfrontiert etc. So kann man recht genau die Dauer (Lerndauer) und die Veränderung der Verhaltensweise beobachten, doch die Situation ist sehr arbiträr.
-
Replacement: In einer Gruppe, in der eine neue Verhaltensweise von mehreren Individuuen ausgeübt wird, wird nach und nach immer ein mit der Verhaltensweise vertrautes Individuum durch ein naives ersetzt, d.h. die naiven Individuen können von einer Gruppe (evt. Mehrheit) geübter Individuen lernen.
Zu den sieben experimentellen Konditionen siehe das Paper – im Wesentlichen werden die Kontrollbedingungen strenger. Was man dabei unter anderem messen kann: Zeitdauer der Erhaltung einer gewissen Tradition, Zahl der Individuen, die pro Zeiteinheit die Tradition übernimmt, Stärke der Veränderung der Tradition (verlangt quantifizierten Begriff der Tradition). Das Paper von Thornton & Malapert über die „willkürlichen Traditionen“ (solche, bei denen es gleich gute oder gar bessere Alternativen gibt) verdeutlich dann die Schwierigkeit solcher Studien.
Ein Grundproblem dabei ist immer: wie entsteht eigentlich die Innovation in der freien Wildbahn. Man sollte das eventuell entlang zweier Dimensionen einordnen. Zum einen die Dimension der natürlichen constraints, quasi der physikalischen Randbedingungen (Umgebung, Futtermenge, Klima etc.), zum anderen die Dimension der sozialen constraints. Mit „sozial“ ist gemeint die Entstehung von „sozialen Räumen“, in denen die natürlichen Gegenstände symbolisch dadurch aufgeladen werden, dass sie in der Interaktion mit anderen Wesen, die als agents eingestuft werden, eine Rolle spielen. Man kann sich das eventuell so vorstellen: Je mehr solche „sozialen Gegenstände“ da sind, desto stärker ist der „soziale Raum“ bevölkert und damit nehmen die constraints zu. Traditionen sind Cluster solcher sozialer Gegenstände, die durch deren Nutzung in gewissen Verhaltensmustern definiert sind. Man halt also ein zweidimensionales Schema, das diese zwei Achsen aufspannen mit vier Quadranten:
- Wenige natürliche constraints, wenig bis keine soziale Gegenstände (natürlich auch ein Hinweis auf die kognitiven Fähigkeiten der betreffenden Wesen): Hohe Verhaltensvariabilität, keine Traditionen.
- Viele natürliche constraints, wenig bis keine soziale Gegenstände: tiefe Verhaltensvariabilität, keine Traditionen.
- Wenige natürliche constraints, viele soziale Gegenstände: viele Traditionen.
- Viele natürliche constraints, viele soziale Gegenstände: wenige Traditionen.
Das vielleicht ein Weg, das Faktum zu erklären, warum Primaten in Gefangenschaft viel innovativer sind (beim ausbilden neuer Verhaltensweisen / Traditionen) als freilebende Tiere. Die Gefangenschaft bzw, die Betreuung durch andere agents (den Menschen/Betreuern) macht die dargebotenen Gegenständen, die Auslöser von Innovationen sein können, eben zu „sozialen Gegenständen“. In der Diskussion dann auch der Hinweis auf den cognitive load. Und dann auch die Frage, was sind überhaupt Innovationen? Eine neue Verhaltensweise, die stabil von mindestens einem Tier ausgeübt wird. Kann sich das etablieren (ausbreiten über die Gruppe und über die Zeit), wird das zu einer Tradition. Lese dazu Durkheimer über Arbeitsteilung (Suhrkamp).
27.04.09: Seminar Natur und Kultur
Texte zu den so genannten „maternal effects“ als ein Erklärungsansatz für ein Grundproblem von Darwin: die Variation von Phänotypen. Einzubetten ist diese Frage in die nature-nurture-Debatte, d.h. des Einflusses von Genen bzw. Umwelt auf diese Varianz (ein diesbezüglich wichtiges Buch war Fuller & Thompson: Behavioral Genetics, 1960) und die Fragen nach dem Zusammenspiel von Genen & verhalten (sollte man eigentlich nicht auch das Zusammenspiel von Genen und Wahrnehmung ansehen – inwieweit prägt Genvarianz Wahrnehmungsvarianz und darauf basierend dann auch Verhaltensvarianz?).
Idee der maternal effects aus Antwortkomponente der Frage: Inwieweit wird individueller Phänotyp durch die Umwelt, die ein Artgenosse erlebt hat, beeinflusst? Soll meistens ein maternal effect sein (gibt es denn auch anderes, wie sieht hier der Mechanismus aus?). Also die Idee: Mutter erlebt Umwelt – und das prägt sich auf den Phänotyp ihrer Nachkommen aus. Aber offenbar ist die Definition nicht so. wolf & Wade (neues Reviewpaper von 2009) sehen in „maternal effect the causal influence of maternal genotype/üphenotype on offspring phenotype“. Solche Effekte sind in der quantitativen Genetik schon lange bekannt und wurden bislang meistens als „Störquelle“ (Rauschen) betrachtet. Dann diese Grafik über „phänotypische Plastizität“, die an sich sehr unklar ist, denn was ist die Stetigkeitsbedingung entlang der Kontrollvariable „Umweltbedingung“? Wenn man es sichj genau überlegt, erscheint diese Abbildung Phänotyp vs. Umweltbedingung unsinnig.
Was als maternaler Effekt gehandelt wird:
-
Temperaturabhängige Geschlechtsbestimmung: u.a. bei diversen Reptilien (z.B. bestimmten Schildkrötenarten). Je nach Temperatur im Gelege entstehen nur Männchen, nur Weibchen oder beides. Durch Wahl des Brutortes (z.B. schattig oder sonnig) „bestimmt“ das Weibchen das Geschlecht. Aber so einleuchtend ist das nicht: zum einen kontrolliert sie ja nicht das Wetter, zum anderen müssten ja dann tendenziell weit mehr Weibchen entstehen als Männchen, da die Weibchen ja unter „Weibchen-Bedingungen“ erbrütet werden und es zunächst einmal plausibel ist, dass sie die gleichen Bedingungen ihrer Erbrütung sucht – dann wäre die Umwelt (d.h. andere Wetterbedingungen) ja eher das, was der Wahl entgegenwirkt. Oder es gibt andere Gründe, dass das Weibchen sich auch für Brutorte entscheidet, die Männchen bevorzugen – doch welche könnten das sein?
-
Phänomen der Diapause: bei Insekten: Unter Frühlings-/Sommerbedingungen gelegt, werden die Eier noch im gleichen Jahr zu Insekten, unter Herbstbedingungen verharren sie in einem Ruhestadium (Diapause). Dieser Effekt ist kein Resultat davon, dass die Eier selbst merken, welche Bedingungen herrschen (das prüft man durch Vertauschen der Eier), sondern die Wahl der Insektenmutter, wann sie ablegt, entscheidet das.
-
Weibliches Wahlverhalten bei sexueller Reproduktion: wenn das Weibchen ein Männchen mit ganz bestimmten Eigenschaften sucht (hängt aber wohl vom Mechanismus der Wahl ab, damit das als maternaler Effekt gelten kann).
-
Weibliches Brutpflegeverhalten: Die „licking-Experimente“ bei Ratten, die als epigenetischer Effekt nachgewiesen werden konnten (sieh dazu das Paper): Werden die Nachkommen häufig geleckt, induziert das Serotonin-induzierte Veränderungen im Hippocampus wie auch epigenetische Veränderungen, so dass dann die erwachsenen Tiere ihre Nachkommen auch vermehrt lecken. Das scheint mir aber eher so was zu sein wie epigenetisch fundiertes Lernen und sollte von jenen epigenetischen Effekten unterschieden werden, die sich über mehrere Generationen ausbreiten (das scheint bei diesem Beispiel ja nicht der Fall zu sein: werden die Nachkommen leckender Ratten Müttern zur Aufzucht gegeben, die nicht lecken, verlieren sie diese Präferenz).
21.04.09: Kolloquium Huppenbauer
Das letzte Kapitel von John Stuart Mills „Utilitarismus“. Hier nur einige wenige Beobachtungen zu einem ausgezeichneten Text. Gerechtigkeit etabliert ein Beziehungssystem. Die englischen Begriffe „feeling“ und „sentiment“ werden deutsch als „Gefühl“ übersetzt, sollten aber unterschieden werden. Feeling ist das Erleben des körperlichen Zustandes. Sentiment ist das reflektierte Erleben dieses Zustandes, also verbunden mit dem Wissen, dass z.B. ein bestimmtes moral sentiment gut ist – eine Verschwimmung der Dichotomie Emotion-Kognition, die eben interessant ist.
14.04.09: Veranstaltung in Hamburg
Nur wenige Notizen zu den anderen zwei Rednern der Veranstaltung des Instituts für Buddhismuskunde (habe ja ihre Vortragstexte. Schmidthausen zu Moralvorstellungen im frühen Buddhismus, deren Mitglieder man sich als Gemeinschaft von Weltentsagern vorstellen muss – im Gegensatz zu den Laien; d.h. Moral wird hier nicht als eine Sammlung von Lösungen für Probleme des gemeinschaftlichen Zusammenlebens gesehen. Interessant ist, dass auch dort schon so was wie eine moral-conventional Unterscheidung gemacht wird: Zum einen Anstandsregeln (wie man z.B. nach Almosen bittet) mit Klarer Funktionalität für den Orden. Zum anderen von Natur aus schlechte Taten, die vorab deshalb schlecht sind, weil sie eine Belastung für das Karma darstellen (moralisch schlechte Taten schädigen also den Täter). Grundproblem des Ethik-Verständnisses der buddhistischen Mönche: viele normalweltliche Dilemmas (z.B. darf man Gewalt gegen Angreifer einsetzen) werden schlicht nicht beantwortet. Nur wenige Texte gehen auf solche ein. Kern der Unmoral ist der „Durst“ bzw. die Gier nach Sein und Haben. Dagegen werden Techniken der Meditation eingesetzt (vorab auch zur Klärung der Folgen unmoralischen Handelns). Die Laien-Ethik ist von den Werten Fürsorge und Freigebigkeit (dient den Mönchen!) geprägt.
Weisse sprach aus einer erziehungswissenschaftlichen Perspektive über die Akzeptanz des anderen. Einiges zu Kohlberg, natürlich auch kritisches. Wichtige und unterscheidbare Entwicklungsschritte beim Kind sind Wissen über Werte und Compliance gegenüber den durch diese Werte geforderten Handlungen. Wichtig ist auch der Zusammenhang zwischen Moralentwicklung und gesellschaftlichen Trends. Dann noch etwas zu Ergebnissen einer grossen Religions-Studie (Befragungen in verschiedenen Ländern bei Teenagern), wo man meines Erachtens so was wie moralische Heuchelei findet: zum einen Betonung der Wichtigkeit religiöser Vielfalt, zum anderen festsitzende Vorurteile gegenüber Mitgliedern anderer Religionen.
04.04.09: Kolloquium Huppenbauer
Gerechtigkeits-Text von Aristoteles aus der Nikomachischen Ethisch (eine berühmte Passage). Als Begleitbuch ist Ursula Wolf (Nikomachische Ethik) zu empfehlen. Generelle Bemerkung zu Aristoteles-Üersetzungen: Begriffe werden nicht immer glech übersetzt, z.B. übersetzen gewisse Autoren „isos“ mit „gleich“, andere mit „fair“. Im Text wird das berühmte Schema der Gerechtigkeit vorgestellt mit der ersten Unterteilung Allgemeine Gerechtigkeit (das Gesetz betreffend) vs. Gleichheit (spezifische Fragen betreffend. Gleichheit wird dann noch weiter unterteilt in Verteilungsfragen (geometrische Verteilung), Fragen der vertraglichen Bindung (wo dann noch freiwillige von unfreiwilligen Verträgen unterschieden werden) und zuweilen noch Reziprozität (das sehen nicht alle Autoren so). Wie entwickeln und differenzieren sich eigentlich solche Schemen im Laufe der Zeit?
Einige wenige Fragen: aufpassen mit dem Begriff des Gesetzes – Aristoteles unterscheidet offenbar nicht zwischen Gesetz im Sinne des positiven Rechts und einem moralischen Gesetz. Zudem interessanter Begriff: Billigkeit – quasi ein Kriterium für Grenzfälle („Gesetzeslücken“ würde man heute evt. sagen).
30.03.09: Seminar Natur und Kultur
Text zur Nanotechnologie, eher ein Überblick mit Inhalten, die ich schon kenne. Der Referent ging dann noch auf einen zweiten Text ein von Jan Schmidt (aus dem gleichen Buch). Hier zeigt sich erneut das Problem von Mantelbegriffen wie eben „Selbstorganisation“, die meist sehr unpräzise gebraucht werden. Schmidt weist auf die neu aufkommende „Kontrollbegeisterung“ hin, von der die Nanotechnologie ein Ausdruck sei (hier müsste man vorab auch die neue Kontroll-Euphorie im sozialen/ökonomischen Bereich hinweisen, siehe Reaktion auf die Finanzkrise). Dann die wesentlichen Defizite des Begriffs „Nanotechnologie“, die sicher Wesentliches treffen:
-
Formal-Begrifflich unklar, da der Bezug auf die Grössenordnung alleine unsinnig ist. Zumal fehlen gemeinsame Methoden und Theorien (so sicher bin ich da nicht, ein gemeinsames „Theorie-Dach gibt es mit der QT sicher, und auch einige Methoden (Rasterkraftmikroskop) dürften vereinheitlichend wirken.
-
Unbestimmt hinsichtlich des Zwecks – eine korrekte Beobachtung (ausser man bleibt sehr allgemein: Manipulation des ganz kleinen)
-
Technische Probleme (Quanteneffekte, Nichtlinearitäten) – nicht zu vernachlässigen (faktisch kann man gar nicht so umfassend manipulieren, wie man vorgibt, es tun zu können – das zeigt sich auch in der Kluft zwischen den Bildern der populären Verbreitung von Nanotechnologie und den durch die Wissenschaftler erzeugten Bilder als Illustrationen faktischer Probleme und Ziele).
-
Grosse Unklarheiten hinsichtlich der Folgen der Nanotechnologie (z.B. Toxizität der Nanopartikel – oder auch die Nanobot-Fantasien).
-
„Ontologische Aspekte“ – die Trennung zwischen Natürlichem und Künstlichem verschwimmt (hier spielt aber vorab der lebensweltliche Aspekt eine Rolle – faktisch dürften man zu immer mehr künstlichen Dingen in ein „natürliches“ Verhältnis treten).
Generell sollte „Nanotechnologie“ und der ganze Diskurs darum eher von den Wissenschaftssoziologen untersucht werden – man kann hier viel über die Bedingungen und Triebkräfte über die Ausdifferenzierung von Disziplinen im heutigen Wissenschaftsbetrieb lernen (und auch die Ethik unterliegt dem Anreiz, eine „Scheindisziplin“ zu schaffen, die dann Gegenstand von ethischen Ergüssen sein kann). Faktisch aber scheint mir „Nanotechnologie“ ein ungeeigneter Klassifikationsbegriff für die damit verbundenen relevanten ethischen Probleme zu sein. Gewiss drückt er aus, dass in manchen Disziplinen die Einsicht gewachsen ist, die neuen relevanten Probleme bedingen eine Manipulation von Objekten auf der Nanoskala – doch der Grad der Relevanz ändert von Disziplin zu Disziplin. Insbesondere die Biologie dürfte ein rein instrumentelles Verhältnis zur Nanotechnologie haben – für das Verständnis der relevanten Probleme scheint die Systemperspektive (Netzwerk-Metaphorik etc.) weit relevanter.
02.03.09: Seminar Natur und Kultur
Das Kapitel aus dem Buch von Jesse Prinz (The limits of evolutionary ethics). Eine an sich sehr gute Argumentation gegen die eingängige Unterscheidung zwischen „natürlichen“ und „kulturellen“ Normen (die sich z.B. bei Nietzsche aber auch bei Hume und bei vielen heutigen empirischen Moralforschern findet) für zwei Thesen: Erstens, natürliche Normen sind nicht moralische Normen (das werden sie erst durch ihre Einbettung in eine Kultur). Zweitens, natürliche Normen können durch Kultur erweitert, verändert oder auch unterdrückt werden. Die Frage ist: was sind „natürliche Normen“. Wohl solche, zu denen sich eine überzeugende evolutionäre Geschichte erzählen lassen kann und biologisch fundierte Komponenten wie Emotionen, die diese Normen stützen, enthalten. Aber dennoch bleibt der Begriff etwas vage. Ansonsten ein empirisch angereichertes Kapitel mit folgendem Argumentationsmuster:
-
Altruismus als Ausgangspunkt der evolutionären Ethik vorstellen (ist faktisch das meistuntersuchte Phänomen). Erste Erklärungsansätze (kin selektion, altruistische Gene also Lösung des Gefangenendilemmas) und deren Kritik. Dann Hinweise darauf, welche Fähigkeiten Altruismus braucht (Gefälligkeiten geben und nehmen, Farienss evaluieren, Betrüger erkennen). Hinweis darauf, dass helfen nicht dasselbe ist wie teilen.
-
Dann der Hinweis, dass Altruismus nicht das einzige moralische Phänomen ist, das einer biologischen Erklärung zugänglich ist. Es gibt insbesondere noch soziale Dominanzverhältnisse und Sexualität, die Gegenstand der Moral sind (plus die erklärenden Emotionen dazu). U.a. Diskussion von Untreue und Inzucht.
-
Nun die Argumentation, dass die mit den genannten Feldern (Altruismus, Dominanzverhältnisse, Sexualität) verbundenen biologischen „Anteile“ an die Moral oft fehlinterpretiert oder übertrieben werden.
-
Ein erster Argumentationsstrang: die „Natürlichkeit“ dieser Normen beinhaltet nicht, dass diese gleich auch „gut“ sind. In der Tat wurden evolutionäre Argumente sowohl „pro-moralisch“ (natürliche Normen sind gut, Darwinian realism) als auch „contra-moralisch“ (die Natürlichkeit zeigt, dass Moral eine Illusion ist, Darwinian skepticism) eingesetzt. Dann vier Argumente, warum der evolutionäre Ursprung von Normen nicht dazu sagt, warum diese Normen „gut“ (im moralischen, oder eher: ethischen Sinne) sind.
-
Ein zweiter Argumentationsstrang: Warum man derzeit nicht annehmen kann, Primaten hätten so etwas wie einen „moral sense“. Detaillierte Auseinandersetzung mit den Argumenten von de Waal etc.
-
Ein dritter Argumentationsstrang: Kritische Analyse von Forschungen an Menschen, die auf einen angeborenen Moralsinn hindeuten würden.
-
Dann als Konklusion: der biokulturelle Ansatz: Moral als Nebenprodukt einer Reihe von Fähigkeiten, die in der Evolution aus anderen Gründen entstanden sind. Diese Fähigkeiten sind/können sein: Gewisse auf andere gerichtete Emotionen, Fähigkeit, Regeln formulieren zu können, Gedächtnis, Fähigkeit zu imitieren, „mind-reading“ als Voraussetzung, Meta-Emotionen zu haben. Dann eine Diskussion erneut unter beibezug empirischer Daten, die zeigen, dass trotz gemeinsam vorhandener biologischer „Bausteine“ für Moral die faktischen Normen sehr unterschiedlich sein können – und dies als Folge des Einflusses der Kultur. Diese Variationen sind auch nicht als Ausdruck fix verdrahteter Verhaltensmöglichkeiten anzusehen, vielmehr: culture rewrites our moral software.
24.02.09: Vierter Workshop des Graduiertenprogramms
Erster Vortrag von Nicole Miller zu Neuro-Enhancement. Zuerst begriffliches, dann generelle ethische Fragen der Enhancement-Debatte und dann die Stellung des Arztes (was sie interessiert). Zuerst zum Begriff: Enhancement: entweder bestehende Fähigkeiten des Menschen verbessern oder neue hinzufügen. Neuroenhancement dann entlang der klassischen Kategorisierung kognitiv (z.B. Ritalin, Antidementiva) und emotional (Antidepressiva, Oxytocin). Hinweis auf instrumentelle Verfahren (z.B. DBS), was derzeit aber noch kaum für Enhancement taugt. Und Hinweis auf Risiken von Enhancement praktischer Art: Oft geht Enhancement der Fähigkeit X auf Kosten anderer Fähigkeiten (typisches Beispiel: Drogen). Sowie Nebenwirkungen diverser Art. Dann die (fast schon) klassischen ethischen Themen der Enhancement-Debatte:
- treatment vs. enhancement: Unterscheidung (dürfte auch wichtig sein hinsichtlich er Erforschung solcher Verfahren: Man muss das ins treatment-Segment bringen um die klinischen Versuche ethisch zu legitimieren)?
- Gerechtigkeit (wer darf enhancen?)
- Uniformisierung menschlicher Verhaltensweisen?
- Moralischer Status des Natürlichen?
- Zulässigkeit von Persönlichkeitsveränderungen, Rolle von Authentizität?
- Legitimität von „Abkürzungen“ beim Erlangen gewisser Fähigkeiten (z.B. im Vergleich zum klassischen Lernen, siehe auch Dopingdebatte)
- Neue soziale Pflichen (u.a. praktische Gefährdung der Autonomie)
- Medikalisierung und Pathologisierung (auch Teil der obigen Unterscheidung tratment vs. enhancement)
- Enhancement als neues Handlungsziel der Medizin (und Bezug zum medizinischen Ethos)?
Sie interessiert sich für die Folgen des Enhancement für das Selbstverständnis der Medizin. Klassische Ziele: Gesundheit erhalten, fördern, rückgewinnen, Krankheit heilen oder lindern, in den Tod begleiten. (Hastings-Report, nennt drei Bereiche: Ziele, die klar zum medizinischen Ethos gehören, solche die damit vereinbar sind und solche die das nicht sind). Ihre These: man kann Enhancement nicht einfach als „nichtmedizinisches Ziel“ bezeichnen, Arzt soll Gatekeeper bleiben (Analogie zur Drogendebatte – doch da sehe ich Probleme. Man muss die kulturgeschichtlichen Aspekte des Drogenverbots ansehen, Medikalisierung hat dort eine andere Rolle). Gatekeeper-Rolle verlangt u.a. tendenzielle Skepsis gegenüber Enhancement (höhere Toleranzschwelle im Vergleich zu treatment), kein Anspruchsrecht auf Enhancement. Und dann folgen diverse weiterführende Fragen (doch braucht es hierzu eigentlich in der Ärzteschaft eine unité de doctrine?). Und dann noch die Beobachtung: der „Patient als Kunde“ ist ein instrumentell gebrauchter Ausdruck der ethischen Abwertung der Kundenbeziehung, die in der Medizinethik sehr verbreitet ist. Man braucht hier eine Karikatur der Kundenbeziehung („wer zahlt, befiehlt“), die es in faktischen Kundenbeziehungen in anderen Wirtschaftsbereichen so überspitzt ja gar nicht gibt. Vielmehr wird ja erwartet, dass man beraten wird etc. Darüber einmal etwas genauer nachdenken.
Dominik Roser spricht zur Diskontrate mit dem Hinweis, dass Diskontierung immer ein zentrales Element ökonomischer Argumente in der Klimadebatte ist. Diskontierung betrifft den Umgang mit der Berechnung von Nutzen/Kosten, die in der Zukunft anfallen (und in der Regel geringer gewichtet werden als aktueller Nutzen). Prämisse all dieser Überlegungen ist natürlich, dass die involvierten Nutzen/Kosten quantifizierbar sind und dann mit einer Diskontrate gewichtet werden (insofern ist eine Diskontrate eine Gewichtungsfunktion für Nutzen/Schaden). Der übliche Streit ist: wie sollen die Gewichte gewählt werden (denn je nachdem, wie sie gewählt werden, lohnt sich eine Klimaschutzmassnahme). Seine These ist nun: die Diskontrate ist unnötig, es ist moralisch falsch, dieses Problem als ein Problem der Nutzenmaximierung unter Einbezug der Diskontrate verstehen zu wollen. Vielmehr sollten die Pflichten gegenüber künftigen Generationen deontologisch verstanden werden (könnte man das nicht als Nebenbedingung in komplexere Diskontierungs-Berechnung einbeziehen?). Grund unter anderem: separatedness of persons nicht erfüllt (es sei nicht einzusehen, warum der Nutzen für Gut X für künftige Personen geringer bewertet werden soll, ?). Probleme, die sich hier ergeben: Ist Diskontieren innerhalb einer Generation erlaubt? Wie Individuiert man Generationen? Kann man Kosten für Pflichtenerfüllung nicht doch in Diskontierungs-Berechnungen einbeziehen (ich denke, doch).
Was er hingegen als ethisch bedeutsam ansieht, ist der Zins (dass dieser trotz Inflation positiv ist, ist nichttrivial). D.h. wenn eine Massnahme A mit Kosten X den künftigen Nutzen Y stiftet, eine andere Massnahme B mit weniger Kosten X’ den gleichen Nutzen Y, so ist B vorzuziehen. Mir scheint der Kern des Arguments zu sein: Bei Diskontierung bleibt man in der Beurteilung einer einzigen Massnahme A (und deren diskontierten Kosten, d.h. man muss gewichten), im Zinsargument wird verglichen – ist nur das der Witz der Sache? Zudem erscheint die Wahl eines Zinssatzes weniger willkürlich (da bessere historische Daten vorhanden) als die Wahl eines Diskontsatzes. Doch Zins und Diskontsatz hängen ja zusammen. Zudem gewichtet ja auch das Zinsargument die jetzige Generation mehr, wenn diese bestimmt ja den Zins (anhand dessen der künftige Nutzen bestimmt wird).
Ina Kaufmann spricht zu Vertrauen und Neuroökonomie, bzw. über den Vertrauensbegriff in der Neuroökonomie und der Organisationsforschung. Frage: welchen Beitrag leistet die Neuroökonomie zum Verständnis des Vertrauensbegriffs in der Organisationsforschung? Dazu analysiert sie eine Reihe von Studien, die ich auch kenne. Ein Grundproblem des neuroökonomischen Vertrauensbegriffs ist: man operationalisiert in diesen Trust-Games eigentlich die Prognosesicherheit seines gegenübers. Das operiert auf einer anderen Zeitskala als vertrauen. Zudem ist das so operationalisierte Vertrauen eine stetige Funktion, doch Vertrauen scheint mir eher eine Step-Function zu sein (man vertraut X sehr lange, bis es dann zusammenbricht – zudem dürfte es Hysteresis geben). Um die Sache genauer anzusehen, sollte man die normative Rolle von Vertrauen in der Wirtschaftsethik ansehen und dann vergleichen, welcher Vertrauensbegriff die Neuroökonomie hat und wie das zusammenpasst, dann kann man auch etwas Normatives zur Neuroökonomie sagen (unter anderem auch über die ethischen Folgen des Menschenbilds, das daraus resultiert).
Adrian Müllers Plädoyer für Suffizienz. Kernthese: das heutige Energieproblem lässt sich nicht mit Effizienz und erneuerbaren Energien allein lösen, man braucht den Suffizienzbegriff (also eine Vorstellung des „genug“, des Verzichts). Probleme von Effizienz: rebound-Effekt (die eingesparte Energie wird für anderes konsumiert), Zielverschiebung (man hat z.B. effizientere Motoren und dann aber schwerere Autos), aggregierte Verbrauchszunahme (die Einzehlandlung wird effizienter, doch es gibt mehr Handlungen). Und ökonomische probleme: Preisgestaltung (z.B. beim Emmissionshandel), Quantifizierungen bei der Kosten-Nutzen-Analyse, Marktversagen. Und bei den erneuerbaren Energien gilt: sobald sie grossflächig eingesetzt werden, hat man ein Problem. Deshalb braucht es Suffizienz. Um das weiter zu diskutieren, müssen unter anderem folgende Fragen untersucht werden:
- Verhältnis von Suffizienz zu Effizienz? (bzw: ist Suffizienz nicht einfach so was wie langfristige Nachhaltigkeit, auch Effizient ist ein akzeptiertes Suffizienzkriterium, das aber nicht ausreicht, Freiheit vor Gerechtigkeit setzt und Zahlungsfähigkeit als Kriterium akzeptiert, was möglicherweise ein Gerechtigkeitsproblem darstellt)
- Ethische Aspekte von Suffizienz? Will man Lebensstile oder Handlungen moralisieren (kann man das überhaupt klar unterscheiden)?
- Verhältnis der Suffizienz zum Liberalismus?
Er will Handlungen moralisieren, sollte aber klarer sagen, welche. Man sollte dazu untersuchen, welche „Verzichts-Narrationen“ es in Gesellschaften gibt und welche Rolle diese haben (sicher sind nicht alle gut, z.B. Verzicht in Kriegszeiten zwecks Unterstützung der Truppen (Metallspende für den Führer), und der Verzicht in den sozialistischen Gesellschaften ging auch nicht einher mit Umweltschutz). Zudem: funktioniert die Moralisierung von Handlungen in einer Zeit, in der das Gewissen externalisiert wird?
23.02.09: Seminar Natur und Kultur
Zweiter Text von Birnbacher zu Natürlichkeit, im Wesentlichen alles dort nachlesen. Kurz das Wichtigste (gemäss dem Vortrag, der war aber eher unklar, dann auch bei Birnbacher nachschauen): Es geht um die möglichen Gründe für die Berücksichtigungswürdigkeit der Natur (im Sinn: die Natur hat einen Wert). Diese können intrinsisch oder extrinsisch sein. Extrinsisches Position: Anthropozentrismus (nur Mensch hat intrinsischer Wert. Dann ist der Wert der Natur Resultat einer Zuschreibung, aus instrumentellen Gründen (im engeren Sinn: technisch/ökonomisch), oder auch nicht-instrumentellen Gründen (z.B. ästhetisch).
Nicht-antropozentrische Positionen nennen verschiedene Kriterien für intrinsische Werthaftigkeit von Naturgegenständen: Pathozentrismus (Empfindungsfähigkeit als Kriterium), Biozentrismus (in den Varianten: egalitär, abgestuft, holistisch (z.B. Arten), individualistisch (einzelne Individuen)), Ökozentrismus. Aber das ist ja alles wohlbekannt.
16.02.09: Seminar Natur und Kultur
Erster Text von Birnbacher zu Natürlichkeit, kam zu spät. Text ist aber gut und umfassend, dort nachlesen.
|