![]() |
![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() | |||
Die falsche Objektivität [3/4]
3 Der Geist als Maschine 3.1 Abstrakter Funktionalismus Die Physiker glauben heute, daß sie bald über eine umfassende Theorie verfügen werden, mit der sich alle physikalischen Phänomene beschreiben und erklären lassen. Für den Materialisten, für den alles Reale in letzter Analyse physikalischer Natur ist, wäre das zugleich eine Theorie, mit der sich prinzipiell auch alle anderen Phänomene, insbesondere unser eigenes mentales Leben, unser Erfahren und Denken beschreiben und erklären ließe. Wir haben nun zwar im ersten Kapitel zu zeigen versucht, daß der Materialismus nicht haltbar ist, so daß auch eine vollständie physikalische Theorie das nicht leisten könnte, es bleibt aber die Frage, ob es grundsätzlich möglich ist, überhaupt eine umfassende Theorie unserer kognitiven Prozesse zu entwickeln. Mit ihr wollen wir uns in diesem Kapitel befassen. Die Behauptung, es gebe eine vollständige Theorie menschlichen Verhaltens, Denkens und Erlebens, ist uns schon im Abschnitt 1.1 im Zusammenhang mit dem psychologischen Funktionalismus begegnet. Dort hatten wir die Annahme von DAVID LEWIS kritisiert, eine solche Theorie lege den Sinn der psychologischen Terme eindeutig fest. Geben wir sie auf, so lassen sich zwar diese Terme nicht mehr durch physikalische definieren, aber darauf kommt es nicht an, wenn es nicht mehr um den Materialismus geht. Es kann dann unterschiedliche Interpretationen dieser Terme geben, bei denen die Theorie wahr wird, verschiedene Modelle der Theorie. Die Theorie selbst charakterisiert also die Zustände, für welche die psychologischen Terme stehen, nicht mehr als spezifisch psychologische, sondern nur mehr in abstrakter Weise als irgendwelche Zustände, die in einem bestimmten Zusammenhang untereinander sowie mit physikalischen Zuständen stehen. Sie ist daher nicht vollständig in dem Sinn, daß sie die Bedeutungen psychologischer Terme fixiert, insbesondere deren phänomenalen Sinn, sondern nur insofern, als sie die Rolle aller psychologischen Zustände im Zusammenhang des physikalischen Geschehens eindeutig festlegt. Damit kann es auch Modelle der Theorie geben, in denen die psychologischen Terme für Gehirnzustände stehen. In diesem Fall würde die Vollständigkeit der Theorie besagen: Alles, was sich bezüglich der äußeren Reaktionen auf äußere Reize mit psychologischen Zuständen und Vorgängen erklären läßt, läßt sich auch durch neurologische Prozesse erklären. ![]() Der abstrakte Funktionalismus, wie er vor allem von HILARY PUTNAM entwickelt wurde, führt diesen Gedanken noch einen Schritt weiter. Er zielt nicht auf eine physikalische, sondern eine mathematische Charakterisierung der Funktionen mentaler Zustände und Vorgänge ab. Unser "kognitiver Apparat" soll als Computer beschrieben werden. Die Arbeitsweise eines Computers wird durch ein Programm festgelegt und das läßt sich in einer rein mathematischen Sprache beschreiben. Der durch dieses Programm bestimmte Automat läßt sich durch verschiedene konkrete Apparaturen realisieren, in denen den Arbeitsvorgängen unterschiedliche z. B. mechanische oder elektronische Prozesse entsprechen. Das Ziel des abstrakten Funktionalismus ist also eine umfassende Beschreibung der kognitiven Prozesse mit dem Mitteln der Computertheorie. Auch die Forschungen zur künstlichen Intelligenz befassen sich mit der Darstellung kognitiver Leistungen durch Computermodelle. Von ihnen unterscheidet sich der abstrakte Funktionalismus durch die explizite Annahme, die kognitiven Prozesse ließen sich vollständig durch einen einzigen Automaten darstellen. Der Funktionalismus behauptet hingegen nicht, ein solcher Automat habe nur physikalische Realisierungen. Man sieht das menschliche Gehirn zwar meist als eine solche Realisierung an, daraus ergibt sich aber keine Identität der psychischen Zustände und Vorgänge mit neurologischen. Die psychischen Zustände werden vielmehr mit den abstrakten Maschinenzuständen identifiziert und die psychischen Vorgänge mit den Übergängen von solchen abstrakten Zuständen zu anderen. Der Slogan ist also: Geist verhält sich zu Gehirn wie ein abstrakter Automat zu einer Realisierung. Die Ansicht, menschliches Verhalten lasse sich durch eine Maschine darstellen, bezeichnet man auch als Mechanismus. Diese Bezeichnung soll nicht implizieren, daß an einen rein mechanisch realisierbaren Automaten gedacht wird. ![]() Abstrakte Automaten werden oft als Turingmaschinen oder als probabilistische Automaten definiert. Wir wollen uns hier mit der folgenden einfachen Charakterisierung ![]() Die These von PUTNAM ist nun: Jeder Organismus, dem wir psychische Zustände zuschreiben, läßt sich als Automat beschreiben, wobei ein Teil von dessen Zuständen psychische Zustände repräsentieren, die Eingaben Sinnesreize und die Ausgaben Verhaltensformen darstellen. Er nimmt dabei weder an, alle Organismen, die bestimmter psychischer Zustände fähig sind, die z. B. Schmerzen haben können, seien Realisierungen desselben Automaten, noch setzt er voraus, alle Exemplare derselben Spezies, also z. B. alle Menschen seien Realisierungen desselben Automaten. Er läßt zu, daß unterschiedlichen genetischen Anlagen Unterschiede der Automaten entsprechen. PUTNAMs Aussagen leiden darunter, daß er nicht immer streng zwischen abstrakten Automaten und ihren Realisierungen unterscheidet. Organismen sind sicher keine abstrakten Automaten, psychologische Zustände keine abstrakten Maschinenzustände, und Sinnesreize keine abstrakt charakterisierten Eingaben. ![]() Gegen den abstrakten Funktionalismus haben NED BLOCK und JERRY FODOR in "What psychological states are not"(Philosophical Review 81, Seite 159-182, 1972) u. a. folgende Einwände erhoben:
![]() 2. Es gibt nur endlich viele Maschinenzustände, aber potentiell unendlich viele mentale Zustände, wie z. B. "glauben daß A", wo A irgendein Behauptungssatz ist. Man müßte also fordern, daß Menschen nur endlich vieler inhaltlich verschiedener Überzeugungen fähig sind, aber die müßte man angeben, und dann ließe sich auch leicht eine Überzeugung angeben, die jenseits dieser Grenze liegt. 3. Strukturelle Relationen zwischen mentalen Zuständen wie Glauben, daß A und B und Glauben, daß A lassen sich im Automaten-Modell nicht wiedergeben, da für Maschinenzustände keine Relation "z ist Konstituent von z'" definiert ist. Solche Relationen gelten allgemein, lassen sich also nicht durch Listen von Zuständen erfassen, und sie spielen in psychologischen Theorien eine wichtige Rolle. 4. Es ergeben sich zu feine Unterschiede zwischen mentalen Zuständen. Unterscheiden sich zwei Personen X und Y nur dadurch, daß X, wenn er gegen einen Stein stößt, "verdammt" sagt, während Y "verflucht" sagt, so wäre ihr Schmerz verschieden. Maschinenzustände werden ja nur durch eine Maschinenfunktion charakterisiert, sie sind also verschieden, wenn sie bei gleichen Eingaben Übergänge zu verschiedenen Zuständen oder verschiedenen Ausgabe ergeben.
![]() ![]() 7. Der Ansatz ist insofern viel zu einfach, als er nur mit endlich vielen Ein- und Ausgaben rechnet, also z. B. nicht in der Lage ist, die funktionale Abhängigkeit der Intensität einer Empfindung von der Reizstärke nach dem Weber-Fechnerschen Gesetz wiederzugeben oder die zeitlichen Veränderungen von Reizen und Empfindungen. Man müßte also eher an analoge als an digitale Rechner denken. 8. Putnam weist in "Reductionism and the nature of psychology" (Cognition 2, Seite 131-146, 1973) auch darauf hin, daß es erworbene mentale Zustände gibt, wie z. B. neue Annahmen, während eine Maschine keine neuen Zustände erwerben kann. Neue Informationen entsprechen vielmehr neuen Speicherinhalten. Man müßte daher psychologische Zustände als sehr lange Disjunktionen von Paaren von Maschinenzuständen und Speicherinhalten auffassen, und damit den ursprünglichen Ansatz verlassen. ![]() Der bekannteste Einwand gegen die Möglichkeit einer umfassenden Theorie mentaler Leistungen stützt sich auf den Beweis, den KURT GÖDEL für die Unentscheidbarkeit der Arithmetik angegeben hat. Man spricht daher vom Gödel-Argument - wir werden allerdings sehen, daß es mehrere Versionen davon gibt. GÖDEL hat bewiesen, daß sich zu jeder formalen Theorie T, (1) die die Arithmetik enthält, ein Satz G angeben läßt, der in T unentscheidbar, d. h. weder beweisbar noch widerlegbar ist, falls T konsistent ist. G ist ein rein arithmetischer Satz, der aber so konstruiert ist, daß er genau dann wahr ist, wenn er in T unbeweisbar ist. Sind in T nur wahre Sätze beweisbar, so gilt also: Wäre G beweisbar, so wäre G falsch, also unbeweisbar; also ist G unbeweisbar und damit wahr. Das anti-mechanistische Argument lautet nun so: Zu jeder Maschine M, die genau die Sätze beweisen kann, die ein Mensch beweisen kann, läßt sich eine Theorie T angeben, in der genau diese Sätze beweisbar sind. Zu T kann man einen Satz G angeben, der in T nicht beweisbar ist, dessen Wahrheit man aber beweisen kann. Damit ist gezeigt: T, und damit M, erfaßt die menschlichen Beweisfähigkeiten nicht vollständig. Dieses Argument soll keine Widerlegung des Mechanismus sein, der These "Es gibt eine Maschine, die genau dasselbe beweisen kann wie wir", sondern ein Argument gegen die Beweisbarkeit einer solchen These. Denn zu ihrem Beweis müßte man eine Maschine M angeben, die unter anderem dieselben arithmetischen Sätze liefert, die ich beweisen kann. Zu jeder angegebenen Maschine M kann ich aber einen Satz konstruieren, den ich beweisen kann, nicht aber M - das zumindest ist die Behauptung bei LUCAS in "Minds, machines and Gödel"(Philosophy 36, Seite 112-127,1961). Dagegen hat man eingewendet: Was ich beweisen kann, ist nur der Satz (*): "Wenn T widerspruchsfrei ist, so ist G wahr". Daraus erhalte ich nur dann einen Beweis von G, wenn ich auch die Konsistenz von T beweisen kann. Daß mir das aber gelingt, ist nicht gesagt und für sehr komplexe Theorien T auch nicht wahrscheinlich. Der Satz (*) ist aber auch in T beweisbar, wie GÖDEL gezeigt hat. Daraus ergibt sich sein zweites Theorem: Ist T konsisten, so läßt sich die Konsistenz von T nicht in T beweisen. (Die Konsistenz von T läßt sich ebenfalls durch eine arithmetische Aussage wiedergeben.) Auf diesen Einwand hat LUCAS erwidert: Damit T überhaupt ein Kandidat für eine adäquate Theorie menschlicher Beweisfähigkeiten ist, muß der mechanistische Proponent die Konsistenz von T voraussetzen. Diese Annahme darf der Opponent übernehmen. Aus ihr folgt aber die Wahrheit von G. Demgegenüber hat man wiederum betont, daß diese Voraussetzung noch keinen Beweis von G ergibt. Daß der Proponent uns aber zunächst die Widerspruchsfreiheit der von ihm vorgeschlagenen Theorie nachweist, ist zuviel verlangt - wir akzeptieren ja auch sonst nicht nur Theorien, deren Widerspruchsfreiheit bewiesen ist. (2) Man kann das Argument aber durch folgende Modifikation retten: Es kommt nicht darauf an, daß in T genau jene Sätze beweisbar sind, die ich beweisen kann, sondern jene Sätze, die ich als wahr erkennen kann. Aus dieser Annahme folgt, daß T konsistent ist. Wegen der Beweisbarkeit der Implikation "Ist T konsistent, so ist G wahr" ist also der Satz G wahr, in T ist aber nicht beweisbar. Kann ich also die Annahme als wahr erkennen, so auch den Satz G; es gibt dann einen Satz, den ich als wahr erkennen kann, der aber in T nicht beweisbar ist. Kann ich also die Annahme als richtig erkennen, so ist sie falsch; also kann ich sie nicht als richtig erkennen. Dieser Gedanke ist von PAUL BENACERRAF in "God, the devil and Gödel (The Monist 51, Seite 9-32, 1967) ausführlicher entwickelt worden. Wir geben ihm hier eine etwas andere Wendung. Das GÖDELsche Argument lautet: Es gibt keine formale Theore T, in der genau die wahren Sätze der Arithmetik (einer passenden Sprache S) beweisbar sind - ihre Menge sei A. Denn gäbe es eine solche Theorie T, so daß also für alle Sätze B gelten würde: B ist in T beweisbar genau dann, wenn B in A ist, so gäbe es zu T einen Satz G, der in A ist, aber nicht in T beweisbar ist; denn T ist nach Voraussetzung konsistent. T ist also keine solche Theorie. Diesen Gedanken kann man so umformen: B sei die Menge der arithmetischen Sätze, die ich als wahr erkennen kann. Könnte ich erkennen, daß in der formalen Theorie T genau die Sätze aus B beweisbar sind, so könnte ich zu T einen Satz G angeben, der in B ist, aber nicht in T beweisbar ist. Die Behauptung, G sei in B, ergibt sich so: Kenne ich T, so kann ich den Satz G effektiv angeben und beweisen, daß bei Konsistenz von T G nicht in T beweisbar ist. Kann ich erkennen, daß in T genau die Sätze aus B beweisbar sind, so kann ich die Konsistenz von T erkennen, da B nur wahre Sätze enthält. Also kann ich G als wahr erkennen. Es gilt also: Wenn ich erkennen kann, daß in T genau die Sätze aus B beweisbar sind, so ist das falsch; ich kann also nicht erkennen, daß in einer Theorie genau das beweisbar ist, was ich als wahr erkennen kann. Wir erhalten freilich auf dem angegebenen Weg keinen Widerspruch aus der Annahme, eine andere Person könne erkennen, daß in einer Theorie T genau jene Sätze beweisbar sind, die ich als wahr erkennen kann. ![]() ![]() ![]() Die Kritik von CHARLES CHIHARA in On a alleged refutations of mechanism using Gödels incompleteness results" (The Journal of Philosophy 69, Seite 507-526, 1972) am Argument von BENACERRAF läuft darauf hinaus, daß "als wahr erkennbar" zeitabhängig sei. ![]() ![]() Dieser Kritik kann man erstens entgegenhalten, daß ich danach zwar erkennen kann, daß eine formale Theorie T meine früheren Erkenntnismöglichkeiten vollständig wiedergibt, aber diese Einsicht bringt mich in einen Zustand, in dem nun T meine gegenwärtigen Erkenntnismöglichkeiten nur unvollständig wiedergibt. Das Ergebnis bleibt so das gleiche: Ich kann nicht erkennen, daß eine Theorie meine gegenwärtigen Erkenntnismöglichkeiten vollständig erfaßt. ![]() Das Fazit unserer Überlegungen ist also: Aus GÖDELs Satz folgt nicht, daß es keine vollständige Theorie menschlicher Beweis- oder Erkenntnisfähigkeiten gibt. Was sich zeigen läßt ist nur: Wir können von keiner Theorie erkennen, daß sie unsere Erkenntnisfähigkeiten vollständig beschreibt. ![]() Einfacher als das GÖDEL-Argument ist das folgende, das ich als Tarski-Argument bezeichnen will: Was eine Theorie T beinhaltet, ergibt sich nicht allein aus ihren Axiomen als Sätzen einer bestimmten syntaktischen Form, sondern aus der Interpretation der Sprache - nennen wir sie S -, in der die Theorie formuliert ist. ![]() ![]() Nun hat aber ALFRED TARSKI gezeigt, daß es nicht möglich ist, in der Sprache S ein Wahrheitsprädikat W einzuführen, das der Wahrheitskonvention entspricht, nach der der Satz A wahr ist genau dann, wenn A. Der Satz "Schnee ist weiß" ist also genau dann wahr, wenn Schnee weiß ist. Die Sprache S müßte Namen a, b, ... für die wohlgeformten Ausdrücke A, B, ... von S enthalten, sowie einen Funktionsterm e, so daß e (a, b) ein Name für das Resultat der Einsetzung von a für die (feste) Variable x in B ist. Nicht-W (e (x, x)) ist also ein Ausdruck von S. r sei ein Name in S für diesen Ausdruck. Dann ist e (r, r) ein Name für nicht-W (e (r, r)). Nach der Wahrheitskonvention müßte also gelten W (e (r, r)) genau denn, wenn nicht W (e (r, r)) und das ist ein Widerspruch. ![]() Dieses, GÖDELs und ähnliche Resultate besagen: Die Metatheorie einer Theorie T - also jene Theorie, in der wir die Theorie T und ihre Interpretation bestimmen, in der wir über die Wahrheit ihrer Sätze und Beweisbarkeit in T reden - ist immer reicher als T selbst; es gibt also keine konsistente Theorie T, die ihre eigene Metatheorie enthält. Es kann daher zwar eine vollständige Theorie menschlichen Denkens, Sprechens und Argumentierens geben, aber das wäre dann keine Theorie, über die wir verfügen könnten. Über sie könnten nur Wesen verfügen, die eine reichere Sprache und eine reichere Logik haben als wir. ![]() ![]() Ließe sich menschliches Verhalten durch einen Computer simulieren, so läge es nach einem Argument von ALAN TURING nahe, auch Computern mentale Zustände, Bewußtsein, Denken und Erkenntnis zuzuschreiben. TURING hat in "Computing machinery and intelligence (Mind 59, Seite 433-460, 1950) ein "Imitationsspiel" beschrieben. Darin geht es nur um sprachliches Verhalten, da das Aussehen von Maschinen oder die Art der Fortbewegung von Robotern für die Zuschreibung mentaler Zustände letztlich irrelevant ist. Das Imitationsspiel sieht so aus: Ein Beobachter X sitzt in einem Raum, während sich in einem zweiten ein Computer C und ein Mensch Y befinden. X kann mit C und Y nur schriftlich über zwei getrennte Leitungen kommunizieren; er weiß aber nicht, mit wem er über die Leitung 1 und mit wem er über die Leitung 2 verbunden ist. Er soll das vielmehr aus den Antworten auf Fragen erschließen, die er seinen Korrespondenten über die Leitungen stellt. X weiß, daß C ihn zu täuschen sucht, während Y aufrichtig antwortet. Das nützt X aber wenig, denn die aufrichtige Auskunft von Y "Ich bin ein Mensch" ist ja für ihn möglicherweise eine Lüge von C. Kann X nun aufgrund der Antworten, die er erhält, nicht feststellen, über welche Leitung ihm der Computer antwortet, reicht also das sprachliche Verhalten von Y und C nicht für eine Unterscheidung von Mensch und Maschine aus, so hat er keinen Grund, dem einen Korrespondenten Intelligenz und Bewußtsein zuzusprechen, dem anderen hingegen nicht. ![]() Dagegen hat PAUL ZIFF in "The simplicity of other minds" (The Journal of Philosophy 62, Seite 575-584, 1965) eingewendet, wir schrieben einem Menschen mentale Zustände nicht aufgrund seines Verhaltens allein zu, sondern aufgrund unserer gesamten Informationen über ihn. Das zeige der Fall eines Schauspielers: Wissen wir, daß er eine Rolle nur spielt, so sind seine Äußerungen und Handlungen für uns kein Grund zu sagen, er habe die ihnen entsprechenden Gefühle, Überzeugungen und Absichten. Dieser Einwand ist jedoch nicht schlüssig. Es kommt natürlich auf das Gesamtverhalten an. Aus ihm erschließen wir, wann jemand nur eine Rolle spielt und wann er das nicht tut. Das Imitationsspiel soll aber, - wenn auch nur in Beschränkung auf sprachliches Verhalten - nicht nur Ausschnitte des Verhaltens des Computers erfassen. Man könnte sich im übrigen auch vorstellen, daß ein Roboter gebaut wird, der wie ein Mensch aussieht und sich so bewegt. ![]() Gegen das Argument von TURING ließe sich ferner einwenden: Das Prinzip "Gleiches Verhalten rechtfertigt gleiche Zuschreibungen mentaler Zustände" ![]() ![]() ![]() ![]() ![]() ![]() JOHN SEARLE vertritt in "Minds, Brains and Science (1984) zwar einen Physikalismus - mentale Zustände und Vorgänge sind für ihn neurologische Zustände und Prozesse -, er wendet sich aber gegen das Argument von TURING mit dem Hinweis, Maschinen hätten keine intentionalen Zustände. Sie operierten nur mit syntaktischen Symbolen, verbänden damit jedoch keine Bedeutungen; sie verstünden also weder die Fragen, die wir an sie richten, noch die Antworten, die sie geben. Dazu hat er in Analogie zu TURINGs Imitationsspiel das Gedankenexperiment des "Chinesischen Raums" entworfen: In einem Raum sitzt der Beobachter X, ein Chinese, der über eine Leitung schriftlich mit einem Deutschen, Y, kommunizieren kann, der sich in einem anderen Raum befindet. Y versteht kein Wort Chinesisch, aber er hat ein in deutscher Sprache abgefaßtes Buch zur Hand, das ihm genaue Anweisungen gibt, auf welchen Folgen chinesischer Schriftzeichen er mit welchen Folgen solcher Schriftzeichen zu antworten hat. Enthät das Buch genügend Informationen, so wird X nicht feststellen können, ob Y tatsächlich Chinesisch versteht oder nicht. Die Pointe ist: Ersetzt man Y durch einen Computer, so kann man von ihm ebensowenig sagen wie von Y, er verstehe Chinesisch, da er im Prinzip ebenso verfährt wie Y, d. h. sich auf Manipulationen mit Symbolen nach festen Regeln beschränkt. Demgegenüber hat man eingewendet, zum Computer gehöre auch das Buch mit den Anweisungen, in denen sich ja ein umfassendes Verständnis des Chinesischen niederschlägt. Dieser Einwand ist jedoch nicht relevant, denn das Buch ist zwar von jemandem verfaßt, der Chinesisch kann, aber es selbst versteht diese Sprache nicht. Zurecht betont SEARLE, daß Y ja auch die Anweisungen des Buches auswendig lernen kann - auch dann versteht er noch nicht Chinesisch. Das Argument von SEARLE läßt jedoch offen, warum wir Maschinen keine Intentionen zuschreiben können. Auch sie haben ja interne Zustände, und die könnten doch die gleiche funktionale Rolle für sprachliches Verhalten spielen wie Absichten. ![]() ![]() SEARLE bringt in (a. a. O.) jedoch noch ein zusätzliches Argument, das nun den Kern des Problems trifft: Wir schreiben Menschen Handlungen zu (3). Das Verhalten einer Maschine ist aber nicht frei. Es ist zumindest statistisch determiniert, und daher können wir nicht sagen, sie handle so und so. Nach SEARLE können wir von Absichten nur bei Handlungen reden. Absichten leiten Handlungen, sonst kann man nur von Wünschen oder Interessen reden. ![]() ![]() Der Mechanist leugnet nun freilich gerade, daß Menschen frei handeln können, daß man ihnen also Intentionen im Sinn von SEARLE zuschreiben kann. Er wird sagen, man müsse die Rede von Freiheit, Absichten und Handlungen anders deuten, wenn ihr Anwendungsbereich nicht leer sein soll, in dieser Deutung könne man dann aber auch Maschinen Absichten und sprachliche Aktivitäten zusprechen. Daß man Maschinen etwas zuschreiben kann, was man dann "Intention" oder "Aktivität" nennt, ist aber ebenso unbestritten wie uninformativ. Die Frage ist, ob man ihnen das zuschreiben kann, was wir gewöhnlich so nennen. Zudem haben wir schon im letzten Kapitel gesehen, was für die Annahme von Freiheit spricht, und wir werden im folgenden Abschnitt darlegen, warum Freiheit insbesondere im mentalen Bereich anzunehmen ist. ![]() In diesem Abschnitt war vom Mechanismus die Rede. Die Überlegungen lassen sich aber verallgemeinern: Gäbe es eine Theorie menschlichen Verhaltens, die in dem Sinn vollständig ist, daß sich mit ihr alle Tatsachen des Verhaltens erklären lassen, so wäre unser Verhalten nicht frei, wir wären im normalen Sinn des Wortes keiner intentionalen Handlung, keiner sprachlichen Kommunikaton fähig. ![]() von Annahmen Die Vorstellung einer kausalen Determiniertheit all unseres Denkens, Fürwahrhaltens und Urteilens erscheint uns als noch abwegiger als die einer Determiniertheit unseres äußeren Verhaltens. Wir wollen im folgenden begründen, warum diese Vorstellung tatsächlich unhaltbar ist. Es gibt zweifellos mentale Zustände und Vorgänge, die Ursachen haben. Das gilt insbesondere für Empfindungen und Eindrücke. Die Ursache meiner Schmerzempfindung ist z. B., daß mir ein Stein auf den Fuß gefallen ist. Die Ursache dafür, daß ich den Eindruck habe, daß sich die Katze, die ich beobachte, bewegt, ist die Bewegung der Katze. ![]() ![]() Überzeugungen werden oft als passiv angesehen. Es stehe nicht in unserem Belieben, sagt man, etwas zu glauben oder es nicht zu glauben. Wir könnten nicht glauben, was wir wollen, Überzeugungen drängten sich uns auf. Dabei übersieht man oft die Differenz zwischen Eindrücken und Überzeugungen. Betrachte ich ein Ruder, so habe ich den deutlichen Eindruck, daß es dort einen Knick hat, wo es ins Wasser taucht. Trotzdem glaube ich nicht, daß es sich so verhält; ein Knick ist ja nicht spürbar und der Eindruck verschwindet, wenn ich das Ruder aus dem Wasser ziehe. Einzelne Eindrücke bestimmen also nicht, was wir glauben. Wir richten uns bei unseren Annahmen auch nach anderen Eindrücken und nach bereits gewonnenen Überzeugungen. Unser Ziel ist es, zu einem kohärenten Bild von der Beschaffenheit unserer Umwelt zu kommen, und das ist nur möglich, wenn wir nicht alle Eindrücke als korrekt gelten lassen, sondern manche als unzuverlässig ansehen. Kohärenz ergibt sich nicht automatisch, sondern wir müssen sie herstellen, und das ist auf verschiedene Weise möglich. Daher sind Überzeugungen nicht passiv wie Eindrücke, sondern wir bilden sie uns, wir überlegen uns, was wir glauben wollen. Wir folgen natürlich vielfach in unseren Annahmen unseren Eindrücken, weil wir keinen Grund haben, deren Zuverlässigkeit zu bezweifeln; prinzipiell können wir aber in jedem Fall die Zuverlässigkeit in Frage stellen, und uns damit in unseren Annahmen von den Eindrücken distanzieren. ![]() Eine Annahme im Sinn einer Überzeugung - im Gegensatz zu einer Arbeitshypothese oder einer Vermutung - verbindet sich mit dem Urteil "So ist es". Schon die Stoiker haben die Differenz zwischen Eindruck und Urteil betont. Auch für sie sind Eindrücke passiv. Um von einem Eindruck, als sei es so, zum Urteil "So ist es" zu gelangen, ist nach ihnen ein Akt der Zustimmung, der Synkatathesis (adsensio) [Zustimmung, Anerkennung, Fürwahrhalten - wp] erforderlich, mit dem wir den Anschein als korrekt akzeptieren, und dabei sind wir frei. Anders als Eindrücke sind Urteile Akte. Urteile haben keine Ursachen, sondern nur Gründe. Beruth ein Urteil auf einem Eindruck, so ist der keine Ursache des Urteilens, da er dafür keine hinreichende Bedingung ist, sondern nur ein Grund für das Urteil. Ein Grund für eine Annahme ist ein epistemischer Grund, eine andere Annahme. Diese Bestimmung umfaßt Eindrücke, die wir als richtig akzeptieren. Anders als bei Handlungen brauchen wir bei Urteilsakten Interessen insofern nicht als zusätzliche Beweggründe anzusehen, als wir generell an wahren Urteilen interessiert sind. Besonders deutlich wird die Aktivität der Bildung von Urteilen, wenn es sich um komplexe Sachverhalte handelt, für deren Annahme es Gründe und Gegengründe gibt, wie z. B. Indizienurteile oder Deutungen historischer Vorgänge. Nach DESCARTES sind nicht Eindrücke wahr oder falsch, sondern Urteile. Erkenntnis und Irrtum entstehen für ihn erst, wenn wir von Eindrücken zu Urteilen übergehen. Da wir im Urteilen frei sind, können wir darin auch über die gegebenen sinnlichen Evidenzen hinausgehen, und damit entsteht die Möglichkeit des Irrtums. Klare und distinkte Eindrücke sind für DESCARTES immer zuverlässig. Angesichts unseres Beispiels mit dem Ruder ist das freilich fragwürdig. Man kann zudem korrekte und unkorrekte Eindrücke unterscheiden, aber der entscheidende Punkt ist, daß auch DESCARTES annimmt, daß Urteile freie Akte sind, und nicht Wirkungen von Eindrücken. Was für Urteile gilt, mit denen wir Überzeugungen formulieren, gilt auch für diese: Auch sie kommen durch einen Akt der Synkatathesis zustande. Es ist also zwar richtig, daß sich uns Überzeugungen oft aufdrängen. Davon kann man z. B. sprechen, wenn wir einen deutlichen Eindruck von etwas haben, und keinen Grund, ihn als Täuschung anzusehen. Das heißt aber nur: Da ich gute Gründe habe, den Eindruck als zuverlässig anzusehen, sehe ich mich durch die Forderung der Rationalität gedrängt, ihn als richtig zu akzeptieren. Es ist auch richtig, daß wir nicht Beliebiges glauben können, z. B. daß 2 + 2 = 5 ist. Aber diese Unmöglichkeit ergibt sich aus der Forderung nach Konsistenz meiner Annahmen und der Inkonsistenz dieser Annahmen mit meinen übrigen arithmetischen Überzeugungen. ![]() Diese Konzeption des Annehmens als Aktivität wird durch folgende Überlegungen gestützt:
![]() ![]()
![]() ![]()
![]() ![]()
![]() ![]() Ein Determinist wird all dem natürlich widersprechen. Er wird zunächst sagen, wenn wir kaum irgendwelche Überzeugungen kausal erklären könnten, so liege das lediglich daran, daß ihre wahren Ursachen Vorgänge im Gehirn sind, die Neurologie aber noch nicht so weit ist, sie im einzelnen benennen zu können. Das ist aber nicht viel seriöser, als wenn ein Dämonologe behaupten würde, unsere Überzeugungen würden durch Aktivitäten von Dämonen bewirkt, die Dämonologie sei aber noch nicht ganz so weit, daß sie das auch nachweisen kann. Unbeeindruckt wird der Determinist fortfahren, unsere Argumente beruhten im übrigen lediglich auf der üblichen Vorstellung von Freiheit, freien Akten, Denken, Sprechen und Überzeugungen. Dies sei zwar indeterministisch, aber das besage wenig. Wir müßten natürlich neue Begriffe von Aktivität, von Gründen, rationalen Handlungen etc. einführen, um den Determinismus konsistent formulieren zu können. In dieser Formulierung wäre er dann unseren Einwänden nicht mehr ausgesetzt. Es ist nun zwar richtig, daß der Determinismus unsere normalen begrifflichen Unterscheidungen durch andere ersetzen müßte, aber damit wäre er noch nicht gerettet. Ein Wechsel der Sprache, nach dem man Einwände nicht mehr formulieren kann, bringt noch keine Entscheidung in der Sache. Darüber hinaus wäre eine konsequent deterministische Sprache, deren Gebrauch keine Freiheit voraussetzt, nach unseren Überlegungen keine Sprache im normalen Sinn mehr. Der Determinist müßte auch die Normen vernünftigen Redens durch etwas anderes ersetzen, aber es bleibt dann völlig offen, warum wir uns für un-vernünftige Verlautbarungen in einer Un-Sprache interessieren sollten. ![]() Das entscheidende Problem mit den Deterministen ist, daß sie sich selbst nicht beim Wort nehmen, die Implikationen ihrer These für ihr Selbstverständnis nicht bedenken. Nimmt man an, ein Determinist hätte jedenfalls im eigenen Fall recht, so muß man davon ausgehen, daß er denkt, wie er aufgrund vorgängiger Ursachen denken muß. Auch seine deterministische Überzeugung ist also ein Produkt seiner Erbanlagen, seiner Erziehung, der Sinneseindrücke, denen er ausgesetzt war, nicht aber Resultat vernünftiger Überlegungen und Einsichten. Seine These ist dann aber für uns kognitiv nicht relevanter als sein Husten. Sie besteht aus Lauten, die er von sich gibt, die zwar für uns eine bestimmte Bedeutung haben, von denen man aber nicht sagen kann, er selbst verstehe sie, oder drücke mit ihnen etwas aus. Auch der Determinist selbst kann sich daher nicht als rationalen Agenten begreifen, der die Fähigkeit hat, sachlichen Gründen zu folgen. Welchen Wert hat dann aber seine These für ihn? ![]() J. R. LUCAS sagt in diesem Sinn von den Deterministen:
![]() ![]() ![]() ![]() Anmerkungen 1) "Formal" heißt eine Theorie, für die es entscheidbar ist, ob ein Argument ein Beweis in ihr ist. 2) Von Mechanisten wird auch gelegentlich eingewendet, zu jedem Satz, den wir beweisen können, gebe es eine Maschine, die ihn ebenfalls beweisen kann. So argumentiert z. B. ALAN TURING in (a. a. O.) Seite 16. Damit wird aber die These des Mechanismus nicht legitimiert, denn die besagt: Es gibt eine Maschine, die alle Sätze beweisen kann, die wir beweisen können. Der Anti-Mechanist braucht also nur zu zeigen, daß es für jede Maschine einen Satz gibt, den er, nicht aber diese Maschine beweisen kann. Aufgrund des angegebenen Einwands ist diese Behauptung freilich problematisch. 3) Zum Begriff der Handlung vgl. 2.2 4) LUCAS (a. a. O., Seite 115. |