tb-2 Die positivistische PhilosophieKampits - Der Wiener Kreis    
 
VIKTOR KRAFT
Der Wiener Kreis
[3/4]

"Wittgenstein hat seine  Atomsätze  mit den Sätzen identifiziert, die er  Elementar-Sätze  genannt hat. Das sind Sätze, die  unmittelbar  mit der Wirklichkeit, d. h. mit dem Erlebnisgegebenen verglichen werden können. Es muß solche Sätze geben, weil sonst die Sprache ohne Beziehung zur Wirklichkeit wäre."

"Protokollsätze sollen die einfachsten erkennbaren Sachverhalte beschreiben, so daß keine erst durch Verarbeitung gewonnenen Sätze darin enthalten sind. Sie sollen deshalb die unmittelbaren Erlebnisinhalte bezeichnen, darüber bestand keine Klarheit. Man betrachtete sie als Aussagen über das  Gegebene.  Aber das  Gegebene  sah der bisherige Positivismus in Sinnes- und Gefühlsqualitäten, Carnap sah es in Gesamterlebnissen mit Beziehungen zwischen ihnen und Neurath ging von dinglichen Sachverhalten aus. Gerade die Grundlagen empirischer Erkenntnis blieben damit im Ungewissen."

"Aussagen können überhaupt nicht mit dem Gegebenen, mit Erlebnissen, mit etwas Außersprachlichem verglichen werden, sondern nur Aussagen mit Aussagen. Dieser Ansicht von Neurath hat sich auch Carnap angeschlossen. Protokollsätze haben keinen Vorrang vor anderen Sätzen. Gewisse konkrete Sätze werden als Protokollsätze genommen, d. h. als Endpunkte der Zurückführung.  Es gibt keine absoluten Anfangssätze für den Aufbau der Wissenschaft.  Es ist eine Sache des Entschlusses, der Festsetzung, wo man Halt machen will. Das war die einschneidende Wandlung in der Auffassung der Protokollsätze. Man hat damit wieder einen Rest von Absolutismus aus der Erkenntnistheorie entfernt."

"Man kann von einer allgemeinen Aussage nicht sagen, daß sie wahr ist. Sie kann wahr sein, aber ob sie es ist, kann man nicht wissen. Dagegen kann man wegen der Asymmetrie zwischen Verifizierbarkeit und Falsifizierbarkeit wissen, daß sie falsch, weil widerlegt ist. Darum kann man bei allgemeinen Aussagen anstelle von Wahrheit nur von ihrer Bestätigung und Bewährung sprechen."

B. Der Empirismus

II. Die Verifikations-Grundlagen
der empirischen Aussagen


1. Die verifizierenden Aussagen

Ebenso wie es den Wiener Kreis als eine fundamentale Aufgabe des Empirismus vor Augen gestanden ist, den Inhalt der empirischen  Begriffe  durch ihre Zurückführung auf das Erlebnisgegebene klarzustellen, so hat er auch die andere fundamentale Aufgabe aufgenommen, den Inhalt und die Geltung der empirischen  Aussagen  durch ihre Zurückführung auf elementare Aussagen klarzulegen. Dabei ist man auch hier wieder von WITTGENSTEINs "Tractatus" ausgegangen und zunächst seiner Gedankenrichtung gefolgt. WITTGENSTEIN hat aus RUSSELLs "Principia Mathematica" die grundlegende Scheidung der Aussagen in zusammengesetzte und einfache, in "molekulare" und in "atomare" Sätze übernommen. Ein atomarer Satz wird negativ definiert als ein singulärer Satz, der nicht selbst einen Satz als Bestandteil in sich enthält und auch nicht die Begriffe "alle" oder "einige". Ein molekularer Satz ist ebenfalls ein singulärer Satz, der aber aus zwei oder mehreren Atomsätzen besteht. Solche zusammengesetzte Sätze haben die Form der Konjunktion oder der Disjunktion oder der Implikation oder der Negation. Auch ein negierter Satz ist ein zusammengesetzter, weil er den Satz, der negiert wird, in sich enthält.

WITTGENSTEIN hat nun die neue wichtige Einsicht gebracht, daß die Wahrheit der zusammengesetzten Sätze lediglich von der Wahrheit der einfachen Sätze abhängt, die ihre Teile sind; sie ist eine "Wahrheitsfunktion" dieser. Infolgedessen kommt es nur auf die Wahrheit der einfachen Sätze, der Atomsätze, an, von der die Wahrheit der zusammengesetzten Sätze rein logisch abzuleiten ist.

Für Aussagen einfachster Form läßt sich ihre Wahrheitsbedingung direkt angeben: sie sind wahr, wenn dem durch den Namen bezeichneten Gegenstand die durch das Prädikat bezeichnete Eigenschaft oder Beziehung tatsächlich zukommt. Für die anderen Formen von Aussagen, die aus Komponenten zusammengesetzten, sind ihre Wahrheitsbedingungen indirekt bestimmt. WITTGENSTEIN hat gezeigt, wie die Wahrheit einer Konjunktion [Verknüpfung - wp], einer Disjunktion [Unterscheidung - wp], einer Implikation [Einbeziehung - wp] und einer Verneinung mit der Wahrheit und Falschheit der Einzelsätze zusammenhängt, infolge des Sinnes von "und", "oder", "wenn", "nicht", der "logischen Konstanten". In einer Verknüpfung von zwei Aussagen können sich deren Wahrheit und Falschheit in vierfacher Weise kombinieren, bei n-Aussagen in 2 hoch n. Es ist leicht ersichtlich, daß eine Konjunktion von zwei Aussagen dann wahr ist, wenn beide der verbundenen Einzelaussagen wahr sind; wenn dagegen eine von beiden oder beide falsch sind, ist auch die Konjunktion falsch. Die Disjunktion des nichtausschließenden "oder", zum Unterschied von "entweder - oder", ist hingegen nur dann falsch, wenn beide Einzelaussagen falsch sind. Ebenso ist eine Implikation in drei Fällen wahr und nur dann falsch, wenn die erste, die implizierende Aussage, wahr ist und die zweite, die implizierte Aussage falsch ist. Eine verneinende Aussage ist dann wahr, wenn die verneinte Aussage falsch ist, und umgekehrt. Diese Verknüpfungsformen können aber auch wieder umgekehrt durch die Art ihrer Wahrheitsabhängigkeit definiert werden, durch die Angabe, welche Kombinationen der einzelnen Sätze wahr und welche falsch sind. So ist z. B. die Disjunktion der Sätze  p  und  q  dadurch bestimmt, daß sie dann wahr ist, wenn beide Sätze oder wenigstens einer von ihnen wahr ist, und nur falsch, wenn beide falsch sind. Man braucht dann den  Sinn  dieser Verknüpfungsformen gar nicht heranzuziehen. Die logischen Konstanten können somit auf eine zweifache Weise bestimmt werden: entweder ihrer Bedeutung nach, wie die Wörter, oder durch ihre Wahrheitsfunktion.

Die Wahrheit einer  allgemeinen  Aussage ist eine Funktion der Wahrheit aller einzelnen Aussagen, die unter diese Allgemeine Aussage fallen und die durch eine direkte Wahrheitsbedingung bestimmt werden. Eine allgemeine Aussage muß deshalb als eine Konjunktion von einfachen Aussagen formuliert werden können.

Es war daher die nächste und wichtigste Aufgabe, die Atomsätze aufzusuchen und ihrer logischen Form nach zu bestimmen. WITTGENSTEIN hat sie mit den Sätzen identifiziert, die er "Elementar-Sätze" genannt hat. (1) Das sind Sätze, die  unmittelbar  mit der Wirklichkeit, d. h. mit dem Erlebnisgegebenen verglichen werden können. Es muß solche Sätze geben, weil sonst die Sprache ohne Beziehung zur Wirklichkeit wäre. Alle Aussagen, die nicht selbst Elementarsätze sind, müssen Wahrheitsfunktionen von Elementarsätzen sein. Infolgedessen müssen sich alle empirischen Aussagen auf Aussagen über Erlebnisgegebenes zurückführen lassen, in solche übersetzen lassen, wenn sie nicht selbst schon solche Aussagen sind. Alle nicht so zurückführbaren Aussagen sind als sinnlos erklärt worden, weil man dann nicht weiß, worum es sich in ihnen handelt. Die Zurückführung wird durch einen Stammbaum der Begriffe, durch den sie auf Erlebnisbeziehungen zurückgeführt werden, wie er in CARNAPs Konstitutionssystem entworfen ist. So greifen die empiristische Theorie des Sinnes und die der Begriffe und die der Aussagen ineinander.

Davon ausgehend, daß die Atom- oder Elementarsätze Aussagen über Erlebnisse sind, hat man sie im Wiener Kreis in den sogenannten "Protokollsätzen" zu finden gemeint. (2) Protokollsätze sollen die einfachsten erkennbaren Sachverhalte beschreiben, so daß keine erst durch Verarbeitung gewonnenen Sätze darin enthalten sind. Sie sollen deshalb die unmittelbaren Erlebnisinhalte bezeichnen, darüber bestand keine Klarheit. Man betrachtete sie als Aussagen über das "Gegebene". Aber das "Gegebene" sah der bisherige Positivismus in Sinnes- und Gefühlsqualitäten, CARNAP sah es in Gesamterlebnissen mit Beziehungen zwischen ihnen und NEURATH ging von dinglichen Sachverhalten aus. Gerade die Grundlagen empirischer Erkenntnis blieben damit im Ungewissen. In erster Linie dachte man an Erlebnis-, vornehmlich Wahrnehmungsprotokolle. Statt der anfänglichen subjektiven Form mit "ich", und "jetzt" und "hier" hat NEURATH eine objektive mit dem Namen des Protokollierenden und Orts- und Zeitangaben und einem Wahrnehmungsbegriff gefordert. Zum Beispiel "NN hat zur Zeit  t  am Ort  O  das und das wahrgenommen". Zutreffende Beispiele dafür gegen die Protokolle psychologischer Versuche. Wenn für physikalische oder biologische Experimente keine derartigen Protokollsätze festgelegt werden, so weiß man doch, daß als ihre letzten Grundlagen solche Protokollsätze rekonstruiert werden können. "Wenn ein Forscher z. B. notiert "Unter den und den Umständen steht der Zeiger auf 10,5", so weiß er, daß dies bedeutet: "Zwei schwarze Striche fallen zusammen" und daß die Worte "unter den und den Umständen ..." gleichfalls in bestimmte Protokollsätze aufzulösen sind." (3)

Zuerst sind solche Protokollsätze (Wahrnehmungsaussagen) als absolut gültig betrachtet worden. Es sind "Sätze, die selbst nicht der Bewährung bedürfen, sondern als Grundlage für alle übrigen Sätze der Wissenschaft dienen." (4) Diesen Charakter absoluter Geltung hat NEURATH bestritten. (5) Auch Protokollsätze können nötigenfalls als ungültig erklärt werden. (6) Denn sie sind nie von Verarbeitung frei, sie sind nicht ursprünglicher als andere empirische Sätze, sie sind gerade so hypothetisch wie diese, daher korrigierbar. Aussagen können überhaupt nicht mit dem Gegebenen, mit Erlebnissen, mit etwas Außersprachlichem verglichen werden, sondern nur Aussagen mit Aussagen. Dieser Ansicht von NEURATH hat sich auch CARNAP angeschlossen. Protokollsätze haben keinen Vorrang vor anderen Sätzen. (7) Gewisse konkrete Sätze werden als Protokollsätze genommen, d. h. als Endpunkte der Zurückführung. "Es gibt keine absoluten Anfangssätze für den Aufbau der Wissenschaft." (8) Es ist eine Sache des Entschlusses, der Festsetzung, wo man Halt machen will. Das war die einschneidende Wandlung in der Auffassung der Protokollsätze. Man hat damit wieder einen Rest von Absolutismus aus der Erkenntnistheorie entfernt.

Aber nun stand man damit vor einer neuen großen Frage. Wenn die Protokollsätze nicht mehr absolut sicher, sondern korrigierbar sind, wodurch wird bestimmt, wann ein Protokollsatz aufzugeben ist und wann nicht? NEURATH stellte als Kriterium dafür die Übereinstimmung der empirischen Sätze untereinander auf. Das läßt aber der Willkür Tür und Tor offen. Wenn ein Protokollsatz dem System der bisher anerkannten Sätze widerspricht, kann man ihn entweder "streichen" oder aber ihn annehmen "und dafür das System so abändern, daß es um diesen Satz vermehrt, widerspruchslos bleibt". (9) Auf diese Weise kann man aber jedes beliebige System aufrechterhalten, indem man widerstreitende Protokollsätze einfach streicht. Der MICHELSON-Versuch hätte dann gar nicht zum Anlaß für die Aufstellung einer neuen Theorie, der Relativitätstheorie, werden müssen. Überläßt man es der Willkür, zu entscheiden, ob ein unvereinbarer Protokollsatz gilt oder nicht, dann verfällt man dem Konventionalismus und gibt den Empirismus auf.

Hier hat SCHLICK mit seiner Abhandlung "Über das Fundament der Erkenntnis" (10) eingegriffen. Übereinstimmung der empirischen Sätze untereinander bedeutet Widerspruchslosigkeit; aber diese genügt nur bei einem rein gedanklichen System wie der Mathematik; für die Erkenntnis  von Tatsachen  kann es nicht einfach auf Widerspruchslosigkeit schlechthin ankommen, sondern nur auf Widerspruchslosigkeit mit ganz bestimmten Aussagen, die nicht frei wählbar sind, weil sie dadurch ausgezeichnet sind, daß sie nicht korrigierbar sind. Das sind die Aussagen über eigene Wahrnehmungen in der Gegenwart. Aber diese Aussagen sind nicht Protokollsätze, die am  Anfang  der Erkenntnis stehen; diese sind wohl der Ursprung der Erkenntnis, aber nicht ihr Fundament. Jene ausgezeichneten Aussagen sind diejenigen, welche den  Abschluß  der Erkenntnis bilden. Es sind die Beobachtungsaussagen, welche die Verifikation (oder Falsifikation) ergeben.

Die Verifikation kommt dadurch zustande, daß die Übereinstimmung eines vorausgesagten Sachverhalts mit einem beobachteten festgestellt wird. Aus dem zu verifizierenden Sachverhalt wird eine beobachtbare Folgerung abgeleitet und diese mit dem tatsächlich zu beobachtenden Sachverhalt verglichen. Eine astronomische Berechnung ergibt z. B., daß zu der und der Zeit in einem so und so eingestellten Fernrohr ein Stern zu sehen sein wird. Die angestellte Beobachtung kann dann lauten: hier koinzidiert jetzt ein heller und ein dunkler Punkt (der Stern mit dem Schnittpunkt eines Fadenkreuzes). Die Aussage einer solchen Beobachtung hat immer die Form: "hier jetzt so und so" wobei das "so und so" ein unmittelbar vorliegendes Erlebnisdatum, nicht bereits dessen gegenständliche Interpretation bezeichnet; z. B. "hier grenzt jetzt schwarz an weiß" oder "hier ist jetzt Schmerz". Diese Beobachtungsaussagen sind dadurch charakterisiert daß hinweisende Wörter "jetzt", "hier", "dies" wesenhaft zu ihrer logischen Form gehören. Durch diese Wörter wird kein bestimmter Inhalt bezeichnet, sondern sie weisen auf ein unmittelbar Vorliegendes, Gegenwärtiges hin. Nur indem man diesem Hinweis folgt und seine Aufmerksamkeit auf das Bewiesene richtet, kann der Sinn eines solchen Satzes verstanden werden. Infolgedessen wird mit dem Verstehen eines solchen Satzes aber auch schon erkannt, ob er wahr ist. Denn das, was seinen Sinn ausmacht, liegt ja unmittelbar vor. Während sonst bei der Verifikation das Verständnis des Sinnes der Aussage und die Feststellung ihrer Wahrheit zwei ganz verschiedene Phasen sind, fallen sie hier zusammen. Mit dem Sinn einer solchen Aussage, die SCHLICK eine "Konstatierung" nennt, wird zugleich ihre Wahrheit erfaßt. Das ist sonst nur bei analytischen Sätzen der Fall. Auch bei diesen weiß man, sobald man ihren Sinn verstanden hat, daß sie wahr sind, weil ihre Wahrheit aus dem Satz selbst zu erkennen ist. Bei synthetischen Sätzen dagegen weiß man, wenn man sie verstanden hat, noch nicht, ob sie wahr oder falsch sind. Das wird erst durch die Erfahrung, durch Vergleichung mit Beobachtungsaussagen, entschieden. Weil mit dem Verstehen einer Konstatierung auch schon ihre Wahrheit erkannt wird, darum ist eine solche Aussage absolut wahr und gewiß, wie ein analytischer Satz. Sie ist endgültig und unwiderruflich und darum das Fundament der empirischen Erkenntnis. (11)

Aber so geistvoll und bestechend auch dieser Begriff der Konstatierung entwickelt ist, damit ist doch noch nicht eine endgültige Lösung gefunden. Es haftet ihm eine schwerwiegende Unzulänglichkeit an. Die Konstatierungen können ihre absolute Geltung nur für die Gegenwart des Erlebens haben, das sie aussagen. Man kann sie nicht als bleibende Aussagen verwenden. Denn dann werden sie infolge der hinweisenden Wörter "hier" und "jetzt" und "dies" mit ihrer auf das jeweils Gegenwärtige zielenden Bedeutung falsch. Man kann sie aber ebensowenig als Protokollsätze formulieren: "NN hat zur Zeit  t  am Ort  O  das und das wahrgenommen." Denn dann verlieren sie ihre absolute Gültigkeit und werden zu Hypothesen. Eine Konstatierung ist etwas ganz anderes als ein Protokollsatz. Das ist daraus zu ersehen, daß ein Protokollsatz eine Konstatierung einschließt. Denn der obige Protokollsatz kann auch so formuliert werden. "NN hat zur Zeit  t  am Ort  O  die und die Konstatierung gemacht." Der ganze Satz kann nicht dasselbe besagen wie der eingeschlossene Satz. Konstatierungen geben den Anlaß zur Bildung von Protokollsätzen, aber sie selbst kann man nicht protokollieren. Sie sind nicht intersubjektiv, sondern nur ein Monolog. Und sie haben nur eine momentane Geltung. Darum kann man sie nicht als Ausgangssätze benützen und darauf weiterbauen. Das würde ihren Wert nicht beeinträchtigen; aber Konstatierungen sind Aussagen, die überhaupt nicht festgehalten werden können, sie sind bloß momentane Aussagen. "Eine echte Konstatierung kann nicht aufgeschrieben werden. Denn so wie ich die hinweisenden Wörter "hier", "jetzt" aufzeichne, verlieren sie ihren Sinn." (12) Solche Aussagen sind in einem System von Sätzen überhaupt nicht verwendbar. Sie können bloß Anlaß geben zur Bildung anderer Aussagen, die aber dann nur mehr hypothetische Protokollaussagen sind.

SCHLICKs Konstatierung hat im Wiener Kreis sogleich Kritik erfahren. Zuerst hat sie NEURATH (13) kritisch gegen die Konstatierung gewendet, gegen ihren unklaren Charakter, gegen ihre absolute Gewißheit, gegen ihre Übereinstimmung mit der Wirklichkeit. Dann hat POPPER in seniem bedeutenden Buch "Die Logik der Forschung", 1935 (14), das auf die gedankliche Entwicklung im Wiener Kreis einen bestimmenden Einfluß ausgeübt hat, schwere Einwendungen erhoben und einen neuen Gesichtspunkt zur Geltung gebracht. POPPER setzt der Grundauffassung, die in WITTGENSTEINs Lehre von den Elementarsätzen und in der des Wiener Kreises von den Protokollsätzen zum Ausdruck gekommen war, eine ganz andere Auffassung entgegen. Es sind keineswegs singuläre Sätze über Erlebnisse, auf denen die wissenschaftliche Erkenntnis aufzubauen ist und auf die sie zurückzuführen ist und die ihren eigentlichen Sinn ausmachen.

Denn jeder wissenschaftliche Satz geht weit über das hinaus, was wir aufgrund unmittelbarer Erlebnisse sicher wissen. Denn er verwendet allgemeine Begriffe, Universalien. Diese sind nicht auf Klassen von Erlebnissen zurückführbar, sie sind undefinierbar und nur durch den Sprachgebrauch festgelegt. POPPER bestreitet grundsätzlich, daß es überhaupt konstituierbare, d. h. empirisch definierbare Begriffe gibt, also die Konstitutionstheorie - allerdings ohne nähere Ausführung. Es ist darum nicht möglich, eine Aussage zu machen, die wirklich ein bestimmtes Erlebnisdatum als einmaliges, individuelles zum Ausdruck brächte. Darum können Wahrnehmungsaussagen keine bevorzugte Stellung beanspruchen. Infolgedessen sind alle Aussagen überhaupt Hypothesen. Jeder Versuch, wie der SCHLICKs, die Wissenschaft durch Aussagen von Überzeugungserlebnissen zu begründen, erscheint ihm deshalb als Psychologismus und von vornherein verfehlt. Überzeugungserlebnisse, wie die Wahrnehmungsevidenz, sind etwas bloß Psychologisches, wie sich das in der Tat auch bei SCHLICK geltend macht. Er beschreibt als das Charakteristische einer Konstatierung "ein Gefühl der Erfüllung" unserer Erwartung und sagt, "daß die Konstatierungen oder Beobachtungssätze ihre wahre Mission erfüllt haben, sobald diese eigentümliche Befrieidung uns zuteil geworden ist." (15) SCHLICKs Konstatierung ist so viel eher ein bloßes Erlebnis als eine Aussage, eher etwas Psychologisches als etwas Logisches. Wahrnehmen, Erleben liefert wohl das Wissen von Tatsachen, aber nur psychologisch seinem Ursprung nach; es kann nicht seine Geltung begründen. Die Wahrheit von Aussagen kann nicht durch Erlebnisse gewährleistet werden, denn wissenschaftliche Aussagen sind intersubjektiv und sie können auch nur durch intersubjektive Grundlagen in ihrer Geltung begründet werden, nicht durch subjektive Erlebnisse.

Eine Aussage besagt mehr, als was in einem verifizierenden Erlebnis tatsächlich gegeben ist. Denn es ist ja dazu immer erforderlich, daß das Erlebnis  unter bestimmten Umständen  eintritt. Nur ein Lichtpunkt in der und der Nachbarschaft zu einer bestimmten Zeit an einem bestimmten Ort verifiziert einen Stern-Durchgang durch ein Fadenkreuz und stellt eine gültige Stern-Beobachtung dar. Diese Umstände müssen wieder auf ihr Zutreffen prüfbar sein und so impliziert eine Aussage eine Vielzahl von anderen Aussagen. (16) Eine Aussage wird darum auf ihre Geltung geprüft, indem aus ihr zusammen mit bereits gültigen Aussagen solche Folgerungen abgeleitet werden, die möglichst leicht nachzuprüfen sind. Diese Folgerungen müssen singuläre Sätze sein, die aussagen, daß es an einer bestimmten Raum-Zeit-Stelle das und das gibt, also singuläre Existentialaussagen. Ob das, was sie aussagen, tatsächlich der Fall ist, muß intersubjektiv durch Beobachtung nachgeprüft werden können; der betreffende Gegenstand oder Vorgang muß deshalb beobachtbar sein. "Beobachtbarkeit" ist zum Unterschied von "Beobachtung" kein psychologischer Begriff, sondern ein erkenntnistheoretischer, und zwar führt ihn POPPER als einen undefinierbaren Grundbegriff ein. Auf diese Weise hält auch POPPER den Zusammenhang mit Wahrnehmungserlebnissen für die empirische Erkenntnis fest. Solche Sätze über beobachtbare Vorgänge nennt er "Basissätze". Sie sind durchaus nicht das, was mit Protokollsätzen gemeint war. Diese sind Aussagen über tatsächliche Wahrnehmungen, über Erlebnistatsachen. POPPERs "Basissätze" sagen dagegen nichts tatsächlich Erlebtes aus. Sie sind auch nicht bereits anerkannte Sätze, sondern es sind nur  denkbare  Tatsachenfeststellungen, die aus einer Hypothese folgen. Es muß erst entschieden werden, ob ihnen die Tatsachen wirklich entsprechen, ob sie wahr oder falsch sind. Die  denkbaren,  logisch unmöglichen Basissätze geben das Material zur Prüfung einer Hypothese, die daraus  anerkannten  Basissätze geben die Grundlage für deren Bestätigung oder Widerlegung. Diese kann aber nicht schon durch einen  einzelnen  Basissatz geleistet werden, wenn er ein nichtreproduzierbares Einzelereignis aussagt. Denn ein solches kann nicht nachgeprüft werden. Es muß ein intersubjektiv wiederholbarer Vorgang sein. Ein solcher bildet selbst schon eine Hypothese von niedriger Allgemeinheit. Soweit entfernen sich also die Aussagen, auf denen die Geltung empirischer Erkenntnis beruth, von Erlebnisaussagen.

Protokollsätze als Aussagen über Wahrnehmungen sind nicht leicht nachprüfbar. Individuelle Wahrnehmungen sind gerade schwerer nachzuprüfen als z. B. Aussagen über Dinge oder Vorgänge der Außenwelt. Darum werden die entscheidenden Basissätze im allgemeinen solche Aussagen sein und nicht Protokollsätze.

Da die Basissätze nicht absolut gelten, sondern bloß hypothetisch sind, müssen sie auch erst auf ihre Geltung hin geprüft werden, oder wenigstens geprüft werden können. Das muß aber auch wieder für die Sätze zu ihrer Nachprüfung möglich sein und sofort in infinitum. Aber dieser unendliche Regreß führt diese Auffassung nicht ad absurdum, weil es nicht notwendig ist, daß jeder zur Nachprüfung dienende Satz selbst wieder geprüft wird, sondern er muß nur prüfbar sein. Man kann und muß bei einem Satz, der hinreichend gesichert erscheint, stehen bleiben und die Nachprüfung abbrechen. Es gibt keine absolut letzten Sätze, keine Elementarsätze, keine Sätze, die nicht mehr nachgeprüft werden müßten, weil sie absolut sicher und unkorrigierbar sind. Die Basissätze, die wir als entscheidende anerkennen, sind es nur deshalb, weil über ihre Anerkennung am leichtesten eine intersubjektive Einigung erzielt werden kann, weil sie am leichtesten nachprüfbar sind. Das heißt aber, daß die Endsätze der Geltungsbegründung auf Übereinkunft beruhen. Sie gelten so nur durch Festsetzung.

Als die entscheidenden Basissätze werden diejenigen genommen, die intersubjektiv Beobachtbares aussagen, also auf Erlebnisse rekurieren. Aber sie werden durch diese Erlebnisse nicht logisch begründet. Durch die Erlebnisse wird nur ihre Anerkennung, ihre Festsetzung,  motiviert.  Auf die Art der Beziehung zu den Erlebnissen geht POPPER allerdings nicht näher ein; er begnügt sich mit der allgemeinen Formel, "daß der Beschluß, einen Basissatz anzuerkennen, mit Erlebnissen zusammenhängt" (a. a. O., Seite 62). Durch diesen Zusammenhang hält POPPER einen Rest von Empirismus fest. (17) Aber er gesteht selbst zu, eine ähnliche Theorie wie der Konventionalismus zu vertreten. Denn indem die entscheidenden Basissätze durch Festsetzung anerkannt werden, beruth die Geltung einer Hypothese letztlich auf einer Festsetzung aus Zweckmäßigkeitsgründen. "Die Basissätze werden durch Beschluß, durch Konvention anerkannt, sie sind Festsetzungen. Die Beschlußfassung ist geregelt: vor allem dadurch, daß wir nicht  einzelne  Basissätze voneinander logisch anerkennen können, sondern daß wir eine  Theorie  überprüfen" (a. a. O. Seite 62). Die Auszeichnung einer Theorie als gültig "erfolgt nicht durch die logische Zurückführung auf die Erfahrung: jene Theorie ist bevorzugt, die sich im Wettbewerb, in der Auslese der Theorien am besten behauptet, die am strengsten überprüft werden kann und den bisherigen strengen Prüfungen standgehalten hat" (a. a. O. Seite 64). Der Unterschied zwischen POPPERs Auffassung und der des Konventionalismus liegt darin, daß es nicht wie bei diesen die allgemeinsten, sondern die Basissätze sind, die festgesetzt werden. Vom Positivismus und wohl auch vom Empirismus scheidet sich POPPERs Auffassung dadurch, daß die Anerkennung der Basissätze nicht durch Erlebnisse  begründet  wird, sondern daß sie in logischer Hinsicht nur eine willkürliche Festsetzung ist, ein Entschluß, der durch die Erlebnisse nur psychologisch bestimmt wird (a. a. O. Seite 65).

Aber dem gegenüber läßt sich der Empirismus doch insofern aufrechterhalten, als durch eine willkürliche Festsetzung nur bestimmt wird, bei welchen Basissätzen wir mit der Nachprüfung Halt machen. Aber welche Basissätze als entscheidende anerkannt werden, geschieht aufgrund von Erlebnisaussagen. Sie werden deshalb als gültig betrachtet, weil mit ihnen alle dafür in Betracht kommenden Erlebnisaussagen übereinstimmen. Die verifizierenden Aussagen müssen Beobachtungsaussagen sein oder letztlich auf solche zurückgehen. Und sie werden solange als gültig betrachtet, als kein Grund zu ihrer Bezweiflung gegeben ist. Ein solcher ist dann gegeben, wenn sie in Widerspruch zu anerkannten Sätzen treten. Dann werden sie oder diese nachgeprüft und zwar auf dieselbe Weise. Aber immer wird die Entscheidung durch Übereinstimmung (oder Widerspruch) mit Erlebnisaussagen herbeigeführt, die nicht nur mit den zu verifizierenden Basissätzen, sondern auch intersubjektiv übereinstimmen. In dieser Weise bilden der Geltungsgrund der empirischen Aussagen doch Erlebnisaussagen und nicht willkürliche Festsetzungen. Es spielt zwar auch dann noch eine konventionelle Komponente mit, indem es von unserer Entscheidung abhängt, ob wir einen Basissatz als hinreichend gesichert oder als prüfungsbedürftig ansehen. Aber damit wird doch nur über seine Nachprüfung entschieden; das Ergebnis einer solchen jedoch oder auch seine hingenommene Geltung ohne Nachprüfung wird nicht durch Festsetzung bestimmt, sondern durch Erlebnisaussagen. (18) Die Festsetzung bezieht sich nur auf das Absehen von einer Nachprüfung, nicht auf eine  inhaltliche  Wahl der verifizierenden Sätze. Diese wird vielmehr durch ihr Verhältnis zu Erlebnisaussagen bestimmt. Die Theorien, die sich am besten bewähren, sind eben diejenigen, welche am besten mit intersubjektiv übereinstimmenden Beobachtungsaussagen übereinstimmen.

In der ganzen Frage der Protokollsätze geht es darum, daß die Sprache auf etwas Außersprachliches bezogen werden muß, nicht einfach deshalb, weil sie dadurch erst eine Bedeutung erhält, sondern insofern als ein System von Sätzen, das als Wirklichkeitserkenntnis charakterisiert werden soll, erst dadurch bestimmbar wird. Das war das Motiv für SCHLICK. Die Verifikation müßte rein logisch, rein formal, begründet werden können, sollte man dabei ganz innerhalb der Sprache bleiben. Aber mit der bloßen Syntax läßt sich die Verifikation nicht erfassen. Das hat sich in den Bemühungen CARNAPs gezeigt. In der reinen Formanalyse kann sich keine Auszeichnung empirischer Sätze ergeben, weil sie sich nicht durch ihre logische Form charakterisieren lassen (19) (wie WITTGENSTEIN glaubte). Darüber wollte NEURATH mit Hilfe der Kohärenztheorie hinwegkommen. Aber damit gelangt man zu keiner Eindeutigkeit; man übergibt sich der Willkür, man verliert den Empirismus. Durch die rein syntaktische Betrachtung der Sprache ist das Problem der Verifikation unlösbar geworden, weil damit keine Beziehung zur Außersprachlichem in Betracht gezogen wird. Erst der semantische Gesichtspunkt schafft den Boden dafür. Aber das Problem der verifizierenden Sätze hat hinsichtlich ihrer Beziehung zur Wahrnehmungserlebnissen im Wiener Kreis noch keine volle Lösung gefunden, sondern es hat sich durch den Physikalismus nur noch kompliziert.

Die Auffassung der Erlebnisaussagen als Erkenntnisgrundlagen in der Form, wie sie im bisherigen Empirismus herrschend war und die POPPER als "Induktivismus" bekämpft, muß aufgegeben werden. Nach dieser stehen die Erlebnisaussagen logisch am Anfang und durch ihre Ordnung und Zusammenfassung in der Induktion kommt die empirische Erkenntnis, auch die allgemeinen Sätze, zustande. Aber Induktion kann als ein stringentes logisches Verfahren nur begründet werden, wenn zur logischen Ableitung von allgemeinen Sätzen aus besonderen ein allgemeinster Obersatz gegeben ist, ein Induktionsprinzip. Das müßte eine allgemeine synthetische Aussage über die Wirklichkeit sein, über die Gleichförmigkeit des Naturgeschehens. Eine solche kann natürlich nicht selbst wieder induktiv begründet werden, weil das eine petitio principii [es wird vorausgesetzt, was erst zu beweisen ist - wp] wäre. Sie ließe sich aber auch nicht axiomatisch einführen, weil sie dann durch die erste nachträglich widerlegte Verallgemeinerung selbst widerlegt würde. (20) Daß auf deduktivem Weg und überhaupt logisch die Induktion nicht zu begründen ist, war im Wiener Kreis eine der frühesten grundsätzlichen Einsichten. Auch wenn SCHLICK sagt, daß die Gesetze der Wissenschaft aus Erlebnisaussagen "allmählich durch jenen Prozeß entstehen, den man  Induktion  nennt und der in nichts anderem besteht, als darin, daß ich durch Protokollsätze angeregt oder veranlaßt allgemeine Sätze versuchsweise aufstelle  (Hypothesen),  aus denen jene ersten Sätze ... logisch folgen", so ist er sich doch über den nicht-logischen, bloß psychologischen Charakter dieses Prozesse vollkommen klar: "Induktion ist nichts anderes, als ein methodisch geleitetes Raten, ein psychologischer, biologischer Prozeß, dessen Behandlung gewiß nichts mit Logik zu tun hat." (21) Die  Geltung  empirischer Aussagen beruth nicht auf Induktion, sondern auf der nachträglichen Verifikation der versuchsweise aufgestellten Hypothesen. Wenn Sätze, die aus diesen folgen, "dasselbe aussagen, wie spätere Beobachtungssätze, so gelten die Hypothesen solange als bestätigt, als nicht auch Beobachtungsaussagen auftreten, die zu aus den Hypothesen abgeleiteten Sätzen ... im Widerspruch stehen" (ebd.) In Bezug auf "Induktivismus" und "Deduktivismus" war man im Wiener Kreis mit POPPER einig.

Das bedeutet eine abermalige grundsätzliche Reform des Empirismus. Vom Boden der strengen Logik aus muß seine herkömmliche Basierung auf die Induktion preisgegeben werden. Es ist nicht so, wie JOHN STUART MILL und MACH und auch WITTGENSTEIN die empirische Erkenntnis sich vorgestellt haben: daß sie auf singulären Erlebnisaussagen beruth, die jede für sich gewiß sind und durch deren Zusammenfassung sich die Naturgesetze ergeben. Damit hat man nicht einmal ihre Entstehung psychologisch beschrieben, aber ihre Geltung läßt sich so jedenfalls nicht begründen. (22) Alle empirische Erkenntnis besteht darin, daß wir Hypothesen bilden, die über das Erlebnisgegebene  hinausgehen,  die immer mehr besagen als dieses, auch schon in singulären Sätzen. Eine Hypothese erhält ihre Geltung nicht ein für allemal durch die ihr vorausgehenden Beobachtungen, sondern sie muß sich in der nachträglichen Verifikation immer wieder bestätigen. Ihre Verifikation hängt von der Übereinstimmung mit intersubjektiv anerkannten Erlebnisaussagen ab. Infolge der stets erneuerten Nachprüfbarkeit gibt es bei empirischen Aussagen keine endgültige Geltung, sondern immer nur eine vorläufige widerruflich. Daß dabei Intersubjektivität der Feststellbarkeit Bedingung ist, dadurch wird die empirische Geltung nicht auf Übereinkunft zurückgeführt. Es ist ja nicht eine willkürliche Vereinbarung, diese Erlebnisaussagen anzuerkennen und jene nicht, sondern es ist eine Gesetzmäßigkeit in den Erlebnistatsachen, die für die verschiedenen Subjekte feststellbar sind, durch die die Verifikation bestimmt wird. So wird Geltung "aufgrund von Erfahrung" bestimmt, zum Unterschied von ihrer induktiven Auffassung.


2. Die Verifikation allgemeiner Aussagen

Auch für die nicht-induktivistische Auffassung bildet die Geltung  allgemeiner  Aussagen ein schwerwiegendes Problem. WITTGENSTEIN wollte gemäß seiner Entdeckung der Wahrheitsabhängigkeit die Wahrheit der allgemeinen Sätze als eine Wahrheitsfunktion singulärer Sätze darstellen. Dazu muß sich ein allgemeiner Satz in eine Konjunktion singulärer Sätze auflösen lassen. Das ist aber zu allermeist nicht möglich. Es gibt zwei Arten von Allgemeinheit: "Alle" kann einmal eine bestimmte endliche Menge in ihrer Gesamtheit bedeuten, eine bestimmte Anzahl, deren Elemente einzeln aufgezählt werden können, z. B. alle Bewohner Wiens, wie sie bei einer Volkszählung an einem Stichtag gezählt werden. "Alle" kann aber auch eine Klasse bedeuten, die nur durch bestimmte Merkmale (Eigenschaften oder Beziehungen) definiert wird und deshalb eine unbestimmte, nicht abgeschlossene sondern offene Menge darstellt, deren Elemente darum nicht vollständig aufgezählt werden können. Das ist die Allgemeinheit, die den Naturgesetzen zukommt. Infolgedessen können nur Sätze der ersten Art in eine Konjunktion umgeformt werden und als deren Wahrheitsfunktion Geltung erlangen. Für Sätze der zweiten Art hingegen ist das undurchführbar. Deshal hat WITTGENSTEIN und ihm folgend RAMSAY (23) und SCHLICK (24) nur Atomsätze und aus ihnen zusammengesetzte molekulare Sätze als echte Sätze der Erkenntnis gelten lassen, weil man von ihnen noch annahm, daß sie sich endgültig verifizieren lassen, nicht aber Sätze von unbeschränkter Allgemeinheit. Das hat aber weitgehende Konsequenzen. Damit wird natürlich nicht nur das aktuell Unendliche in der Mathematik ausgeschlossen - dem hat FELIX KAUFMANN Rechnung zu tragen gesucht (25) - sondern es können auch die  Naturgesetze  nicht im gewöhnlichen Sinn als Aussagen von  unbeschränkter Allgemeinheit  verstanden werden. Faßt man aber Naturgesetze als  molekulare Sätze,  d. i. als bloße Zusammenfassung von singulären Sätzen in einer Konjunktion und als deren Wahrheitsfunktion auf, dann würden sie nur  bekannte Feststellungen  enthalten, aber  Voraussagen  für neue Fälle würde es damit  nicht  geben. Deshalb hat SCHLICK die allgemeinen Sätze, welche Naturgesetze aussprechen, nur als Anweisung oder Formeln zur Bildung von Aussagen betrachtet (26), nämlich der besonderen Aussagen, die aus einer allgemeinen Aussage (einem Naturgesetz) abzuleiten sind, z. B. "unter den und den Umständen wird der Zeiger eines bestimmten Apparates auf einem bestimmten Skalenstrich stehen." Danach würden die Naturgesetze und damit der theoretische Inhalt der exakten Wissenschaften und die Grundlage der Technik überhaupt keine Erkenntnis darstellen, sie würden gar nichts über die Welt der Gegenstände aussagen, sondern nur eine Art von syntaktischen Regeln bilden. (27) Ein Naturgesetz stellt demnach nur ein Satz-Schema, eine "Satzfunktion", dar und ein solches kann natürlich gar nichts Tatsächliches besagen. Es enthält nur eine methodische Regel. Es dient dazu, um aus ihm durch die Einsetzung konkreter Daten bestimmte Aussagen zu bilden. Nur diese können verifiziert werden; für das Satz-Schema schließt sich das von selbst aus.

Dagegen hat sich KAILA gewendet (28) mit der Argumentation, daß nicht die  vollständige  Verifizierbarkeit eines All-Satzes gefordert werden müsse, damit er sinnvoll sei. Denn der Sinn eines Satzes besteht unabhängig von dessen Verifizierbarkeit, indem dazu nur die Ausdrücke darin bekannt und seine Syntax korrekt sein muß. Nur die einzelnen Aussagen, die aus einem All-Satz folgen, müssen verifizierbar sein, aber nicht deren Gesamtheit. All-Sätze sind gerade als nicht vollständig verifizierbare für die Erkenntnis wesentlich, weil sie nur dann für künftige Fälle etwas besagen, was nicht der Fall wäre, wenn sie sich in einer endlichen Anzahl von Fällen erschöpften.

Durch CARNAPs Analyse der Sprache ist es klar geworden, daß der Ausschluß unbeschränkt allgemeiner Aussagen nicht eine Notwendigkeit ist, sondern eine Festsetzung, die auch anders getroffen werden kann. Es ist eine Festsetzung, die die Formregeln einer Sprache betrifft und in sehr verschiedener Weise frei gewählt werden kann. CARNAP hat eine ganze Skala von Sprachen entworfen, indem in verschiedener Abstufung Sätze bestimmter Form zugelassen oder ausgeschlossen werden. (29)

Sätze der einfachsten Form, atomare oder elementare Sätze, sind singuläre Sätze mit einem "primitiven" Prädikat. Das ist ein Prädikat, das beobachtbar ist, oder durch eine Kette von atomaren Zurückführungssätzen eingeführt ist. Ihnen stehen die zusammengesetzten Sätze gegenüber. Innerhalb deren besteht ein grundlegender Unterschied, je nach der Art der Opertionen, durch welche sie gebildet werden. Mit Hilfe der Satzverknüpfungen (Konjunktion, Implikation usw.) enstehen die  molekularen  Sätze, durch All- und Existenzial-Operatoren die generalisierten Sätze. Wenn diese auf endliche Felder beschränkt sind, können sie in Konjunktionen oder Disjunktionen, also in molekulare Sätze umgeformt werden. Die umstrittenen sind die Sätze von  unbeschränkter  Allgemeinheit. Auch unter diesen gibt es nochvielfache Unterschiede, ja nachdem ob sie All- oder Existenzial-Operatoren enthalten oder beide solche und je nach der Anzahl derselben. So ergibt sich eine unendliche Reihe von Sprachen mit steigender Kompliziertheit.

Die einfachste Sprache ist die, in der nur Sätze von beschränkter Allgemeinheit, molekulare Sätze, gebildet werden können. Die nächst höhere, d. i. reichere Sprachform ist diejenige, in der unbeschränkt allgemeine Sätze der einfachsten Form, nämlich mit  einem  All-Operator, zulässig sind. Die nächste ist dann jene, in der auch Existenzialsätze der einfachsten Form, nämlich mit  einem  Existenzial-Operator zugelassen werden. Die nächste ist wieder die, in der unbeschränkte All-Sätze mit einem Existenzial-Operator eingeführt werden. Die höheren Sprachformen ergeben sich dann durch eine abwechselnde Hinzunahme von All- und Existenzial-Operatoren (mit zwei All- und einem Existenzial-Operator, dann mit zwei Existenzial- und einem All-Operator usw.) und so lassen sich durch die wachsende Zahl der Operatoren immer neue, reichere Sprachformen biden, theoretisch unendlich viele, praktisch begrenzt durch die übergroße Kompliziertheit. Der Wert dieser Überlegung besteht darin, daß man daraus ersieht, wie der Bau einer Sprache durch willkürliche Festsetzungen bestimmt wird.

Die Ausschließung unbeschränkter Allgemeinheit, wie sie die "Finitisten" WITTGENSTEIN, RAMSAY, SCHLICK und KAUFMANN vorgenommen haben, kann zwar nicht als falsch bezeichnet werden, denn die Wahl der ersten, der einfachsten Sprachform, die sie damit getroffen haben, steht ebenso frei wie jede andere. Aber diese Wahl ist durchaus unzweckmäßig, weil sie mit der tatsächlichen Sprache der Wissenschaft nicht übereinstimmt. Diese verwendet in den Naturgesetzen Aussagen von unbeschränkter Allgemeinheit in größtem Maß und sie verwendet sie in Verbindung mit singulären, also zweifellos "echten" Sätzen in den Formen der Implikation und Konjunktion usw., also wie echte Sätze, nicht wie syntaktische Regeln. (30) Darum wird man besser eine Sprachform mit unbeschränkten All-Aussagen wählen. Damit ist die Frage der Zulässigkeit solcher Aussagen klar und vollständig gelöst.

Aber es bleibt das Problem der Verifikation unbeschränkter All-Aussagen. Die "Finitisten" wollten sie ja von den echten Aussagen deshalb ausschließen, weil sie sich nicht als Wahrheitsfunktionen singulärer Sätze fassen lassen. Sie können ja nicht durch eine endliche Konjunktion von singulären Aussagen ersetzt werden, weil man ihre einzelnen Fälle nicht alle kennt und sie darum nicht aufzählen und nicht prüfen kann. Darum können unbeschränkte All-Aussagen überhaupt nicht vollständig verifiziert werden. Das ist eine unumstößliche Einsicht.

Die Verifikation unbeschränkter All-Aussagen kann immer nur in der Weise vor sich gehen, daß singuläre Aussagen, die mit Hilfe anderer Aussagen aus ihnen gefolgert werden, in Bezug auf ihre Übereinstimmung mit bereits anerkannten Aussagen, letztlich mit Erlebnis-Aussagen, geprüft werden. Wenn in allen Fällen die Prüfung positiv ausfällt und sich keine widersprechende Aussage ergibt, dann ist eine unbeschränkte All-Aussage damit für diese, die bekannten Fälle, verifiziert; aber für die unbekannten, für die zukünftigen, bleibt ihre Geltung noch in der Schwebe. Denn es ist ja nie auszuschließen, daß sich später noch widersprechende Einzelaussagen finden. Diese teilweise Verifikation wird man am besten als "Bewährung" (31) oder als "Bestätigung" (32) bezeichnen.

Wenn unbeschränkt allgemeine Aussagen auch nicht vollständig verifiziert werden können, so können sie doch durch eine widersprechende Aussage, die anerkannt ist, widerlegt werden. Das hat POPPER mit besonderem Nachdruck dargelegt. Er hat dazu die Korrelation herangezogen, die zwischen All-Aussagen und Existenzial-Aussagen besteht. Einer positiven All-Aussage entspricht eine verneinte Existenzial-Aussage, z. B. "alle katzenartigen Raubtiere haben einziehbare Krallen" und "es gibt kein katzenartiges Raubtier mit fixen Krallen". Einer verneinten All-Aussage entspricht eine positive Existenzial-Aussage, z. B. "nicht alle Schwäne sind weiß" und "es gibt Schwäne, die nicht weiß sind". In einer singulären Existenzial-Aussage wird eine Tatsache festgestellt; dadurch und zugleich durch ihre logische Korrelation zu einer All-Aussage ist sie zu deren Prüfung geeignet. Durch eine gültige positive Existenzial-Aussage, deren Verneinung das Korrelat einer positiven All-Aussage ist, wird diese positive All-Aussage widerlegt. Allgemeine Aussagen sind somit vollständig widerlegbar (falsifizierbar). Das gilt aber, außer für molekulare Sätze, nur für All- und Existenzial-Sätze mit  einem  Operator, nicht für Sätze von komplizierterer Form. Aber  negierte  allgemeine Aussagen sind demgemäß verifizierbar, durch eine positive singuläre Existenzial-Aussage - eine Konsequenz, die POPPER allerdings nicht gezogen hat, die aber CARNAP klargelegt hat. (33) Umgekehrt sind, entsprechend ihrer Korrelation mit All-Aussagen, Existenzial-Aussagen durch Wahrnehmungs-Aussagen verifizierbar, aber nicht falsifizierbar. Die Aussage "es gibt riesige Seeschlangen" könnte man durch einen singulären Existenzial-Satz verifizieren, aber man kann sie nicht widerlegen. Denn man kann nicht alle Meere vollständig durchsuchen, um festzustellen, daß keine solche zu finden ist. Die Negation einer solchen unbestimmten nicht-singulären Existenzial-Aussage ist demgemäß nicht verifizierbar, aber falsifizierbar.

Die Bedingungen, die ein besonderer Satz, ein Basis-Satz, erfüllen muß, um als Grundlage einer Falsifikation geeignet zu sein, werden demnach durch bestimmte logische Beziehungen eines solchen Satzes gegeben:
    1. Ein falsifizierender Satz darf aus dem zu prüfenden Satz nicht ohne Zuhilfenahme anderer Sätze (ohne spezielle Randbedingungen) folgen, weil er eben sonst nicht widersprechen kann.

    2. Um ihm widersprechen zu können, muß die  Negation  des Basis-Satzes aus dem zu prüfenden Satz logisch ableitbar sein. Daher muß ein falsifizierender Satz und seine Verneinung eine verschiedene logische Form haben.
Dies wird durch die Entsprechung eines allgemeinen und eines Existenzialsatzes geboten: Ein unverträglicher singulärer Existenzialsatz ist aus einem allgemeinen Satz nicht ableitbar (gemäß 1); aber durch Verallgemeiner seiner Negation läßt sich daraus ein widersprechender All-Satz ableiten (gemäß 2). Dazu kommt noch eine inhaltliche Bedingung: ein falsifizierender Satz muß einen beobachtbaren Vorgang aussagen. Das hängt damit zusammen, daß die "Existenz" nur durch den Zusammenhang mit Erlebnissen zu verifizieren ist.

Es besteht demnach eine Asymmetrie zwischen Verifizierbarkeit und Falsifizierbarkeit: keine vollständige Verifizierbarkeit, aber vollständige Falsifizierbarkeit, und damit keine volle Entscheidbarkeit der Geltung, sondern nur eine Teilentscheidbarkeit. Auch sie besteht aber nur unter bestimmten Voraussetzungen. Man kann einem Widerspruch zwischen einem allgemeinen und einem singulären Satz ausweichen, nicht einfach auf die primitive Weise, daß man die widersprechende singuläre Aussage nicht anerkennt, sondern dadurch, daß man Hilfs-Hypothesen einführt, die den Widerspruch "aufklären" und beheben, wie es z. B. die LORENTZ-FITZ- GERALDsche Kontraktions-Hypothes gegenüber dem MICHELSON-Versuch war, oder indem man in den Voraussetzungen  Änderungen  vornimmt, durch die der Widerspruch verschwindet. Denn die Prüfung einer Aussage, ob einer allgemeinen oder einer singulären, erfordert immer eine Zuhilfenahme anderer Aussagen, allgemeiner oder singulärer. Diese Voraussetzungen kann man so gestalten, z. B. durch eine Änderung der Zurodnungs-Definitionen, daß kein Widerspruch mehr zustandekommt. Das hat ja vor allem der Konventionalismus geltend gemacht. Wenn die Messung eines empirischen Dreiecks (wie die bekannte von GAUSS durchgeführte) eine Winkelsumme ungleich zwei Rechten ergäbe, würde das nicht der Euklidizität des empirischen Raumes widersprechen, wenn man die Lichtstrahlen, die dabei als Visierlinien benützt werden, statt als Gerade, als gekrümmt annimmt. (34) Man kann deshalb immer nur ein ganzes  System  von Aussagen bestätigen oder widerlegen, eine einzelne Aussage (eine neue Hypothese) nur dann, wenn der übrige Teil des Systems als gesichert und feststehend betrachtet wird. Will man nicht den Empirismus zugunsten des Konventionalismus preisgeben, so darf eine solche Beseitigung eines Widerspruches zwischen einer Folgerung aus der zu prüfenden Hypothese und einem anerkannten Basis-Satz nur unter bestimmten Bedingungen vorgenommen werden. Man darf nicht willkürliche Hilfs-Hypothesen oder Änderungen in den Voraussetzungen einführen, die lediglich zu dieser Beseitigung dienen und sonst unbegründbar sind. Willkürlich sind solche Auskunftsmittel dann, wenn sie nicht selbständig geprüft werden können, durch neue Beobachtungen, oder wenn sie sich nicht aus bereits anerkannten Sätzen folgern lassen. Das sind methodische Regeln, durch die der Empirismus gefordert und begründet wird. (35) Sie sind nicht willkürlich aufgestellt, sondern deshalb notwendig, weil sich nur dann Eindeutigkeit der Tatsachenkenntnis und ein Höchstmaß an Gesetzmäßigkeit ergibt. (36)

Hypothesen oder Theorien sind nicht alle in gleichem Maße prüfbar. Sie sind es umso mehr, je mehr Falsifizierungs-Möglichkeiten sie enthalten. POPPER hat versucht, den relativen Grad der Prüfbarkeit (Falsifizierbarkeit) auf zweierlei Weise exakt zu bestimmen:
    1. durch eine Vergleichung der Klassen der Falsifikations-Möglichkeiten zweier Sätze. Ein Satz ist in höherem Grad falsifizierbar oder besser prüfbar als ein anderer, wenn die Klasse seiner Falsifikations-Möglichkeiten die Klasse der Falsifikations-Möglichkeiten des andern als echte Teilklasse enthält. Er ist es in dem gleichen Grad, wenn beide Klassen umfangsgleich sind. Wenn aber eines dieser Klassenverhältnisse nicht besteht, wenn die Klassen der Falsifikations-Möglichkeiten inkommensurabel sind, dann ist diese Art der Bestimmung unmöglich.

    2. Eine zweite Art der Meßbarkeit des Prüfbarkeitsgrades versucht POPPER dadurch zu gewinnen, daß er eine Klasse von Sätzen als "relativ atomare" Sätze auszeichnet. Er bestimmt sie als diejenige, welche durch Einsetzung in eine willkürlich festgesetzte Satzfunktion (die z. B. das Schema einer Messungsablesung enthält) entstehen. Wenn ein Satz nur durch eine Konjunktion von  n  verschiedenen Sätzen einer Klasse solcher atomarer Sätze falsifiziert werden kann, aber noch nicht durch eine Konjunktion von  n - 1,  dann bezeichnet die Zahl  n  den Grad der Komplexität des Satzes in Bezug auf diese Klasse von atomaren Sätzen und seinen Prüfbarkeitsgrad, wenn mit den atomarmen Sätzen die Basis-Sätze so bestimmt werden. (37)
Dadurch ergibt sich für POPPER die Möglichkeit, dem Begriff der Einfachheit eine präzise Fassung zu geben. Die Einfachheit spielt im bisherigen Empirismus seit KIRCHHOFF, bei MACH und AVENARIUS als "Denkökonomie", und ebenso im Konventionalismus seit POINCARÉ eine grundlegende Rolle. Sie soll die Wahl einer Hypothese, einer Theorie bestimmen. Aber alle bisherigen Versuche, anzugeben, worin die Einfachheit eigentlich besteht, und ein Maß der Einfachheit aufzustellen, sind nicht geglückt. Was als einfach charakterisiert wird, erscheint so teils unter dem praktischen Gesichtspunkt (wie Denkökonomie), teils unter einem ästhetischen, jedenfalls also unter einem außerlogischen Gesichtspunkt. Was  logisch  mit Einfachheit gemeint sein kann, sucht POPPER mit Hilfe des Falsifizierbarkeitsgrades zu bestimmen. Wie weit ein solcher Einfachheitsbegriff tatsächlich verwendbar ist, wird durch seine kurzen Ausführungen darüber allerdings nicht hinreichend klargelegt, sondern bedürfte erst einer eingehenden Untersuchung.


3. Wahrheit und Bewährung

Da eine allgemeine Aussage über Tatsachen nie voll verifizierbar ist, kann sie ihre Geltung nur dadurch erhalten, daß aus ihr abgeleitete Aussagen immer verifiziert werden. Auf diese Weise kann eine solche allgemeine Aussage nie endgültig in ihrer Geltung gesichert werden; sie ist immer nur durch eine Anzahl von Prüfungen bestätigt und es ist die Möglichkeit nicht ausgeschlossen, daß sie durch eine neuerliche Prüfung widerlegt wird. Deshalb kann man von einer allgemeinen Aussage nicht sagen, daß sie wahr ist. Sie kann wahr sein, aber ob sie es ist, kann man nicht wissen. Dagegen kann man wegen der Asymmetrie zwischen Verifizierbarkeit und Falsifizierbarkeit wissen, daß sie falsch, weil widerlegt ist. Darum kann man bei allgemeinen Aussagen anstelle von Wahrheit nur von ihrer Bestätigung und Bewährung sprechen.

Weniger klar ist es, wie die Dinge in Bezug auf besondere, singuläre und partikuläre Aussagen liegen. Solche erscheinen uns vielfach zweifellos.

Daß meine Gebrauchsgegenstände aus den und den Stoffen bestehen, daß meine Wohnung so und so viele Räume hat, daß das, was ich vor mir sehe, die und die bestimmten Gegenstände sind, kurz, daß gewisse Wahrnehmungen richtig gedeutet sind, dessen sind wir völlig sicher; solches in Zweifel zu ziehen, wäre eine lächerliche Skrupel. Das ist unsere subjektive Überzeugung. Aber diese ist nur etwas Psychologisches. Können wir aber auch erkenntnismäßig dessen sicher sein? Doch nur unter gewissen Voraussetzungen. Solche zweifelsfreie Aussagen sind immer Aussagen über gutbekannte Sachverhalte, über die gewohnte Umgebung, über wohlvertraute Gegenstände oder Gegenstandsklassen. Die Sicherheit kommt daher, daß diese Sachverhalte unzählige Male geprüft und bestätigt gefunden worden sind. Wenn die besonderen Aussagen dagegen neue, ungewohnte, fremdartige Sachverhalte betreffen, sind wir nicht mehr so sicher, wir müssen uns erst vergewissern, d. h. nachprüfen.

Eine Aussage über einen vielfach geprüften Sachverhalt können wir nur deshalb als zweifellos erachten, weil wir voraussetzen, daß die Verhältnisse unterdessen nicht anders geworden sind, daß Gleichförmigkeit in der Welt besteht, d. h. daß es Gesetzmäßigkeiten in der Welt gibt. (38) Das ist aber selbst keine unbezweifelbare Erkenntnis, weil es selbst eine unbeschränkt allgemeine Aussage ist, und damit eine Aussage auch über Unbekanntes, über das wir nichts wissen können. Wir haben keine Gewißheit dafür, daß wir vor Überraschungen sicher sind. Es ist ein Glaube, so fest, daß wir daraufhin sogar unser Leben riskieren, aber keine erweisbare Erkenntnis. Unter der Voraussetzung von Gesetzmäßigkeiten sind vielfach geprüfte und bestätigte Sachverhalte als wahr gewiß, weil sie aus jenen logisch ableitbar sind. Aber damit sind sie doch nur  bedingt  wahr, nicht absolut wahr. Erkenntnistheoretisch haben auch solche besonderen Aussagen keinen Vorzug; sie sind nicht unbezweifelbar, sie sind infolge ihrer logischen Abhängigkeit von allgemeinen Aussagen, die grundsätzlich unsicher sind, weil sie als wahr nicht endgültig erweisbar sind, grundsätzlich ebensowenig als wahr gewiß wie diese. Wenn es sich um die  Erweisbarkeit  ihrer Wahrheit handelt, sind sie ebenso nur bewährt und bestätigt, wie ihre allgemeinen Voraussetzungen, nur eben in höchstem Maß.

Wenn besondere Aussagen geprüft werden müssen, so geschieht dies in derselben Weise wie bei allgemeinen Aussagen: es werden aus ihnen Folgerungen abgeleitet, die durch Vergleichung mit anerkannten Basis-Sätzen geprüft werden. Eine Prüfung  aller  solcher Folgerungen ist auch hier nicht möglich und darum keine vollständige Verifikation auch für besondere Aussagen. (39)

Wie Aussagen in verschiedenem Maß prüfbar sind, so können sie sich dabei auch besser oder weniger gut bewähren. Der Grad der Bewährung nimmt mit der Anzahl der Bewährungen zu, aber er hängt nicht so sehr von der  Anzahl  der Fälle ab, in denen sie sich bewähren, als von der Strenge der Prüfung. Damit hängt der Grad der Bewährung auch, aber nicht allein, vom Grad der Prüfbarkeit ab.

Die Bedingungen und Arten der Bewährung hat CARNAP präziser und systematisch ausgeführt. (40) er unterscheidet die Prüfbarkeit einer Aussage von ihrer Bestätigungsfähigkeit. Eine Aussage ist bestätigungsfähig, wenn man die Umstände angeben kann, unter denen die Aussage wahr ist. Eine Aussage kann bestätigt werden mit Hilfe von andern, indem sie auf diese zurückgeführt wird, entweder direkt oder mittelbar, entweder vollständig oder unvollständig. Eine empirische Aussage ist überhaupt einer Bestätigung fähig, wenn ihre Bestätigung auf die Bestätigung eines beobachtbaren Prädikats zurückgeführt werden kann. Ein molekularer Satz (ein aus einfachen Sätzen zusammengesetzter) mit lauter bestätigungsfähigen Prädikaten kann sowohl hinsichtlich seiner Bejahung wie seiner Verneinung bestätigt werden; er ist einer doppelseitigen Bestätigung fähig. Ebenso ein Satz, der aus bestätigungsfähigen Prädikaten mit Hilfe von Satzverknüpfungen (und oder ...) und All- oder Existenzial-Operatoren gebildet ist.

Daß man die Umstände angeben kann, unter denen eine Aussage wahr ist, besagt noch nicht, daß man diese Umstände auch tatsächlich feststellen kann, d. h., daß man die Aussage tatsächlich prüfen und über ihre Geltung entscheiden kann. Eine Aussage kann bestätigungsfähig sein, ohne tatsächlich entscheidbar zu sein. Für eine Prüfungsmethode muß man erstens die Prüfungsbedingung, d. i. eine bestimmte experimentelle Situation und zweitens die Wahrheitsbedingung, d. i. ein mögliches experimentelles Ergebnis daraus angeben können. Das genügt aber nicht. Man muß die Prüfungsbedingung auch realisieren können. Und man muß die Erfüllung der Wahrheitsbedingung selbst wieder prüfen können. Deshalb muß diese entweder durch ein beobachtbares Prädikat bestimmt oder durch solche definiert sein, weil über ein beobachtbares Prädikat ohne Angabe einer Prüfungsmethode entschieden werden kann, oder aber man muß eine Prüfungsmethode dafür angeben.

Danach läßt sich nun bestimmen, wie weit diese Bedingungen für die einzelnen Gattungen von Aussagen ihrem Wesen nach erfüllt werden können. Sätze, für welche diese Bedingungen durch Sätze von atomarer oder molekularer Form angegeben werden, sind  vollständig  zu bestätigen - was nicht dasselbe ist wie vollständig zu verifizieren - und sie sind vollständig prüfbar. Sätze, für welche die Prüfungsbedingungen aber durch Sätze mit All- oder Existenzial-Operatoren angegeben werden, sind nur unvollständig prüfbar und zu bestätigen. Je größer die Zahl der Operatoren in einem Satz ist, umso vollständiger ist er zu bestätigen. Nur bejahende Existenzial-Sätze und negierte All-Sätze der niedersten Form lassen sich vollständig prüfen. Deswegen haben eben WITTGENSTEIN und seine Nachfolger nur molekulare Sätze zulassen wollen und unbeschränkt allgemeine Sätze ausgeschlossen. Und deswegen hat auf POPPER das Prinzip der Falsifizierbarkeit aufgestellt, weil eben die Verneinung eines allgemeinen Satzes vollständig zu bestätigen ist und nur sie. Deswegen beschränkt sich aber die einseitige Falsifizierbarkeit auf eine Sprache, deren Sätze über die Form von All-Sätzen mit einstelligen Prädikaten nicht hinausgehen; sie gilt aber nicht mehr für reichere Sprachen, die auch Existenzial-Sätze und All-Sätze mit mehrstelligen Prädikaten enthalten.

Nun kann man auch klar überschauen, in welcher Weise die Grundprinzipien aufgestellt werden können, die den Empirismus ergeben. Es handelt sich bei diesen nicht um Wahrheiten, nicht um Tatsachenfeststellungen in Bezug auf "die" Grundlagen oder Bedingungen "der" Wirklichkeitserkenntnis, sondern um Anforderungen in Bezug auf die Bestätigungsfähigkeit und Prüfbarkeit von Aussagen, es handelt sich um den Bau einer Sprache. Die Grundforderung des Empirismus ist die, daß alle synthetischen Sätze und deskriptiven Prädikate in einem bestimmten Zusammenhang mit Beobachtbarem stehen müssen. Man kann diesen Zusammenhang enger oder weiter, strenger oder liberaler fassen. Die engste Fassung, die strengste, weitestgehende Forderung ist die, daß für jeden synthetischen Satz die vollständige Prüfbarkeit verlangt wird. Für jedes deskriptive Prädikat muß eine Methode zur Prüfung, ob die in ihm ausgesprochene Eigenschaft oder Beziehung einer Raum-Zeit-Stelle zukommt oder nicht, sowohl bekannt als auch realisierbar sein. Das ist nur erfüllbar, wenn man ausschließlich molekulare Sätze zuläßt, wie WITTGENSTEIN. Die Minimalforderung, die liberalste Fassung, verlangt bloß, daß jeder synthetische Satz, wenn auch nur unvollständig, zu bestätigen sein muß. Dazwischen gibt es noch verschiedene Abstufungen der Forderung im Hinblick auf die Unterschiede in der Prüfbarkeit und Bestätigungsfähigkeit und bei jeder von diesen wieder in Bezug auf eine vollständigere und unvollständigere Weise.

Wenn es dem Empirismus nur darauf ankommt, wissenschaftliche Erkenntnis gegen transzendente Metaphysik abzugrenzen, dann genügt auch die liberalste Forderung noch vollkommen, Metaphysische Sätze können nicht einmal unvollständig in dieser Weise bestätigt werden. Damit ist allerdings auch zugleich klar, daß es nicht ausgeschlossen ist, auch eine Sprache für die Metaphysik aufzubauen. Das kann aber dann nur eine Sprache sein, die auf den Zusammenhang mit Beobachtbarem verzichtet und damit auf Prüfung und Bestätigung im Sinn der Wissenschaft. Sie muß dafür andere Kriterien der Geltung aufstellen. Wenn die Metaphysik nicht überhaupt irrational, intuitiv, dogmatisch vorgehen will, sondern noch in rationaler Weise logisch verfahren will, dann müßte sie sich so ihre Grundlage schaffen.

Wie verhält sich nun die Bewährung zur Wahrheit? Wahrheit ist etwas anderes als Bewährung. Den Unterschied zwischen beiden Qualifikationen hat POPPER klar ausgesprochen (41) Wahrheit und Falschheit sind zeitlos, die Bewährung gilt hingegen immer nur bis zu einem bestimmten Zeitpunkt, sie muß streng genommen immer mit einem Zeit-Index versehen werden. Man kann von empirischen Aussage nicht endgültig und ein für allemal behaupten, daß sie wahr ist, sondern nur, daß sie sich bisher bewährt hat. Bewährung ist eine Geltungsweise von gradueller Abstufung, die einer Aussage immer nur bis auf weiteres, nie endgültig zukommt, und die immer relativ ist. Eine Aussage ist nicht schlechthin bewährt, sondern immer nur bewährt in Bezug auf eine bestimmte Menge von anerkannten Basis-Sätzen. Indem sie eine logische Beziehung zwischen einer Theorie und ihren Basis-Sätzen darstellt, ist Bewährung zwar ebenfalls zeitlos, aber die Summe dieser Basis-Sätze ist nicht konstant, sondern ändert sich mit der Zeit. Deshalb bleibt sie nicht immer die logische Beziehung zwischen  denselben  Sätzen, innerhalb eines und desselben Satz-Systems. Darum kann man Wahrheit nicht mit Bewährung identifizieren, wie das der Pragmatismus tut. Aber er hat darin recht, daß von einer emprischen Theorie, einer empirischen Aussage überhaupt nur ihre relative Bewährung in einem höheren oder geringerem Grad, aber nie ihre absolute Wahrheit behauptet werden kann. Darum wollte POPPER, wie schon NEURATH (42), auf den Gebrauch von "wahr" und "falsch" verzichten und sie durch "Bewährung" ersetzen. Bewährung bedeutet für ihn eine eigene selbständige Qualifikation empirischer Aussagen, die vom Begriff der Wahrheit durchaus unabhängig ist. Bewährung bedeutet dann nicht den Grad der Wahrscheinlichkeit dafür, daß eine Aussage wahr ist. Wenn man Wahrheit und  Kenntnis  der Wahrheit auseinanderhält, wie dies neuerdings CARNAP getan hat (43), läßt sich Bewährung aber auch auf Wahrheit beziehen, in dem Sinn, daß die Bewährung die  Kenntnis  der Wahrheit betrifft. Ob eine empirische Aussage wahr ist, wissen wir nicht mit Sicherheit; aber darin, wie sie sich bewährt, haben wir ein Maß der Wahrscheinlichkeit für ihre Wahrheit.

Wenn auch die Bewährung anstelle der Wahrheit nicht erst vom Wiener Kreis aufgestellt worden ist - der Pragmatismus hat schon lange vorher diesen Gesichtspunkt geltend gemacht - so ist doch das Wesentliche dieser Qualifikation von ihm mit einer Gründlichkeit und Vollständigkeit untersucht worden, die eine völlig neue Leistung darstellt.


4. Wahrscheinlichkeit
a) Erkenntnistheoretische (Aussagen-) Wahrscheinlichkeit

Weil von empirischen Aussagen nicht Wahrheit, sondern nur Bewährung festgestellt werden kann, werden sie gewöhnlich als wahrscheinlich bezeichnet; und man hat den Grad der Wahrscheinlichkeit mit Hilfe der Wahrscheinlichkeitsrechnung zu bestimmen gesucht. Dieser Begriff der Wahrscheinlichkeit bedarf aber sehr der Klärung und hat deshalb den Wiener Kreis viel beschäftigt. (44) Die Wahrscheinlichkeit von Aussagen erscheint klar bestimmbar, wenn man sie mit der mathematischen Wahrscheinlichkeit gleichsetzt, indem diese statt auf Ereignisse Wahrscheinlichkeit dabei als relative Häufigkeit zweier Klassen von Fällen in einer längeren Reihe definiert wird, (45) dann besagt die Wahrscheinlichkeit von Aussagen die relative Häufigkeit der Wahrheit einer Aussage in den einzelnen Fällen ihrer Prüfung gegenüber ihrer Falschheit. So kann die Wahrheits-Häufigkeit zahlenmäßig in einem Bruch festgestellt werden.

Diese Auffassung hat POPPER einer ausführlichen Kritik unterzogen. (46) Vor allem ist es unklar, durch welche Aussagen die Reihe gebildet werden soll, innerhalb deren die Wahrheitshäufigkeit und damit die Wahrscheinlichkeit zu bestimmen ist. Wenn die verschiedenen Basis-Sätze, die einer Hypothese entsprechen oder die ihr widersprechen, die Glieder dieser Reihe bilden, dann würde die Wahrscheinlichkeit einer Hypothese immer noch ½ betragen, wenn ihr auch durchschnittlich die Hälfte der Basis-Sätze widerspricht! Wenn aber die aus einer Hypothese ableitbaren  negierten  Basis-Sätze, das sind also Basis-Sätze, die ihr widersprechen, die Reihe bilden und das Verhältnis der nicht-falsifizierten zu den falsifizierten bei diesen bestimmt wird und damit die Häufigkeit der Falschheit statt der Häufigkeit der Wahrheit, dann ergibt sich die Wahrscheinlichkeit selbst bei einer Anzahl von Falsifizierungen noch sogar mit  1!  Denn es lassen sich unendlich viele negierte Basis-Sätze von der Form "es gibt nicht ..." ableiten, aber nur endlich viele davon falsifizieren. Ein anderer Weg ist aber nicht gangbar, wenn die Wahrscheinlichkeit als das Verhältnis zwischen wahren und falschen Aussagen in einer Reihe definiert wird. Dadurch wird es unmöglich, die "Wahrscheinlichkeit" von Aussagen, die das Maß ihrer Bewährung bezeichnen soll, durch die Anwendung der Wahrscheinlichkeitsrechnung präzise zu bestimmen. Deshalb muß die  erkenntnistheoretische  Wahrscheinlichkeit von der mathematischen unterschieden werden. (47)


b) Wahrscheinlichkeitsrechnung

Abgesehen von der Frage ihrer erkenntnistheoretischen Anwendung hat aber die Wahrscheinlichkeits rechnung  für sich hinsichtlich ihrer theoretischen Grundlagen im Wiener Kreis eine eingehende Untersuchung gefunden. Das hatte seinen Grund darin, daß die Theorie der Wahrscheinlichkeitsrechnung selbst noch kontrovers ist - Häufigkeits-Theorie und Spielraum-Theorie und REICHENBACHs Wahrscheinlichkeitstheorie liegen miteinander im Streit - und daß erkenntnistheoretisch bedeutungsvolle Zusammenhänge zwischen ihr und dem Gesetz der großen Zahlen und dem Kriterium des Zufalls bestehen. Die Wahrscheinlichkeitsrechnung ist längst als ein Formalismus entwickelt worden, durch den sich aus gegebenen Wahrscheinlichkeiten andere berechnen lassen. Aber die ursprüngliche Interpretation der Wahrscheinlichkeit als das Verhältnis der "günstigen" zu den "gleich-möglichen" Fällen ist nicht mehr haltbar, weil mit "gleich-möglich" nichts anderes als "gleich-wahrscheinlich" gemeint ist. Es handelt sich nun darum, was im Begriff der mathematischen Wahrscheinlichkeit eigentlich bestimmt wird.

Die eine Auffassung ist die, daß Wahrscheinlichkeit den Grenzwert der relativen Häufigkeit in der Verteilung von Merkmalen innerhalb einer regellosen Reihe bedeute. Sie sagt dann nichts über ein einzelnes Glieder der Folge, sondern nur etwas über die ganze Folge aus, eben über das Zahlenverhältnis im Auftreten der Merkmale darin. Diese Auffassung der Wahrscheinlichkeitsrechnung hat RICHARD von MISES grundlegend entwickelt. (48) MISES hat eine Wahrscheinlichkeitsfolge, ein "Kollektiv", durch zwei Forderungen charakterisiert: durch ihre Regellosigkeit und dadurch, daß die relative Häufigkeit in allen ihren Abschnitten immer einem Grenzwert zustrebt, und zwar umso näher, je länger die Abschnitte werden.

Demgegenüber hat FEIGL (49) und auch WAISMANN (50) geltend gemacht, daß Konvergenz gegen einen Grenzwert eine Gesetzmäßigkeit bedeutet, nämlich daß von einer bestimmten Stelle einer Reihe ab die Abweichungen von der durchschnittlichen relativen Häufigkeit unter einer beliebig klein gewählten Größe bleiben müssen. Konvergenz und Regellosigkeit stehen somit im Widerspruch zueinander. Man kann Konvergenz gegen einen Grenzwert nur für eine Folge behaupten, die durch ein Bildungsgesetz aufgestellt ist - denn ein Grenzwert ist eine Eigenschaft des Bildungsgesetzes -, und darum nicht für eine Reihe, die infolge der Regellosigkeitsbedingung kein Bildungsgesetz haben kann. (51) FEIGL hat ferner die grundsätzliche Schwierigkeit erörtert, für eine statistische Reihe eine Konvergenz zu behaupten. Denn jede noch so sehr abweichende Komplexion hat eine berechenbare, wenn auch sehr geringe Wahrscheinlichkeit und könnte mit entsprechender Häufigkeit vorkommen. Infolgedessen könnte man auch für Abschnitte, die stark von der errechneten Häufigkeit abweichen, doch immer noch eine Konvergenz annehmen, weil man die Abweichung als einen seltenen Abschnitt von sehr geringer Wahrscheinlichkeit, der sich in der weiteren Folge ausgleichen wird, auffassen könnte. WAISMANN hat auch noch auf einen anderen grundsätzlichen Einwand gegen die Häufigkeitstheorie der Wahrscheinlichkeit hingewiesen. Die Wahrscheinlichkeitsrechnung arbeitet mit unendlichen Folgen. Die statistischen Reihe sind aber nur endlich. Daher ist die Identifizierung einer relativen Häufigkeit mit einem Grenzwert nicht zulässig und die statistische Wahrscheinlichkeit kann nicht als Grenzwert einer relativen Häufigkeit definiert werden.

Gegenüber der Häufigkeits-Theorie der Wahrscheinlichkeit hat WAISMANN (a. a. O.) der Auffassung der Wahrscheinlichkeit, wie sie von BOLZANO, von KRIES und neuerdings von KEYNES in Fortbildung der klassischen kombinatorischen Wahrscheinlichkeits-Theorie entwickelt worden ist, in Anlehnung an WITTGENSTEIN eine strenge logische Grundlegung gegeben. Der klassische Wahrscheinlichkeitsbegriff wird definiert als der Quotient der günstigen in die gleich möglichen Fälle. Es bedarf erst noch einer Präzisierung dessen, was mit objektiver Möglichkeit gemeint ist.

Wahrscheinlichkeit kann streng genommen und richtig verstanden, nicht einem  Ereignis  zukommen. Denn für das Eintreten eines Ereignisses gibt es keine Unsicherheit; es ist eindeutig bestimmt, ob es eintritt oder nicht. Wahrscheinlichkeit kommt vielmehr eigentlich der  Aussage  zu, in der das Eintreten eines Ereignisses vorausbestimmt werden soll, aufgrund anderer Aussagen. Wahrscheinlichkeit besagt somit eine logische Beziehung zwischen Aussagen. Diese Beziehung ist zum Unterschied von der  eindeutigen  Ableitbarkeit einer Aussage aus anderen, ihrer strengen Erschließbarkeit, nur eine teilweise bestimmte, nicht eine vollständig bestimmte und das Ausmaß der Bestimmtheit ergibt die Gradabstufung der Wahrscheinlichkeit.

Eine Aussage ist zumeist nicht so individuell bestimmt, daß sie nur eine einzige Tatsache festlegt. Der Tatbestand, durch den sie verifiziert wird, kann innerhalb gewisser Grenzen variieren. Der Aussage, "NN wohnt in Wien", entspricht eine Vielzahl von möglichen Tatbeständen: Er kann in diesem oder jenem Bezirk, Haus, Stockwerk wohnen. Eine Aussage bezeichnet meist nur einen  Bereich  von einzelnen Tatsachen, einen Spielraum. Bei zwei (oder mehreren) Aussagen können sich diese Spielräume ausschließen oder einer den anderen einschließen oder sich überschneiden. Wenn man nun für die Größe der Spielräume ein Maß einführrt, durch eine zweckmäßig gewählte Festsetzung, so kann man diese Verhältnisse der Spielräume quantitativ, zahlenmäßig bestimmen, die Ausschließung durch  O,  die Einschließung durch  1  und die Überschneidung durch einen Bruch. Die Größe des  gemeinsamen  Spielraums im Verhältnis zur Größe des Spielraums  einer  der Aussagen, das ist die Wahrscheinlichkeit, die die letztere Aussage der anderen gibt. Zieht man statt dieser letzteren Aussage alle bekannten wahren Aussagen in Betracht, so erhält man die Wahrscheinlichkeit, die das gesamte gegenwärtige Wissen einer Aussage gibt. Je größer der gemeinsame Spielraum, desto größer die Wahrscheinlichkeit. Aus dieser Grundlegung "lassen sich rein formal und ohne jede weitere Hinzufügung sämtliche Sätze der Wahrscheinlichkeitsrechnung entwickeln" (Seite 239).

Diese Bestimmung der Wahrscheinlichkeit wird dem Umstand gerecht, daß Wahrscheinlichkeit dann zur Anwendung kommt, wenn die Bedingungen eines Ereignisses nur teilweise, nicht bis ins Einzelne bekannt sind oder in Betracht gezogen werden, so daß sie für eine vollständig, das ist individuell bestimmte Aussage nicht ausreichen. Die abgestufte Unsicherheit in Bezug auf die Wahrheit einer solchen Aussage kommt in der Wahrscheinlichkeit zum Ausdruck. Trotzdem ist die Wahrscheinlichkeit doch keine bloß subjektive, weil ja damit das logische Verhältnis zwischen Aussagen bestimmt wird. Aus den teilweise bekannten Bedingungen einer Klasse von Ereignissen läßt sich eine bestimmte Wahrscheinlichkeit aufgrund einer Metrik für die Größe der Spielräume errechnen und daraus Häufigkeitsverhältnisse als Voraussage für statistische Reihen ableiten. Darin liegt eine große Überlegenheit über die Häufigkeits-Theorie der Wahrscheinlichkeit, die statistische Reihen einfach als gegeben zugrundelegen muß. Die Häufigkeits-Theorie ist in gewissem Sinn damit in die Spielraum-Theorie eingebaut, wobei aber die Schwierigkeiten der Häufigkeitstheorie vermieden sind. Wenn die Erfahrung die Wahrscheinlichkeits-Voraussage bestätigt, so besagt das, daß die Ereignisse nur durch die Bedingungen bestimmt sind, die dem Ansatz der Wahrscheinlichkeitsrechnung zugrundegelegt worden sind. Wenn die Erfahrung aber die Wahrscheinlichkeits-Voraussage  nicht  bestätigt, dann suchen wir nach einer Erklärung durch eine weitere Abhängigkeit. So hängt die Wahrscheinlichkeit mit Abhängigkeit, d. i. Gesetz und Zufall zusammen. Diese Begründung der Wahrscheinlichkeit hat die Zustimmung CARNAPs (52) und SCHLICKs (53) gefunden.

Dem gegenüber hat POPPER die Häufigkeits-Theorie der Wahrscheinlichkeit aufrecht erhalten, indem er den Einwänden gegen sie Rechnung getragen und ihr eine verbesserte Form gegeben hat. Das geschieht durch den originellen Gedanken, die Forderung der Regellosigkeit, die als solche gar nicht notwendig ist, durch eine rein mathematische Forderung zu ersetzen, nämlich daß die relative Häufigkeit einer Folge bei jeder beliebigen Aussonderung von Gliedern nach bestimmten Vorgänger-Gliedern erhalten bleiben muß. Statt regellose statistische Folgen zugrunde zu legen, konstruiert er damit zufallsartige  mathematische  Folgen, die den Regellosigkeitscharakter der zufälligen Folgen durch mathematische Folgen, die durch eine Regel bestimmt sind, nachbilden. Eine Merkmalsfolge ist zufallsartig, wenn die Häufigkeitsgrenzwerte ihrer Grundmerkmale gegen Aussonderungen nach beliebigen n-Tupeln von Vorgänger-Gliedern unempfindlich sind. Die Regellosigkeit wird damit durch eine Häufigkeits-Hypothese ersetzt. er gewinnt damit eine rein mathematische Grundlage

Da empirische Zufallsfolgen endlich sind, muß aber für ihre mathematische Nachbildung auf einen Grenzwert der relativen Häufigkeit verzichtet werden, weil ein solcher nur bei unendlichen Folgen stattfindet. POPPER führt deshalb statt seiner den Begriff eines Häufigkeitspunktes der relativen Häufigkeiten in einer Folge ein. Damit ist gemeint, daß es nach jedem Abschnitt einer Folge immer Abschnitte gibt, deren relative Häufigkeit von einer bestimmten Häufigkeit, die den Häufungspunkt bildet, beliebig wenig abweicht. Wenn eine Folge nur  eine  solchen Häufungspunkt hat und nicht mehrere, eine einzige mittlere Häufigkeit, die auch die mittlere Häufigkeit jeder Aussonderung von Gliedern ist, dann ersetzt das den Grenzwert der relativen Häufigkeit. (54) Diese eine mittlere Häufigkeit stellt die "Wahrscheinlichkeit" der Verteilung der Merkmale dar. Damit verhalten sich zufallsartige Folgen konvergenzartig.

POPPER führt dann den Nachweis, daß das BERNOULLIsche Theorem von einem Grenzwert unabhängig ist und nur eine Unempfindlichkeit der relativen Häufigkeit gegen jene Aussonderungen voraussetzt. Dieser Nachweis wird geführt, indem er es lediglich unter dieser Voraussetzung auch für zufallsartige Folgen  ohne  Häufigkeitsgrenzwert deduziert. Das BERNOULLIsche Theorem lautet bei der Interpretation der Wahrscheinlichkeit als relative Häufigkeit: die relative Häufigkeit der Verteilung der Merkmale in hinreichend langen endlichen Abschnitten einer zufallsartigen Folge weich in der überwiegenden Mehrzahl derselben von der mittleren Häufigkeit der ganzen Folge beliebig wenig ab, in kurzen Abschnitten dagegen viel stärker. Je kleiner die Abschnitte, desto größer sind ihre Abweichungen von der mittleren Häufigkeit; je größer jene, desto geringer diese, desto mehr verhalten sie sich konvergenzartig. Das ist aber nichts anderes, als das Gesetz der großen Zahlen. Damit erweist sich dieses als eine tautologische Umformung des BERNOULLIschen Theorems und als eine logische Folge der Eigenschaft einer Reihe von Fällen, daß sie eine mittlere Häufigkeit aufweist, die durch Aussonderungen bestimmter Art nicht gestört wird. So löst sich die Paradoxie, daß trotz der "Regellosigkeit" solcher Reihen eine "Gesetzmäßigkeit" in großen Zahlen zustande kommt. Denn es ergibt sich aus jener Anordnungseigenschaft rein logisch, daß eine solche Reihe in kleinen Bereichen noch ungeordnet ist und erst in großen eine Ordnung im Sinne einer Konvergenz zum Vorschein kommen kann.

Die subjektive Theorie der Wahrscheinlichkeitsrechnung kann das BERNOULLIsche Theorem nicht als Häufigkeitsaussage im Sinn des Gesetzes der großen Zahlen interpretieren und darum ist sie nicht imstande, die Anwendbarkeit der Wahrscheinlichkeitsrechnung auf statistische Folgen, den Erfolg der Wahrscheinlichkeitsprognosen zu erklären. Die bisherige Wahrscheinlichkeitstheorie der relativen Häufigkeit hingegen  postuliert  bereits eine Regelmäßigkeit im Großen durch die Einführung eines Grenzwertes. POPPER hat das Gesetz der großen Zahlen als einen  mathematischen  Satz abgeleitet. Es wird aber auf eine Beschaffenheit empirischer statistischer Reihen bezogen. Das Gesetz der großen Zahlen beschreibt den empirischen Tatbestand: Es gibt Reihen von Ereignissen, die im Kleinen ungeordnet, im Großen nahezu konvergent sind. Es kann aber nun, wenn der Zufallscharakter einer Folge, auch einer statistischen, durch eine mathematische Bedingung für dieselbe - Unempfindlichkeit gegen Aussonderung - ausgedrückt werden kann, daraus logisch abgeleitet werden und deshalb gilt dieses auch notwendig für  empirische  solche Reihen. Die Wahrscheinlichkeitsrechnung samt dem Gesetz der großen Zahlen ist dann eine mathematische Theorie eines empirischen Bereiches; oder auch umgekehrt: Wenn mathematische Folgen von zufallsartigem Charakter konstituiert sind, dann gibt es empirische statistische Reihen, die diesen entsprechen und darum auch das Gesetz der großen Zahlen realisieren. Die mathematischen Reihen und das Gesetz der großen Zahlen als mathematisches finden empirische Anwendung.

Aussagen über mathematische Wahrscheinlichkeit können in ihrer empirischen Anwendung weder verifiziert noch auch falsifiziert werden, d. h. weder  sie  noch auch ihre Negationen können vollständig bestätigt werden. Verifiziert deshalb nicht, weil die Aussagen der Wahrscheinlichkeitsrechnung unendliche Reihen betreffen, die empirische gegebenen Reihen aber immer endlich sind. Wenn eine solche Reihe auch noch so gut einer mathematischen Wahrscheinlichkeitsaussage entspricht, so bleibt es doch völlig ungewiß und unbestimmbar, ob das auch für ihre Fortsetzung gilt. Es ist dieselbe Verhinderung der Bestätigung durch das Unbekannte wie bei unbeschränkt allgemeinen Aussagen. Eben deshalb kann aber auch eine empirische Reihe einer mathematischen Wahrscheinlichkeits-Aussage nicht widersprechen. Abweichungen von einer berechneten Wahrscheinlichkeit gehören ja zum Charakter einer Wahrscheinlichkeitsfolge. Es muß nur angenommen werden, daß sie im weiteren Verlauf ausgeglichen werden. Wahrscheinlichkeitsaussagen sind somit theoretisch unentscheidbar. Sie können sich überhaupt nicht empirisch bewähren (a. a. O. Seite 194). Dann wären sie aber bedeutungslos für die Erfahrung! POPPER gesteht zu (Seite 133), daß sie deshalb "eigentlich als  empirisch nichtssagend  oder als  empirisch inhaltsleer",  wenn auch nicht als logisch gehaltleer betrachtet werden müßtn; "gegen eine solche Auffassung spricht jedoch ... der große prognostische  Erfolg,  den die Physik mit hypothetischen Wahrscheinlichkeitsansätzen erzielt". (55) Hier werden sie deshalb als praktisch bewährt oder als unbrauchbar, widerlegt angenommen.

Das wird verständlich aus der logischen Form der Wahrscheinlichkeitsaussagen und ihrer Beziehung zu Basissätzen. Aus Wahrscheinlichkeitsansätzen lassen sich Folgerungen ableiten, nämlich Existenzialaussagen in Bezug auf die Glieder und Abschnitte einer Reihe, z. B. daß es Abschnitte gibt, die von der mittleren Häufigkeit beliebig wenig abweichen. Diese Existenzialsätze sind  allgemeine:  "Es gibt immer wieder Glieder der und der Art; es sind Existenzial-Hypothesen und deshalb weder verifizierbar noch falsifizierbar." Aber  singuläre  Existenzialaussagen daraus können verifiziert werden. Je nachdem, ob das für viele oder wenige oder keine dieser Es-gibt-Folgerungen der Fall ist, bewährt sich eine Wahrscheinlichkeitsaussage mehr oder weniger gut oder gar nicht.

Das genügt aber noch nicht. Wahrscheinlichkeitsaussagen dürfen nicht unbeschränkt verwendet werden. Denn es könnte jede Art von Regelmäßigkeit als ein seltender Abschnitt einer Zufallsreihe betrachtet werden. Eben deshalb sind ja Wahrscheinlichkeitsaussagen nicht widerlegbar. Es muß deshalb die Verwendung von Wahrscheinlichkeits-Hypothesen durch eine methodische Regel eingeschränkt werden. Diese Regel verbietet es, Abschnitte in einer Zufallsreihe als vorhersagbare und reproduzierbare anzunehmen, die stärker in einer bestimmten Richtung von der mittleren Häufigkeit abweichen. (56) Denn eben wegen ihrer Unwahrscheinlichkeit und Seltenheit können sich solche Abschnitte nicht als vorhersagbar und reproduzierbar erweisen. Für die Bewährung eines Wahrscheinlichkeitsansatzes genügt nicht eine mehr oder weniger gute Übereinstimmung mit den Basissätzen, sondern es wird beste Übereinstimmung innerhalb der erreichbaren Meßgenauigkeit gefordert. Auf diese Weise können Wahrscheinlichkeits-Hypothesen wie andere Hypothesen verwendet werden.
LITERATUR: Victor Kraft, Der Wiener Kreis - Der Ursprung des Neopositivismus (Ein Kapitel aus der jüngsten Philosophiegeschichte), Wien 1950
    Anmerkungen
    1) Daß aber "Atomsätze" und "Elementarsätze" nach ihren Definitionen nicht identisch sind, hat WRIGHT (Den logiska Empirismen, Helsingfors, 1943, Seite 56) mit Recht ausgeführt. Denn die Mehrzahl der Atomsätze bringt  mehrere  Sachverhalte zum Ausdruck, weil aus jedem mehrere nicht-analytische Sätze abzuleiten sind, worin eben sein logischer Gehalt besteht.
    2) Über die Frage der Protokollsätze hat im Wiener Kreis eine lebhafte Diskussion stattgefunden: CARNAP, Die physikalische Sprache als Universalsprache der Wissenschaft (Erkenntnis. Bd. 2, 1931/32, Seite 437f) Dagegen: NEURATH, Protokollsätze (Erkenntnis. Bd. 3, 1932/33, Seite 204f) Dazu CARNAP, Über Protokollsätze (Erkenntnis. B3, Seite 215f) ZILSEL, Bemerkungen zur Wissenschaftslogik. (Erkenntnis. Bd. 3, Seite 413f) Erwiderung von CARNAP, ebd. Seite 177f. JUHOS, Kritische Bemerkungen zur Wissenschaftstheorie des Wiener Kreises bei PETZÄLL, Zum Methodenproblem der Erkenntnisforschung (Göteborgs Högskolas Arsskrift, Bd. 41, 1935)
    3) SCHLICK, Das Fundament der Erkenntnis (Erkenntnis. Bd. 4, 1934. Gesammelte Aufsätze, Seite 291)
    4) CARNAP, Erkenntnis, Bd. 2, Seite 438
    5) Erkenntnis, Bd. 3, Seite 209f
    6) Wie das bereits REININGER für Erlebnis-Aussagen vertreten hatte (Metaphysik der Wirklichkeit, 1931, Seite 132 - 34).
    7) "Jeder Satz der physikalischen Systemsprache kann unter Umständen als Protokollsatz dienen", sagt CARNAP, Über Protokollsätze (Erkenntnis. Bd. 3, Seite 224)
    8) Erkenntnis, Bd. 3, Seite 224
    9) Erkenntnis, Bd. 3, Seite 209
    10) Erkenntnis, Bd. 4, 1934. Gesammelte Aufsätze, Seite 290f. Vgl. CORNELIUS, Zur Kritik der wissenschaftlichen Grundbegriffe, (Erkenntnis, Bd. 2, 1931, Seite 206f)
    11) Die "Konstatierung" hat vertreten und weitergeführt BELA JUHOS, Negationsformen empirischer Sätze (Erkenntnis, Bd. 6, 1936, Seite 41f. Empirische Sätze und logische Konstanten (The Journal of Unified Science [Erkenntnis] Bd. 8, Seite 354f). Principles of Logical Empiricism. (Mind, Volume 46) Theorie empirischer Sätze (Archiv für Rechts- und Sozialphilosophie, Bd. 37, 1945)
    12) SCHLICK, Gesammelte Aufsätze, Seite 303 und 309
    13) Radikaler Physikalismus und "Wirkliche Welt". (Erkenntnis, Bd. 4, 1934, Seite 346f)
    14) Schriften zur wissenschaftlichen Weltauffassung, Bd. 9. Auch PETZÄLL hat SCHLICK kritisiert: Zum Methodenproblem der Erkenntnisforschung, a. a. O. Seite 37f)
    15) SCHLICK, Das Fundament der Erkenntnis, Gesammelte Aufsätze, Seite 304
    16) Vgl. SCHLICK, Positivismus und Realismus in Gesammelte Aufsätze, Seite 95 und 96.
    17) POPPER nimmt allerdings der Determination durch das Erlebnisgegebene gegenüber eine nicht eindeutige Stellung ein. Einerseits läßt er wohl einen "Zusammenhang" der anzuerkennenden Basis-Sätze mit Erlebnis-Aussagen gelten, aber andererseits hat er auch wieder die Tendenz, statt dessen die Bewährung lediglich auf logische Beziehungen zu gründen. Er gleichtet dann aus dem Empirismus in einen Konventionalismus hinüber. Er sagt von den Basis-Sätzen (a. a. O. Seite 203): "Wir können ihre Anerkennung als konventionellen Entschluß interpretieren und die anerkannten Sätze als Festsetzungen."
    18) So auch CARNAP, Die logische Syntax der Sprache, Seite 426
    19) Was auch WEINBERG (An Examination of Logical Positivism, 1936, Seite 254 und 255 und öfter) mehrfach urgiert. Da aber CARNAP die Ausschließlichkeit der syntaktischen Betrachtung nunmehr aufgegeben hat und dem semantischen Gesichtspunkt sein volles Recht zuteil werden läßt, besteht insofern keine Schwierigkeit mehr.
    20) KARL R. POPPER, Die Logik der Forschung, Seite 188
    21) SCHLICK, Über das Fundament der Erkenntnis, Gesammelte Aufsätze, Seite 303. Ich selbst habe schon in meinen "Grundformen der wissenschaftlichen Methoden" (Sitzungsbericht der Wiener Akademie der Wissenschaften, Philosophisch-historische Klasse, Bd. 203, 3. Abhandlung, 1925) das Induktionsverfahren unter einem logisch-erkenntnistheoretischen Gesichtspunkt ausführlich kritisiert.
    22) Damit büßt aber dann auch die Wahrheitsfunktion ihre fundamentale Bedeutung für die Erkenntnis ein, weil sich diese nicht einfach als Konjunktion von Elementarsätzen aufbauen läßt.
    23) General Propositions and Causality, 1929 (The Foundations of Mathematics, New York 1931.
    24) Die Kausalität in der gegenwärtigen Physik (Naturwissenschaften, 1931. Gesammelte Aufsätze, Seite 55f)
    25) FELIX KAUFMANN, Das Unendliche in der Mathematik und seine Ausschaltung, 1930. Dazu die Besprechung durch CARNAP in der Deutschen Literaturzeitung 1930, Spalte 1674f
    26) Vorher schon WEYL. Die heutige Erkenntnislage in der Mathematik (Symposion I, 1925, Seite 19): "Ein allgemeines Urteil ist nicht ein echtes Urteil, sondern eine Urteilsanweisung."
    27) Auch CARNAP hat im "Aufbau der Welt" noch keine unbeschränkt allgemeinen Sätze, sondern nur molekulare anerkannt, aber die Naturgesetze als Konjunktionen der bisher bekannten Einzelerfahrungen, aus denen sie induziert sind, interpretiert (wie bei MACH als Abkürzungen für die Liste derselben).
    28) Über die All-Sätze (Actes du 8. Congrés internat. de Philosophie à Prague, 1934 / 1936, Seite 187f.) Der Sinn unbeschränkt allgemeiner Sätze hängt dann daran, daß der unbeschränkte All-Operator sinnvoll eingeführt werden kann, als Allheit einer unbeschränkten Menge gegenüber der beschränkten als Aufzählung in einer Konjunktion.
    29) CARNAP, Testability and Meaning, Vol. 4, Seite 24f
    30) CARNAP, Testability and Meaning, Vol. 4, Seite 26
    31) KARL POPPER, Die Logik der Forschung, Seite 185
    32) "Confirmation" bei CARNAP, Testability and Meaning, Vol. III, Seite 420 und 425
    33) CARNAP, Testability and Meaning, Vol. III, Seite 438
    34) So POINCARÉ, Wissenschaft und Hypothese, Seite 75 - 77
    35) POPPER, Logik der Forschung, Seite 42f
    36) Dazu V. KRAFT, "Mathematik, Logik und Erfahrung", 1947
    37) Siehe POPPER, a. a. O. Seite 80f und Anhang I, Seite 210.
    38) POPPER will das Prinzip der Konstanz des Naturgeschehens in die methodische Forderung der räumlichen und zeitlichen Invarianz der Naturgesetze auflösen. Dieses Prinzip ist ihm eine "metaphysische Umdeutung einer methodologischen Regel" (Seite 187). Durch die Forderung der Invarianz wird nach ihm  definiert was ein Naturgesetz ist. Aber eine methodische Forderung und eine Definition genügt nicht zur Naturerkenntnis. Man muß auch nachweisen, daß es das Definierte gibt, die methodische Forderung muß im Gegebenen erfüllbar sein. Daß das tatsächlich der Fall ist, das ist mit der Konstanz des Naturgeschehens gemeint.
    39) Vgl. CARNAP, Testability and Meaning, Vol. III, Seite 425. So auch LEWIS, Experience and Meaning, (Philos. Review, Vol. 43, 1934, Seite 137, Anmerkung 12) und NAGEL, Verifiability, Truth and Verification (Journal of Philosophy, Vol. 31, 1934, Seite 144f).
    40) CARNAP, Testability and Meaning, Vol. III, Seite 431f
    41) POPPER, Logik der Forschung, Seite 203
    42) Radikaler Physikalismus und "wirkliche Welt" (Erkenntnis, Bd. IV, 1934, Seite 346f)
    43) Remarks on Induction and Truth (Philosophy and Phenomenolog. Research, Vol. 6, 1946, Seite 590f)
    44) Schon auf der ersten Tagung in Prag hat die Diskussion über Wahrscheinlichkeit einen großen Raum eingenommen. (siehe Erkenntnis, Bd. I, 1930/31, Seite 158 - 285)
    45) So von REICHENBACH, Wahrscheinlichkeitslehre, 1935. Wahrscheinlichkeitslogik (Sitzungsbericht der preußischen Akademie der Wissenschaften, Physikalisch-Mathematische Klasse, Bd. 29, 1932). Vorher R. von MISES, Wahrscheinlichkeit, Statistik, Wahrheit, 1928, 2. Auflage 1936 (Schriften zur wissenschaftlichen Weltauffassung Seite 3)
    46) POPPER, Logik der Forschung, Seite 188f
    47) Die erkenntnistheoretische Wahrscheinlichkeit sucht CARNAP jetzt nach Analogie der mathematischen, aber ganz unabhängig von der Häufigkeits- Theorie derselben, formal zu entwickeln. On Inductive Logic (Philosophy of Science, Vol. 12, 1945, Seite 72f) The two conceps of Probability (Philosophy and Phenomenol. Research, Vol. 5, 1945, Seite 513f)
    48) Wahrscheinlichkeit, Statistik und Wahrheit, 1928. 2. Auflage 1936 (Schriften zur wissenschaftlichen Weltauffassung, Bd. 3)
    49) Wahrscheinlichkeit und Erfahrung (Erkenntnis, Bd. 1, Seite 249f)
    50) Logische Analyse des Wahrscheinlichkeitsbegriffs (Erkenntnis, Bd. 1, Seite 228f)
    51) So POPPER, a. a. O., Seite 115, 116, 101
    52) Erkenntnis, Bd. 1, Seite 268 und 269
    53) SCHLICK, Gesammelte Aufsätze, Seite 73
    54) POPPER, Logik der Forschung, Seite 94f
    55) POPPER, Logik der Forschung, Seite 133
    56) POPPER definiert den Zufall dadurch, daß man keine Voraussage dafür ableiten kann. Mit dem Zufallscharakter einer Reihe ist die Gesetzmäßigkeit ihrer Einzelereignisse noch nicht ausgeschlossen. - Im Gegensatz zu SCHLICK, Gesammelte Aufsätze, Seite 72.