Funktion von Methoden

Eine Theorie ist nicht eine Kopie ihres Gegenstandsbereichs, sondern eine abstrakte, schematische, vereinfachte Repräsentation davon. Eine Theorie kann man nicht unmittelbar auf einen Gegenstandsbereich abbilden in dem Sinne, daß man jedem Begriff der Theorie eine Menge von Phänomenen und jedem Satz einen Sachverhalt zuordnen könnte. Die Beziehung ist durch viele Abstraktionsstufen vermittelt. Eine Methode (wörtl. “Weg, etwas zu erreichen”1) ist in einer empirischen Disziplin2 ein Verfahren, das eine Theorie in Verbindung zu ihrem Gegenstand setzt. Sie tut das in beiden Richtungen:

Aus der Mittlerstellung einer Methode folgt, daß die Wahl der geeigneten Methode – gemäß den Prinzipien einer teleonomischen Hierarchie – hauptsächlich durch zwei Faktoren bestimmt wird:

  1. das Erkenntnisinteresse (das Problem, die Fragestellung)
  2. die Gegebenheiten und Bedingungen im Gegenstandsbereich und in der Forschungssituation.

Hieran ist zunächst wichtig, daß in einer wissenschaftlichen Untersuchung die Methode nicht unverrückbar vorgegeben ist. In manchen Disziplinen ist es (da ja methodisches Vorgehen Wissenschaftlichkeit zu garantieren schien) Usus gewesen, daß die etablierte Methode vorgab, was einer wissen wollen konnte. Das heißt das Pferd vom Schwanz aufzäumen. Der Zweck der Untersuchung, konkreter: die Problemstellung steht in der Entscheidungshierarchie zuoberst; alles andere ordnet sich ihr unter. Zur Lösung eines bestimmten Problems gibt es meist eine Auswahl von möglichen Methoden. Jede davon bietet bestimmte Vorteile und Nachteile. Die Auswahl der tatsächlich angewendeten Methoden aus der Menge der prinzipiell möglichen wird dann wesentlich durch Faktor Nr. 2 determiniert, nämlich durch das, was angesichts der Forschungssituation faktisch machbar ist. Im ungünstigsten Falle kann es sein, daß eine Hypothese in jeder Hinsicht plausibel ist und gut als Theorem in eine Theorie passen würde, daß es aber leider keine Methode gibt, sie zu überprüfen. Das kann in ganz verschiedenen Situationen passieren. Es betrifft z.B. auf der einen Seite viele Hypothesen über das Denken und Empfinden von Menschen, die aus ethischen Gründen nicht wissenschaftlich untersucht werden können, auf der anderen Seite aber auch vorgeschichtliche Vorkommnisse wie den Ursprung der Sprache, zu dem keine bekannte empirische Methode zurückführt.

Fundamentale Methoden

Wir haben gesehen, daß wissenschaftliche Sätze einerseits auf die Empirie, an der sie als Hypothesen überprüft werden, und andererseits auf die Theorie bezogen sind, zu deren Theoremen sie werden können. Eine Methode ist ein Verfahren, um zu solchen Sätzen zu gelangen bzw. sie zu überprüfen. Infolge der Doppelgesichtigkeit von Theoremen/Hypothesen gibt es zwei fundamentale Methoden, zu ihnen zu gelangen, nämlich Deduktion und Induktion. Sie sind in einem sogleich zu erläuternden Sinne zueinander konvers und haben in der Methodologie seit jeher einen besonderen Status.

Deduktion

Einen Satz zu deduzieren (abzuleiten) bedeutet, ihn aus grundlegenderen Sätzen nach Regeln der Logik herzuleiten (Definition der logischen Implikation anderswo). Dies setzt voraus, daß die Sätze, aus denen er abgeleitet wird, Bestandteile einer Theorie, also Axiome oder Theoreme sind. Der deduzierte Satz wird selbst zu einem Theorem.

Die Deduktion basiert auf der Aussagen- und der Prädikatenlogik und ist in ihr zu formalisieren. Die Aussagenlogik läßt bestimmte Schlüsse auf der Basis von Verknüpfungen zwischen den betroffenen Theoremen zu. Die Prädikatenlogik läßt Schlüsse zu, wenn bestimmte Voraussetzungen der Quantifikation über die Argumente der Prädikate erfüllt sind. Hier baut die Deduktion auf dem aristotelischen Syllogismus auf, dessen Grundform die folgende ist (Ausführliches s. anderswo; die Quantifikation ist der Einfachheit halber weggelassen):

S1.Wenn P1 auf x zutrifft, trifft P2 auf x zu.
S2.P1 trifft auf x1 zu.
S3.P2 trifft auf x1 zu.

Die deduktive Methode wird auch in der Begriffsexplikation angewendet, wenn z.B. ein komplexer Begriff entfaltet und in Typen oder Klassen gegliedert wird. Z.B. wird im Abschnitt über Wissenschaft eine Klassifikation der Wissenschaften nach der Art der gewonnenen Erkenntnis geboten; und diese wiederum wurde aus den Beziehungen des erkennenden Geistes zum Erkannten gewonnen. Dies geschah durch Deduktion, also durch Explikation dessen, was im Begriff der Erkenntnis nebst seinen Beziehungen zu Nachbarbegriffen angelegt ist. Begriffliches Raisonnement geht also deduktiv vor.

Die Sätze, die in der Ableitung vorausgesetzt werden, heißen Prämissen (Voraussetzungen). Bei der Analyse eines Arguments stellt man gelegentlich fest, daß implizite Prämissen gemacht wurden. Sie sind dann explizit zu machen. Da die Prämissen oft axiomatischer Natur sind, können sie ihrerseits nicht bewiesen werden. Man kann bestenfalls Plausibilitäts- und Evidenzargumente für sie anführen (“das ist doch offensichtlich”). Ein Argument kann man aus verschiedenen Gründen ablehnen. Einer davon ist, daß man die Prämissen nicht teilt. Der Fall ist relativ häufig in ideologisch/weltanschaulich geprägten Debatten, z.B. auch in der Ethik. Man kann z.B. eine Ethik entwickeln auf der Basis von Axiomen wie ‘jeder Mensch sollte stets so handeln, daß es für die Menschheit gut ist’ und ‘für die Menschheit ist das gut, was ihr Überleben auf dem Globus sichert’. Die deduzierten Theoreme können in diesem Rahmen völlig schlüssig sein. Einige davon können aber in ihren Konsequenzen inakzeptabel erscheinen (z.B. daß es im Ernstfall auf das Überleben des Einzelnen nicht ankommt). In solchen Fällen muß man die Prämissen infrage stellen (da man an der Logik der Deduktion nichts ändern kann).

Neben der Axiomatik gibt es noch eine andere, niederschwellige Form der Festsetzung in Theorien, die Stipulation. Als der Intelligenzquotient entwickelt wurde, waren aus der Theorie zwei Fixpunkte deduzierbar: ein unterer Grenzwert, an dem keine Intelligenz gemessen werden kann, und ein Mittelwert der durchschnittlichen Intelligenz. Ferner sagt die Theorie, daß es keinen oberen Grenzwert gibt. Man hatte ein Verfahren, mit dem man die so konzipierte Intelligenz messen konnte. Dazu mußte man eine numerische Skala entwickeln. Welchen numerischen Wert die beiden genannten Grenzwerte haben, darüber läßt sich nichts aus der Theorie deduzieren (geschweige läßt es sich durch Beobachtung feststellen). Daher wurde festgesetzt, daß der untere Grenzwert bei 0 und der Mittelwert bei 100 liegen soll. Solche Stipulationen trifft man in einem theoretischen Vakuum, d.h. in Situationen, wo man entscheiden muß, ohne eine Entscheidungsbasis zu haben, wo aber auch von der spezifischen Entscheidung nicht furchtbar viel für die Theorie abhängt.

Da Stipulationen insoweit arbiträr sind, kommt es auch vor, daß in zwei miteinander kompatiblen Theorien über denselben Gegenstandsbereich unterschiedliche Stipulationen getroffen werden. Z.B. kann man (mit Carl von Linné) eine Temperaturskala derart definieren, daß der Nullpunkt (0°C) beim Gefrieren und 100°C beim Verdampfen von Wasser erreicht werden (das ist eben die Celsius-Skala). Oder man kann sie (mit Daniel G. Fahrenheit) so definieren, daß der Nullpunkt (0°F) auf der niedrigsten auf der Erde vorkommenden Temperatur und 96°F bei der Körpertemperatur eines gesunden Menschen liegen (das ist eben die Fahrenheit-Skala). Das Beispiel zeigt, daß solche Stipulationen die Theorie (hier die physikalische Theorie der Wärme) nicht berühren.

Die deduktive Methode ist eine Domäne der logischen und empirischen Wissenschaften, denn dort stehen logisch strukturierte Theorien zur Verfügung, aus denen man deduzieren kann. In den Geisteswissenschaften wird sie seltener angewandt (eigentlich nur bei der Begriffsentfaltung), weil oft keine Theorien zur Verfügung stehen und weil Hermeneutik der Deduktion nicht zugänglich ist. Was in der Geisteswissenschaft Theorie genannt wird, reduziert sich oft auf ein, zwei Axiome. Z.B. läßt sich B. Bernsteins Theorie des schichtenspezifischen Sprachverhaltens in dem Satz zusammenfassen ‘der sprachliche Code, über den ein Mensch verfügt, bestimmt seine Position in der Gesellschaft’.

Induktion

Einen Satz zu induzieren bedeutet, ihn als eine Generalisierung (Verallgemeinerung) aus Einzelerfahrungen bzw. ‑beobachtungen zu erschließen. Eine Generalisierung ist ein Schluß hinsichtlich einer Klasse aufgrund der Untersuchung ihrer Elemente. Wenn die betreffende Klasse nicht abzählbar ist (und nur solche Klassen sind methodologisch interessant), kann man ihre Elemente nicht vollständig untersuchen. In diesem Falle entnimmt man eine Stichprobe, die man vollständig untersucht und analysiert. Dann verallgemeinert man von den in der Stichprobe beobachteten Verhältnissen auf die gesamte Population und stellt eine Gesetzeshypothese auf.

Die Induktion läßt sich aussagenlogisch formalisieren, indem man die Beziehung von Prämissen und Konklusion gegenüber der Deduktion wie folgt umkehrt:

S1. P1 trifft auf x1 zu & P1 trifft auf x2 zu ... & P1 trifft auf xn zu.
S2. P2 trifft auf x1 zu & P2 trifft auf x2 zu ... & P2 trifft auf xi zu (mit i < n).
S3.Wenn P1 auf x zutrifft, trifft P2 auf x zu.

Hier besteht S1 in der Klassifikation einer Menge von n Individuen als P1. S2 ist eine empirische Feststellung über eine hinreichend große Zahl i von Individuen, die in diese Klasse fallen. Daraus wird in S3 der – natürlich nicht logisch zwingende – Schluß gezogen, daß diese Feststellung für alle in die Klasse fallenden Individuen gilt. Die Validität der Induktion hängt also entscheidend von der Repräsentativität der untersuchten Stichprobe (d.i. x1 ... xi in S2) ab.

Bsp.: Man fokussiert die Untersuchung auf eine Population solcher Individuen, auf welche die Aussage S1 ‘x ist ein Schwan’ zutrifft. Man beobachtet eine hinreichend große Zahl i von Individuen in dieser Population und stellt fest, daß auf sie alle S2 ‘x ist weiß’ zutrifft. So induziert man S3 ‘alle Schwäne sind weiß’.

Ein durch Induktion gewonnener Satz ist dadurch nicht bewiesen. Die Summe partikulärer Aussagen über die Mitglieder könnte eine generelle Aussage über die Menge nur dann beweisen, wenn man die Mitglieder abgezählt hätte, was ex hypothesi nicht möglich ist. Eine partikuläre Aussage kann eine Verallgemeinerung nur falsifizieren.

Induktive Methodik kann (durch mechanisch-automatische Anwendung von Methoden) die Auffindung wissenschaftlicher Resultate nicht garantieren; sie kann Intuition und Kreativität nicht ersetzen. Daher dient sie meist nicht zur Auffindung, sondern zur nachträglichen Rechtfertigung von Verallgemeinerungen. Induktive Methoden haben also eher den Status einer Rechtfertigungsprozedur (engl. justification procedure) als den einer Entdeckungsprozedur (discovery procedure). Insofern ist Methodik lediglich notwendige, nicht aber hinreichende Bedingung für Wissenschaftlichkeit.

Verhältnis von Deduktion und Induktion

Induktion und Deduktion sind zueinander konvers: Induktion entwickelt eine Hypothese aus Daten, Deduktion entwickelt eine Hypothese aus einer Theorie. Die Hypothese steht gewissermaßen zwischen der Theorie und den Daten. Die Wissenschaft soll aber die Theorie mit den Daten in Bezug setzen. Eine deduktiv gewonnene Hypothese muß also noch auf Daten bezogen werden, und eine induktiv gewonnene Hypothese muß noch auf die Theorie bezogen werden. Im Falle einer deduktiv gewonnenen Hypothese besagt dies, daß sie empirischen Tests ausgesetzt werden muß, d.h. daß versucht werden muß, sie zu falsifizieren. Im Falle einer induktiv gewonnenen Hypothese besagt es, daß sie als Theorem aus einer Theorie abgeleitet werden muß, was eine Änderung der Theorie erfordern kann.

Deduktion und Induktion ergänzen also einander in notwendiger Weise. Viele Wissenschaftler beschränken sich auf eines der beiden Verfahren: Theoretiker deduzieren gern, Empiriker induzieren gern. Ein guter Wissenschaftler verbindet beides.

Heuristik

Die Heuristik einer Wissenschaft ist eine möglichst systematische Sammlung von Prinzipien, Ratschlägen, Rezepten, Techniken, Kniffen, die erfahrungsgemäß zu guten Hypothesen führen und damit die wissenschaftliche Erkenntnis fördern. Sie ist der angemessene Ersatz für Methodik als Entdeckungsprozedur.

Zwei solche Verfahren können als neben den Standardmethoden 'Deduktion' und 'Induktion' etabliert gelten: Abduktion und Analogie.

Abduktion

Die Abduktion ist erst relativ spät in der Geschichte der Wissenschaftstheorie eingeführt worden. Auch sie läßt sich verstehen als eine Abwandlung der Kombination der drei Sätze, die einen Syllogismus ausmachen. Sie hat folgende logische Form:

S1.Wenn P1 auf x zutrifft, trifft P2 auf x zu.
S2.P2 trifft auf x1 zu.
S3. P1 trifft auf x1.

S1 hat die Funktion eines vorausgesetzten allgemeinen Gesetzes, S2 diejenige einer empirischen Beobachtung. Aus beiden zusammengenommen wird S3 geschlossen. Ein Beispiel, in dem S2 und S3 partikuläre Aussagen sind, ist:

S1.Schotten sind geizig.
S2.Erwin ist geizig.
S3. Erwin ist ein Schotte.

Ein Beispiel, in dem S2 und S3 sich auf eine Teilmenge der in S1 eingeführten Menge beziehen, ist:

S1.Fische schwimmen im Wasser.
S2.Wale schwimmen im Wasser.
S3.Wale sind Fische.

Abduktion ist logisch ungültig. Sie wird dennoch oft mit Erfolg angewandt, wenn die in S1 eingeführte Eigenschaft P2 für die Klasse, der sie zugesprochen wird, ziemlich exklusiv ist (fast nichts außer Fischen schwimmt im Wasser) bzw. wenn die Mitglieder der durch P1 konstituierten Klasse die Vertreter par excellence der durch P2 gebildeten Klasse sind (Schotten sind die allergeizigsten). Abduktion spielt vor allem beim Lernen (insbesondere einer Sprache) eine große Rolle. Z.B. so: Verben flektieren nach Tempus. Die Wörter, die ich hier sehe, flektieren nach Tempus. Also sind diese Wörter vermutlich Verben.

Es sei noch einmal betont, daß von den vorgeführten Kombinationen von Sätzen zu einem Argument allein diejenige Kombination, welche den Syllogismus definiert und der Deduktion zugrundeliegt, logisch gültig ist. Induktion und Abduktion sind, logisch betrachtet, ein Graus. Daß dabei die Induktion traditionell als wissenschaftliche Methode firmiert, während die Abduktion bestenfalls als Heuristik gilt, dürfte wissenschaftstheoretisch nicht relevante wissenschaftsgeschichtliche Gründe haben. Den beiden ist gemeinsam, daß sie, wenn kontrolliert angewandt, erkenntnisträchtig sind.

Analogie

Analogie ist wie folgt definiert: Gegeben zwei Paare von Gegenständen, a1 + a2 und b1 + b2, sowie eine Relation R so daß a1 R a2 und b1 R b2. Dann ist das Paar b1 + b2 dem Paar a1 + a2 analog. Zwei Paare, die analog sind, bilden eine Analogie. Beispiel:

Dann ist das Paar ‘Johann Strauß jr. + Johann Strauß sr.’ dem Paar ‘Friedrich II + Heinrich IV.’ analog; und zwischen dem ersten und dem zweiten Paar besteht eine Analogie (begründet durch das Sohn-von-Verhältnis).

Hiervon gibt es eine dynamische Version: a1 R a2 ist ein Modell, dessen Verständnis vorausgesetzt wird. b1 R x ist ein Problem, das den Operanden einer kognitiven Operation bildet, die die Spezifikation von x zum Ziel hat (“Wer verhält sich zu Friedrich II. so, wie sich Johann Strauß sr. zu Johann Strauß jr. verhält?”). x kann nun als b2 spezifiziert werden. Diese Operation heißt ebenfalls Analogie (oder analogische Übertragung oder Analogieschluß).

Beispiele sind aus dem Alltagsdenken bekannt: Angenommen, Dozent a1 hält im WS 2001f eine Veranstaltung am Donnerstag von 8 bis 10 h in Raum a2. a1 hält auch im Wintersemester 2002f eine Veranstaltung am Donnerstag 8 - 10 h. Falls man keine anderen Hinweise darauf hat, in welchem Raum diese Veranstaltung stattfindet, ist die beste Vermutung a2 (auch wenn es kein allgemeines Gesetz gibt, aus dem das folgen würde). Weitgehende Analogien fallen unter den Begriff ‘Anthropomorphie’, so wenn man vom Kopf eines Unternehmens spricht, sowie unter den Begriff ‘Zoomorphie’, wenn man vom Fuß eines Berges spricht. Wenn Biologen oder Tierschützer Tieren Gefühle zuschreiben, tun sie das in Analogie zum Menschen.

In der Wissenschaft ist Analogie die Übertragung von Erkenntnissen von einem Bereich auf einen anderen. Aufgrund erwiesener Ähnlichkeiten schließt man auf unbewiesene, die man wegen der Analogie für wahrscheinlich hält. In der Linguistik z.B. hatte man seit den 30er Jahren des 20. Jh. phonologische Einheiten mit einer Merkmalstheorie beschrieben, wo eine lautliche Einheit vollständig aus ihren konstitutiven phonologischen Merkmalen zusammengesetzt ist. Das Modell war in der Phonologie sehr erfolgreich und wurde daher in die Morphologie, die Syntax und die Semantik übernommen. Z.B. wurden auch die Bedeutungen von Wörtern als aus semantischen Merkmalen zusammengesetzt beschrieben. Und ebenso, wie ein phonologisches Merkmal wie [ stimmhaft ] die beiden Werte ‘+’ und ‘-’ annehmen kann, so weist man auch einem semantischen Merkmal wie [ belebt ] die beiden Werte ‘+’ und ‘-’ zu.3

Analogie ist auch interdisziplinär gelegentlich fruchtbar. Z.B. beschrieb man seit dem Mittelalter genealogische Beziehungen in Form eines Stammbaums. Dieses Modell wurde Mitte des 19. Jh. von Ch. Darwin auf die Abstammung der biologischen Arten in der Evolution übertragen. Von da übernahm es der Linguist A. Schleicher und wandte es auf die Abstammungsbeziehungen zwischen Sprachen an. So entstand z.B. das bis heute übliche Stammbaummodell der indogermanischen Sprachfamilie. Stammbäume werden auch benutzt in der syntaktischen Analyse von Sätzen, in der Darstellung von mathematischen Ableitungen und in vielen anderen Bereichen.

Resumé

Das folgende Schema stellt die konverse Beziehung zwischen Deduktion und Induktion dar und bezieht die Analogie darauf; die Abduktion läßt sich in dieses Schema nicht einfügen.

Disziplini Disziplinj
Theorie Theorie
Deduktion
Theorem Analogie Theorem
Hypothese Hypothese
Induktion
Daten Daten

Alle vier Methoden bzw. heuristischen Verfahren haben eine vorwissenschaftliche Basis:


1 Noch wörtlicher “Mittelweg”, allerdings nicht im Sinne eines Weges, der zwischen zwei anderen liegt, sondern im Sinne eines Weges, der zwischen seinen Endpunkten vermittelt.

2 Rein logische Theorien haben keinen Objektbereich. Logische Methoden tun daher nichts weiter, als Theoreme zueinander in Beziehung zu setzen.

3 Andere linguistische Beispiele sind das Konzept der Markiertheit, das in der Phonologie begründet (N.S. Trubetzkoy) und von da auf den Rest der Grammatik übertragen wurde (R. Jakobson, J. Greenberg); oder die Ableitungen auf -em so wie Phonem, Morphem, Taxem, die zum Vorbild für Soziolem, Behaviorem u.ä. genommen wurden.


Literatur

Lehmann, Konrad 2017, Das schöpferische Gehirn. Auf der Suche nach der Kreativität – eine Fahndung in sieben Tagen. Berlin & Heidelberg: Springer.