Home  |  über brainhouse  |  Bücher  |  Kontakt + Impressum 

Bayes-Statistik für Human- und Sozialwissenschaften

Wolfgang Tschirk
Bayes-Statistik für Human- und Sozialwissenschaften

Springer-Lehrbuch, 2018

Wissenschaftler beobachten und ziehen Schlüsse. Oft Schlüsse, die "für alles" gelten: für alle Menschen beispielsweise oder für alle Menschen eines Landes oder für alle Sechzehnjährigen; jedenfalls für eine Gesamtheit, die so groß ist, dass man sie nicht zur Gänze beobachten kann, sondern von ihr nur einen Ausschnitt, eine Stichprobe, sieht. Darum sind solche Schlüsse nicht sicher, sondern nur mehr oder weniger wahrscheinlich, und darum ist die Wahrscheinlichkeitsrechnung die Logik unseres Wissens von der Welt.

Eine Krone der Wahrscheinlichkeitsrechnung ist die Bayes-Statistik. Sie erlaubt es, sämtliche Informationen zu einem Problem so zu kombinieren, dass die Schlüsse ein Maximum an Wahrscheinlichkeit gewinnen. Das ist besonders dort von Vorteil, wo die Information spärlich ist; nicht zuletzt in den Human- und Sozialwissenschaften, deren Objekte ja Menschen sind, mit denen man nicht beliebig experimentieren kann.

Dieses Buch soll das Anwenden der Bayes-Statistik erleichtern. Es bereitet den Gegenstand, ausgehend von seinen erkenntnistheoretischen Grundlagen, so auf, dass am Ende einfache Formeln stehen, mit denen sich viele typische Fragen speziell (aber nicht nur) der Human- und Sozialwissenschaften behandeln lassen.

Die wahre Logik dieser Welt ist die Wahrscheinlichkeitsrechnung.
James Clerk Maxwell (1831-1879)

Statistik: Klassisch oder Bayes

Wolfgang Tschirk
Statistik: Klassisch oder Bayes

Springer-Lehrbuch, 2014

Die schließende Statistik ist die Wissenschaft davon, aus einer Stichprobe auf die Gesamtheit zu schließen. In ihr gibt es zwei vorherrschende Lehren: die klassische Statistik und die Bayes-Statistik. Die klassische Statistik verwendet zum Schätzen von Parametern und zum Testen von Hypothesen nur die Stichprobe; die bayessche stellt zusätzlich in Rechnung, was man sonst noch über das Problem weiß oder annimmt. Das hängt mit unterschiedlichen Meinungen darüber zusammen, was Wahrscheinlichkeit bedeutet: relative Häufigkeit in Zufallsexperimenten (die klassische Sicht) oder einen Ausdruck des Wissens (die bayessche).

Dieses Buch soll die Standpunkte klären und prüfen: Ausgehend vom jeweiligen Wahrscheinlichkeitsbegriff werden klassische und bayessche Methoden entwickelt und auf Schätz- und Testprobleme angewandt, wobei Gemeinsamkeiten und Unterschiede hervorgehoben werden und besonderes Augenmerk auf die Interpretation der Ergebnisse gerichtet ist.

Wahrscheinlichkeitsrechnung ist nichts als Rechnen mit gesundem Menschenverstand.
Pierre Simon de Laplace (1749-1827)

Rezensionen

Was ist eigentlich Wahrscheinlichkeit? Dieser Frage widmet sich Wolfgang Tschirk, Leiter des »mathecampus« in Wien. Auf der Grundlage des Wahrscheinlichkeitsbegriffs stellt er sodann die klassische Statistik der Bayes-Statistik gegenüber. Während »klassische Statistiker« eher Objektivisten sind (sie interpretieren Wahrscheinlichkeiten als relative Häufigkeiten), kann man »Bayesianer« eher als Subjektivisten bezeichnen (es geht ihnen um Plausibilität auf der Grundlage von Vorwissen). Dies führt zu verschiedenen Methoden beim Schließen von einer Stichprobe auf die Gesamtheit. Tschirk macht die Unterschiede beider Lehren deutlich, aber auch ihre Gemeinsamkeiten, etwa die für beide gültigen Grundlagen der Wahrscheinlichkeitstheorie.
Spektrum der Wissenschaft, 2014

This monograph represents an introduction to both classical and Bayesian theory of estimation and testing. The motivation arises from three historical examples which will be discussed at the end of this exposition. The start is an introduction to probability theory together with a careful discussion of probability concepts due to Popper and Jaynes. Point estimation and confidence intervals are mainly investigated for the normal and the binomial case. For these cases also the classical test procedures are presented. In the Bayesian approach it is assumed that the unknown parameters are as well random variables with a specific prior distribution. This allows the computation of a posterior distribution. The posterior distribution opens the way for Bayesian statistical inference. Point estimation consists of computation of posterior mean, posterior median etc. The concept of a confidence interval or a credibility interval is now much simpler. Moreover, it is possible to compute the probability of a hypothesis. Priors are diffuse or conjugate, i.e. normal/normal, binomial/beta. Three historical examples are considered in some detail. The first example ist the Semmelweis-conjecture. Semmelweis argued that by more careful hygienic behaviour the mortality of women on a birth-station can seriously be decreased. Despite an overwhelming statistical evidence it was very difficult to turn around the heads of the medical authorities. The second example concerns the Millikan-experiment of measuring the elementary electrical charge. The third example is about a psychological problem due to Milgram, entitled »Obedience to authority«. This monograph is well written and suited for a seminar in statistics.
Zentralblatt MATH, 2015

Home  |  über brainhouse  |  Bücher  |  Kontakt + Impressum  |  Datenschutz 

Copyright © Mag. Wolfgang Tschirk, Pelzgasse 2/13, A-1150 Wien