Dieses Video gehört zum openHPI-Kurs Introduction to Bayesian Data Analysis. Möchten Sie mehr sehen?
Beim Laden des Videoplayers ist ein Fehler aufgetreten, oder es dauert lange, bis er initialisiert wird. Sie können versuchen, Ihren Browser-Cache zu leeren. Bitte versuchen Sie es später noch einmal und wenden Sie sich an den Helpdesk, wenn das Problem weiterhin besteht.
Scroll to current position
- 00:00Okay, in dieser dritten Vorlesung werde ich ein sehr wichtiges Beispiel für eine kontinuierliche Zufallsvariable vorstellen, eine mit
- 00:09die Normalverteilung.
- 00:11Erinnern Sie sich daran, was ich vorhin gesagt habe, was eine Zufallsvariable ist, nämlich eine Funktion, die X abbildet
- 00:18S.
- 00:18Das ist die Menge der möglichen Ergebnisse.
- 00:21Man kann ein Experiment machen, es auf eine reelle Zahl abbilden und die reelle Zahl, auf die es abgebildet wird, die jedes Ereignis erhält
- 00:29auf die jedes Ereignis abgebildet wird, nennt man die Unterstützung von X,
- 00:31S von X.
- 00:32Und im diskreten Fall hatten wir eine Wahrscheinlichkeitsmassenfunktion, die mit dieser bestimmten Menge von Ergebnissen verbunden war.
- 00:40Die Unterstützung von X und jedes dieser Elemente wurde auf eine Wahrscheinlichkeit abgebildet.
- 00:45Das ist also die Gleichung, die ich dir hier zeige, richtig?
- 00:49Und die kumulative Verteilungsfunktion ist natürlich die Summe aller möglichen Werte, die von X abwärts reichen.
- 00:58Das habe ich also hier aufgeschrieben.
- 01:00Das war also die ganze Geschichte mit diskreten Zufallsvariablen,
- 01:03Das habe ich dir vorhin anhand von zwei Beispielen gezeigt, der Bernoulli- und der Binomial-Variable.
- 01:08Jetzt werden wir über kontinuierliche Zufallsvariablen sprechen, aber wir werden auf dem aufbauen, was wir von der Bernoulli-Zahl gelernt haben.
- 01:16der Theorie der diskreten Zufallsvariablen, die ich vorgestellt habe.
- 01:20Wenn Sie sich also an Bernoulli und Binomial erinnern, habe ich Ihnen gezeigt, dass diese klassischen dpqr-Familien von Funktionen
- 01:28in Aktion mit dem Bernoulli, ich habe dir nur rbern gezeigt, dbern und sorry, das ist ein Fehler hier, es hätte heißen müssen
- 01:35pbern.
- 01:37Und beim Binom habe ich dir die ganze Bandbreite der Möglichkeiten gezeigt.
- 01:43In diesem Fall können wir in R die Funktionen r binom, dbinom, pbinom und qbinom verwenden, die ich als D
- 01:49P Q R
- 01:50Familie von Funktionen.
- 01:51Diese Funktionen stehen nun für jede Zufallsvariable zur Verfügung, die wir in unserer Datenanalyse benötigen, praktisch
- 02:01jede Zufallsvariable.
- 02:03Im diskreten Fall, als wir über Münzwürfe gesprochen haben, gab es also diskrete Ergebnisse.
- 02:09Aber es gibt Situationen, in denen die Ergebnisse nicht mehr diskret sind, man kann nicht nur Kopf oder Zahl erhalten.
- 02:16Stattdessen erhält man ein Kontinuum von möglichen Werten.
- 02:20Ein Beispiel dafür ist das Lesen von Daten,
- 02:23wir forschen oft mit Blickverfolgung.
- 02:26Wir lassen also Leute Sätze auf dem Computerbildschirm lesen, und wir haben ein hochentwickeltes Gerät, einen sogenannten Eye-Tracker, der
- 02:32verfolgt, wohin genau die Augen blicken, auf welchen Buchstaben sie blicken, wenn sie einen Satz auf dem Bildschirm lesen
- 02:39Das nennt man also einen Eye-Tracker.
- 02:40Und mit einem solchen Gerät kann man die Lesezeiten im Millisekundenbereich aufzeichnen.
- 02:45Das sind also kontinuierliche Werte,
- 02:48Es kann sein, dass die Genauigkeit bei der Aufzeichnung der Ablesezeiten eingeschränkt ist.
- 02:54Aber im Prinzip gibt es unendlich viele mögliche Werte zwischen 500 Millisekunden und 501 Millisekunden.
- 03:01Theoretisch gibt es keine Begrenzung der Werte.
- 03:04Das nennt man also eine kontinuierliche Zufallsvariable.
- 03:06Und das ist die Art von Daten, die wir mit einer kontinuierlichen Zufallsvariablen modellieren können.
- 03:12Ich werde dir also ein Beispiel dafür geben.
- 03:14Was ist also der Unterschied zwischen diskreten und kontinuierlichen Zufallsvariablen?
- 03:17Ein sehr großer Unterschied besteht darin, dass anstelle einer Wahrscheinlichkeitsmassenfunktion, die mit jedem diskreten Ergebnis verbunden ist
- 03:25der Wahrscheinlichkeit, wie wir es bei Binomial und Bernoulli im kontinuierlichen Fall gesehen haben, erhalten wir eine Wahrscheinlichkeitsdichtefunktion,
- 03:32keine Wahrscheinlichkeits-Massenfunktion, sondern eine Wahrscheinlichkeits-Dichtefunktion.
- 03:36Okay, also werde ich das manchmal als pdf abkürzen,
- 03:41nicht zu verwechseln mit pdf-Dokument.
- 03:44Wenn ich pdf sage, beziehe ich mich eigentlich auf die Wahrscheinlichkeitsdichtefunktion einer kontinuierlichen Zufallsvariablen.
- 03:52Von nun an werde ich eine Zufallsvariable folgendermaßen schreiben: Wenn ich eine Zufallsvariable X habe,
- 03:58und ich kann übrigens jede beliebige Variable verwenden.
- 04:00Ich könnte X verwenden,
- 04:02Ich könnte Y verwenden, ich könnte Delta verwenden, ich könnte Zeta verwenden,
- 04:05es spielt keine Rolle, wie die Variable heißt.
- 04:07Es gibt eine Zufallsvariable.
- 04:09Ich nehme an, dass dieser Zufallsvariablen eine bestimmte Wahrscheinlichkeitsdichtefunktion im kontinuierlichen Bereich zugeordnet ist
- 04:17Fall und eine Wahrscheinlichkeitsmassenfunktion im diskreten Fall.
- 04:20Ich werde also alle diese Fälle mit diesem kleinen geschweiften Ding namens Tilde schreiben.
- 04:25Was ich damit sagen will, ist, dass die Daten aus dieser Wahrscheinlichkeitsmasse oder Wahrscheinlichkeitsdichtefunktion erzeugt werden.
- 04:32Das ist es, was die Aussage von nun an bedeutet.
- 04:36Schauen wir uns also ein Beispiel an, das Sie sicher schon gesehen haben.
- 04:42Wenn Sie in der Vergangenheit eine Datenanalyse durchgeführt haben, gehe ich davon aus, dass die Daten von einem
- 04:48Normalverteilung mit einem Mittelwert mu und einer Standardabweichung sigma.
- 04:54Dies sind die Orts- und Skalenparameter.
- 04:57Ich würde die Wahrscheinlichkeitsdichtefunktion für die kontinuierliche Zufallsvariable wie folgt schreiben
- 05:05in dieser Form hier.
- 05:06Dies ist also die eigentliche Wahrscheinlichkeitsdichtefunktion der Normalverteilung.
- 05:12Was diese Funktion bewirkt, werde ich in ein paar Minuten erklären.
- 05:16Aber als Eingabe nimmt sie ein bestimmtes Element in der Unterstützung von X,
- 05:20Also, eine Lesezeit, die Sie vielleicht beobachtet haben und einige mu und sigma Parameterwerte.
- 05:27So wie wir vorher Theta hatten.
- 05:28Jetzt haben wir die Parameter mu und sigma. Wenn wir einige bestimmte Werte für mu und sigma angeben, können wir das Ergebnis dieser Funktion erhalten
- 05:37Sie erhalten einen tatsächlichen numerischen Wert, der sich aus der Eingabe von X in diese Funktion ergibt.
- 05:44Das ist also der normale funktionale Ansatz.
- 05:48Dies ist also die Wahrscheinlichkeitsdichtefunktion der Normalverteilung.
- 05:52Unsere Aufgabe ist es nun, zu verstehen, was genau diese Funktion bedeutet und was sie für uns tut.
- 06:0000:06:01.689 Okay.
- 06:02Du hast wahrscheinlich schon von der Normalverteilung gehört, die manchmal auch Gauß-Verteilung genannt wird, direkt nach Gauß, der
- 06:10sie erfunden hat.
- 06:11Und beachten Sie, dass wir bei dieser Verteilung im kanonischen Fall, im Standardfall, davon ausgehen, dass die Unterstützung
- 06:18von X von minus unendlich bis hin zu plus unendlich reicht.
- 06:23Es gibt also im Prinzip keine Begrenzung nach unten und oben,
- 06:27in diesem kanonischen Fall hier kann man natürlich eine Normalverteilung abschneiden,
- 06:32man kann eine untere und obere Grenze angeben und sie auf diese Weise abschneiden.
- 06:36Und das wird in der Tat eine entscheidende Sache sein, die wir später machen werden.
- 06:39Aber im Normalfall ist die Unterstützung von X von minus bis plus unendlich.
- 06:47Wie ich bereits sagte, sind mu und sigma der Mittelwert und die Standardabweichung.
- 06:51Sie werden allgemein als Orts- und Skalenparameter bezeichnet.
- 06:55Sie werden mehr darüber im Lehrbuch lesen, aber im Moment ist das alles, was wir wissen müssen, um zu verstehen, wie diese Funktion aufgebaut ist.
- 07:02Okay, also werde ich diese Konstruktion auspacken und ein bisschen mehr darüber reden, wie sie funktioniert.
- 07:07Okay, wir erinnern uns, dass wir im Fall der diskreten Zufallsvariablen die Wahrscheinlichkeit für ein bestimmtes Ergebnis berechnen können.
- 07:15Wir könnten also zum Beispiel die D-Band-Funktion verwenden, um die Wahrscheinlichkeit zu berechnen, genau eine Eins zu bekommen.
- 07:23das ist genau ein Kopf.
- 07:27Im binomischen Fall, wenn ich eine Münze 10 Mal werfe, kann ich mit der Funktion d binom herausfinden, was ist
- 07:34die Wahrscheinlichkeit, genau zwei zu erhalten
- 07:40als ein mögliches Ergebnis.
- 07:42Bei der diskreten Zufallsvariablen kann ich also tatsächlich Fragen zu bestimmten Ergebnissen stellen.
- 07:48Die Wahrscheinlichkeiten für bestimmte Ergebnisse
- 07:52in der kontinuierlichen Zufallsvariablen.
- 07:54Bei einer kontinuierlichen Zufallsvariablen kann man das nie tun.
- 07:58Die Wahrscheinlichkeit für ein bestimmtes punktförmiges Ergebnis ist immer gleich Null.
- 08:08Man kann die Wahrscheinlichkeiten in einer kontinuierlichen Wahrscheinlichkeitsdichtefunktion berechnen, indem man Fragen stellt wie
- 08:15wie hoch ist die Wahrscheinlichkeit, einen Wert zwischen dieser Zahl und dieser Zahl zu beobachten?
- 08:20Man kann also eine andere Menge von Zahlen X haben.
- 08:26Nennen wir sie X zwei und X eins.
- 08:28X zwei wird größer sein als das nächste.
- 08:30Bei einer kontinuierlichen Wahrscheinlichkeitsdichtefunktion kann ich fragen, wie groß die Wahrscheinlichkeit ist, einen Wert zwischen diesem
- 08:37und diese Wahrscheinlichkeit wird durch Berechnung der Fläche unter der Kurve der Normalverteilung ermittelt.
- 08:47Wie funktioniert das also?
- 08:48Schauen wir uns das mal an.
- 08:55Wir werden die kumulative Verteilungsfunktion der Normalverteilung verwenden, um dies zu berechnen
- 09:05Fläche unter der Kurve.
- 09:06Und um die Wahrscheinlichkeit zu berechnen, einen bestimmten Wert zwischen X zwei und X eins oder einen Wert wie X zwei oder etwas anderes zu beobachten
- 09:15weniger als das.
- 09:16Dafür gibt es die kumulative Verteilungsfunktion.
- 09:19Also machen wir das.
- 09:20Okay, mathematisch gesehen, wie würden wir das machen?
- 09:24Wir würden eine Frage stellen, wie hoch die Wahrscheinlichkeit ist, dass wir eine Zahl wie u oder eine kleinere Zahl als diese in diesem
- 09:30Zufallsvariable.
- 09:31Und das muss natürlich mit der kumulativen Verteilungsfunktion berechnet werden.
- 09:36Was du hier siehst, ist also die Wahrscheinlichkeitsdichtefunktion
- 09:41und was ich in diesem Integral berechne, ist, dass ich die Fläche unter der Kurve von u bis minus aufaddiere
- 09:50Unendlich.
- 09:51Und deshalb habe ich in diesem Integral eine obere und untere Grenze angegeben.
- 09:54Dieses Integral ist nichts anderes
- 09:57als die Summation, die wir im diskreten Fall gesehen haben, wenn du dich erinnerst, dass wir die Wahrscheinlichkeitsmassenfunktion genommen und summiert haben
- 10:04alle Werte, die von X nach unten gehen.
- 10:08Das ist genau das, was wir hier tun.
- 10:11Wir berechnen die kumulative Wahrscheinlichkeit von
- 10:15u oder etwas kleiner als u.
- 10:18in diesem Fall.
- 10:20Es hat sich also nicht viel geändert, außer dass wir jetzt zu einem kontinuierlichen Raum übergegangen sind.
- 10:27Was wir heute gesehen haben, ist also das erste Beispiel einer kontinuierlichen Zufallsvariablen mit Normalverteilung.
- 10:34Und jetzt werde ich einige wichtige Eigenschaften dieser Verteilung auspacken.
- 10:40Das wird in der nächsten Vorlesung geschehen.
To enable the transcript, please select a language in the video player settings menu.