Funktion, deren Integral über einer Region die Wahrscheinlichkeit beschreibt, dass ein Ereignis in dieser Region auftritt
In Wahrscheinlichkeitstheorie eine Wahrscheinlichkeit von Dichtefunktion ( PDF ) oder Die Dichte einer kontinuierlichen Zufallsvariablen ist eine Funktion, deren Wert an einer beliebigen Probe (oder einem Punkt) im Probenraum (der Menge von mögliche Werte, die von der Zufallsvariablen genommen werden, können als relative Wahrscheinlichkeit interpretiert werden, dass der Wert der Zufallsvariablen dieser Stichprobe entspricht. Mit anderen Worten, während absolute Wahrscheinlichkeit für eine kontinuierliche Zufallsvariable einen bestimmten Wert annimmt, 0 ist (da es eine unendliche Menge möglicher Werte für den Anfang gibt), ist der Wert der PDF-Datei zwei verschieden Proben können in beliebiger Weise hergeleitet werden Wie viel wahrscheinlicher ist es, dass die Zufallsvariable mit einer Stichprobe verglichen mit der anderen Stichprobe übereinstimmt.
In einem genaueren Sinn wird das PDF verwendet, um die Wahrscheinlichkeit festzulegen, dass die Zufallsvariable innerhalb eines bestimmten Wertebereichs fällt, im Gegensatz dazu, einen beliebigen Wert anzunehmen. Diese Wahrscheinlichkeit ist durch das Integral der PDF-Datei dieser Variablen über diesen Bereich gegeben, d. H. Durch die Fläche unter der Dichtefunktion, jedoch oberhalb der horizontalen Achse und zwischen dem niedrigsten und dem größten Wert des Bereichs. Die Wahrscheinlichkeitsdichtefunktion ist überall nicht negativ und ihr Integral über den gesamten Raum ist eins.
Die Ausdrücke " Wahrscheinlichkeitsverteilungsfunktion " [2] und " Wahrscheinlichkeitsfunktion " [3] wurden auch manchmal verwendet, um die Wahrscheinlichkeitsdichtefunktion zu bezeichnen. Diese Verwendung ist jedoch unter Probabilisten und Statistikern kein Standard. In anderen Quellen kann "Wahrscheinlichkeitsverteilungsfunktion" verwendet werden, wenn die Wahrscheinlichkeitsverteilung als eine Funktion über allgemeine Wertemengen definiert ist, oder sich auf die kumulative Verteilungsfunktion beziehen kann oder eher eine Wahrscheinlichkeitsmassenfunktion (PMF) als sein die Dichte. Die "Dichtefunktion" selbst wird auch für die Wahrscheinlichkeitsmassenfunktion verwendet, was zu weiterer Verwirrung führt. [4] Im Allgemeinen wird die PMF jedoch im Zusammenhang mit diskreten Zufallsvariablen (Zufallsvariablen, die Werte in einer diskreten Menge annehmen) verwendet PDF wird im Zusammenhang mit kontinuierlichen Zufallsvariablen verwendet.
Beispiel [ edit ]
Angenommen, eine Bakterienart lebt typischerweise 4 bis 6 Stunden. Wie groß ist die Wahrscheinlichkeit, dass ein Bakterium genau 5 Stunden lebt? Die Antwort ist 0%. Viele Bakterien leben ungefähr 5 Stunden, aber es besteht keine Chance, dass ein bestimmtes Bakterium um genau 5.0000000000 ... Stunden stirbt.
Stattdessen könnte man fragen: Wie hoch ist die Wahrscheinlichkeit, dass das Bakterium zwischen 5 Stunden und 5,01 Stunden stirbt? Angenommen, die Antwort ist 0,02 (d. H. 2%). Next: Wie hoch ist die Wahrscheinlichkeit, dass das Bakterium zwischen 5 Stunden und 5,001 Stunden stirbt? Die Antwort sollte ungefähr 0,002 sein, da dieses Zeitintervall ein Zehntel ist wie das vorhergehende. Die Wahrscheinlichkeit, dass das Bakterium zwischen 5 Stunden und 5.0001 Stunden stirbt, sollte ungefähr 0,0002 sein und so weiter.
In diesen drei Beispielen ist das Verhältnis (Sterbewahrscheinlichkeit während eines Intervalls) / (Dauer des Intervalls) ungefähr konstant und beträgt 2 pro Stunde (oder 2 Stunden −1 ). Zum Beispiel gibt es 0,02 Sterbewahrscheinlichkeiten im 0,01-Stunden-Intervall zwischen 5 und 5,01 Stunden und (0,02 Wahrscheinlichkeit / 0,01 Stunden) = 2 Stunden -1 . Diese Menge von 2 Stunden −1 wird Wahrscheinlichkeitsdichte für das Sterben bei etwa 5 Stunden genannt.
Daher ist als Antwort auf die Frage "Wie hoch ist die Wahrscheinlichkeit, dass das Bakterium nach 5 Stunden stirbt?" Eine buchstäblich korrekte, aber wenig hilfreiche Antwort "0", aber eine bessere Antwort kann als (2 Stunden ) geschrieben werden. −1 ) dt . Dies ist die Wahrscheinlichkeit, dass das Bakterium innerhalb eines kleinen (infinitesimalen) Zeitfensters um 5 Stunden stirbt, wobei dt die Dauer dieses Fensters ist.
Zum Beispiel ist die Wahrscheinlichkeit, dass es länger als 5 Stunden, aber kürzer als (5 Stunden + 1 Nanosekunde) ist, (2 Stunden -1) × (1 Nanosekunde) ≃ 6 × 10 -13 (unter Verwendung der Einheitenumwandlung 3,6 × 10 12 Nanosekunden = 1 Stunde).
Es gibt eine Wahrscheinlichkeitsdichtefunktion f mit f (5 Stunden) = 2 Stunden -1 . Das Integral von f über einem beliebigen Zeitfenster (nicht nur infinitesimale Fenster, sondern auch große Fenster) ist die Wahrscheinlichkeit, dass das Bakterium in diesem Fenster stirbt.
Absolut kontinuierliche univariate Verteilungen [ edit ]
Eine Wahrscheinlichkeitsdichtefunktion ist am häufigsten mit absolut kontinuierlichen univariaten Verteilungen verbunden. Eine Zufallsvariable hat eine Dichte eine nicht-negative Lebesgue-integrierbare Funktion ist, wenn:
Wenn also die kumulative Verteilungsfunktion von ist dann:
und (if ist kontinuierlich bei )
Intuitiv kann man an als Wahrscheinlichkeit von im infinitesimalen Intervall .
Formale Definition [ edit ]
() Diese Definition kann auf jede Wahrscheinlichkeitsverteilung unter Verwendung der massentheoretischen Definition der Wahrscheinlichkeit erweitert werden.
Eine Zufallsvariable X mit Werten in einem messbaren Raum mit den Borelsätzen als messbar Teilmengen) hat als Wahrscheinlichkeitsverteilung das Maß X ∗ P am : die -Dichte von in Bezug auf eine Referenzmaßnahme am ist das Radon-Nikodym-Derivat :
Das heißt, f ist eine messbare Funktion mit der Eigenschaft, dass
für jede messbare Menge .
Diskussion [ edit ]
Im fortlaufenden univariaten Fall oben ist das Bezugsmaß das Lebesgue-Maß. Die Wahrscheinlichkeitsmassenfunktion einer diskreten Zufallsvariablen ist die Dichte in Bezug auf das Zählmaß über dem Abtastraum (normalerweise die Menge von Ganzzahlen oder eine Teilmenge davon).
Es ist zu beachten, dass es nicht möglich ist, eine Dichte in Bezug auf ein beliebiges Maß zu definieren (z. B. kann man das Zählmaß nicht als Referenz für eine kontinuierliche Zufallsvariable wählen). Darüber hinaus ist die Dichte fast überall einzigartig, wenn sie existiert.
Weitere Details [ edit ]
Im Gegensatz zu einer Wahrscheinlichkeit kann eine Wahrscheinlichkeitsdichtefunktion Werte annehmen, die größer als eins sind; Beispielsweise hat die gleichmäßige Verteilung auf dem Intervall [0, ½] eine Wahrscheinlichkeitsdichte f ( x ) = 2 für 0 ≤ x ≤ ½ und f ( x ) = 0 an anderer Stelle.
Die Standardnormalverteilung hat eine Wahrscheinlichkeitsdichte
- ]
<img src = "https: / /wikimedia.org/api/rest_v1/media/math/render/svg/5d93344d30d65926d9246d10801018d07e1a8a99 "class =" mwe-math-fallback-image-inline "aria-hidden =" true "style =" vertical-align: "style =" vertical = width: 29.171ex; height: 2.843ex; "alt =" Pr (t <X - ]
- Korollar [ edit ]
Wenn die gemeinsame Wahrscheinlichkeitsdichtefunktion eines Vektors von n zufälligen Variablen sein kann in einem Produkt von n Funktionen einer Variablen berücksichtigt
(wobei f i ist nicht notwendigerweise eine Dichte), dann sind die Variablen und alle unabhängig voneinander und die Grenzwahrscheinlichkeitsdichtefunktion von jedem von ihnen ist gegeben durch
Beispiel [ edit ]
Dieses elementare Beispiel veranschaulicht die obige Definition von mehrdimensionalen Wahrscheinlichkeitsdichtefunktionen im einfachen Fall einer Funktion einer Menge von zwei Variablen. Nennen wir einen zweidimensionalen Zufallsvektor von Koordinaten ( X Y ): die Wahrscheinlichkeit, in der Viertelebene des Positiven x und y ist
Abhängige Variablen und Veränderung von Variablen [ edit ]
Wenn die Wahrscheinlichkeitsdichte Die Funktion einer Zufallsvariablen X wird als f X ( x ) angegeben. Sie ist möglich (aber oft nicht notwendig; vgl unten) zur Berechnung der Wahrscheinlichkeitsdichtefunktion einer Variablen Y = g ( X ) . Dies wird auch als "Variablenänderung" bezeichnet und wird in der Praxis dazu verwendet, eine Zufallsvariable mit beliebiger Form zu generieren f g ( X )
= f Y unter Verwendung eines bekannten (beispielsweise einheitlichen) Zufallszahlengenerators.Wenn die Funktion g monoton ist, dann ist die resultierende Dichtefunktion
Hier g -1 bezeichnet die inverse Funktion .
Dies ergibt sich aus der Tatsache, dass die Wahrscheinlichkeit, die in einem Differentialbereich enthalten ist, bei Änderung von Variablen invariant sein muss. Das ist,
oder
For functions that are not monotonic, the probability density function for y is
where n(y) is the number of solutions in x for the equation and are these solutions.
It is tempting to think that in order to find the expected value E(g(X)), one must first find the probability density fg(X) of the new random variable Y = g(X). However, rather than computing
one may find instead
The values of the two integrals are the same in all cases in which both X and g(X) actually have probability density functions. It is not necessary that g be a one-to-one function. In some cases the latter integral is computed much more easily than the former. See Law of the unconscious statistician.
Multiple variables[edit]
The above formulas can be generalized to variables (which we will again call y) depending on more than one other variable. f(x1…, xn) shall denote the probability density function of the variables that y depends on, and the dependence shall be y = g(x1…, xn). Then, the resulting density function is[citation needed]
where the integral is over the entire (n − 1)-dimensional solution of the subscripted equation and the symbolic dV must be replaced by a parametrization of this solution for a particular calculation; the variables x1…, xn are then of course functions of this parametrization.
This derives from the following, perhaps more intuitive representation: Suppose x is an n-dimensional random variable with joint density f. If y = H(x)where H is a bijective, differentiable function, then y has density g:
with the differential regarded as the Jacobian of the inverse of Hevaluated at y.
For example, in the 2-dimensional case x = (x1, x2), suppose the transform H is given as y1 = H1(x1, x2), y2 = H2(x1, x2) with inverses x1 = H1−1(y1, y2), x2 = H2−1(y1, y2). The joint distribution for y = (y1, y2) has density[5]
Using the delta-function (and assuming independence), the same result is formulated as follows.
If the probability density function of independent random variables Xii = 1, 2, …, n are given as fXi(xi), it is possible to calculate the probability density function of some variable Y = G(X1X2…Xn). The following formula establishes a connection between the probability density function of Y denoted by fY(y) and fXi(xi) using the Dirac delta function:
Sums of independent random variables[edit]
The probability density function of the sum of two independent random variables U and Veach of which has a probability density function, is the convolution of their separate density functions:
It is possible to generalize the previous relation to a sum of N independent random variables, with densities U1…, UN:
This can be derived from a two-way change of variables involving Y=U+V and Z=Vsimilarly to the example below for the quotient of independent random variables.
Products and quotients of independent random variables[edit]
Given two independent random variables U and Veach of which has a probability density function, the density of the product Y = UV and quotient Y=U/V can be computed by a change of variables.
Example: Quotient distribution[edit]
To compute the quotient Y = U/V of two independent random variables U and Vdefine the following transformation:
Then, the joint density p(y,z) can be computed by a change of variables from U,V to Y,Zand Y can be derived by marginalizing out Z from the joint density.
The inverse transformation is
The Jacobian matrix of this transformation is
Thus:
And the distribution of Y can be computed by marginalizing out Z:
Note that this method crucially requires that the transformation from U,V to Y,Z be bijective. The above transformation meets this because Z can be mapped directly back to Vand for a given V the quotient U/V is monotonic. This is similarly the case for the sum U + Vdifference U − V and product UV.
Exactly the same method can be used to compute the distribution of other functions of multiple independent random variables.
Example: Quotient of two standard normals[edit]
Given two standard normal variables U and Vthe quotient can be computed as follows. First, the variables have the following density functions:
We transform as described above:
This leads to:
This is the density of a standard Cauchy distribution.
See also[edit]
References[edit]
Bibliography[edit]
- The first major treatise blending calculus with probability theory, originally in French: Théorie Analytique des Probabilités.
- The modern measure-theoretic foundation of probability theory; the original German version (Grundbegriffe der Wahrscheinlichkeitsrechnung) appeared in 1933.
- Chapters 7 to 9 are about continuous variables.
External links[edit]
Wenn eine Zufallsvariable X angegeben ist und ihre Verteilung eine Wahrscheinlichkeitsdichtefunktion f zulässt, dann ist der erwartete Wert von X (if der erwartete Wert existiert) kann berechnet werden als
Nicht jede Wahrscheinlichkeitsverteilung hat eine Dichtefunktion: Die Verteilungen von diskreten Zufallsvariablen nicht; Die Cantor-Verteilung hat auch keine diskrete Komponente, d. h. sie weist keinem einzelnen Punkt eine positive Wahrscheinlichkeit zu.
Eine Verteilung hat genau dann eine Dichtefunktion, wenn ihre kumulative Verteilungsfunktion F ( x ) absolut stetig ist. In diesem Fall: F ist fast überall unterscheidbar, und seine Ableitung kann als Wahrscheinlichkeitsdichte verwendet werden:
Wenn eine Wahrscheinlichkeitsverteilung eine Dichte zulässt, dann ist die Wahrscheinlichkeit jeder Einpunktmenge { a } Null; Gleiches gilt für endliche und zählbare Mengen.
Zwei Wahrscheinlichkeitsdichten f und g repräsentieren die gleiche Wahrscheinlichkeitsverteilung genau dann, wenn sie sich nur in einem Satz von Lebesgue-Maß null unterscheiden.
Im Bereich der statistischen Physik wird im Allgemeinen eine nichtformale Umformulierung der obigen Beziehung zwischen der Ableitung der kumulativen Verteilungsfunktion und der Wahrscheinlichkeitsdichtefunktion als Definition der Wahrscheinlichkeitsdichtefunktion verwendet. Diese alternative Definition lautet wie folgt:
Wenn dt eine unendlich kleine Zahl ist, ist die Wahrscheinlichkeit, dass X innerhalb des Intervalls enthalten ist ( t t + dt ) ist gleich f ( t ) dt oder:
Zusammenhang zwischen diskreten und kontinuierlichen Verteilungen [ edit ]
Es ist möglich, bestimmte Darstellungen darzustellen Diskrete Zufallsvariablen sowie Zufallsvariablen, die sowohl einen kontinuierlichen als auch einen diskreten Teil mit einer verallgemeinerten Wahrscheinlichkeitsdichtefunktion umfassen, unter Verwendung der Dirac-Deltafunktion. Betrachten wir zum Beispiel eine binäre diskrete Zufallsvariable mit die Rademacher-Verteilung, dh nimmt Werte von -1 oder 1 mit der Wahrscheinlichkeit ½ an. Die mit dieser Variablen verbundene Wahrscheinlichkeitsdichte beträgt:
Allgemeiner ausgedrückt: Wenn eine diskrete Variable n verschiedene Werte unter den reellen Zahlen annehmen kann, lautet die zugehörige Wahrscheinlichkeitsdichtefunktion:
wobei sind die diskreten Werte, auf die die Variable zugreifen kann, und sind die mit diesen Werten verbundenen Wahrscheinlichkeiten.
Dadurch wird die Behandlung diskreter und kontinuierlicher Wahrscheinlichkeitsverteilungen im Wesentlichen vereinheitlicht. Zum Beispiel ermöglicht der obige Ausdruck das Bestimmen statistischer Merkmale einer solchen diskreten Variablen (wie beispielsweise ihren Mittelwert, ihre Varianz und ihre Kurtosis), ausgehend von den Formeln, die für eine kontinuierliche Verteilung der Wahrscheinlichkeit angegeben sind.
Familien von Dichten [ edit ]
Es ist üblich, Wahrscheinlichkeitsdichtefunktionen (und Wahrscheinlichkeitsmassenfunktionen) zu verwenden
parametrisiert werden, dh durch nicht spezifizierte Parameter charakterisiert werden. Zum Beispiel wird die Normalverteilung in Bezug auf den Mittelwert und die Varianz parametrisiert, bezeichnet mit und was die Familie der Dichten ergibt
Da es sich bei den Parametern um Konstanten handelt, die eine Dichte anhand verschiedener Parameter neu definieren, um eine andere Zufallsvariable in der Familie zu charakterisieren, müssen die neuen Parameterwerte einfach durch die neuen anstelle der alten ersetzt werden. Das Ändern der Domäne einer Wahrscheinlichkeitsdichte ist jedoch komplizierter und erfordert mehr Arbeit: Informationen zum Ändern von Variablen finden Sie unten.
Mit mehreren Variablen verbundene Dichte [ edit ]
Für kontinuierliche Zufallsvariablen X 1 ,…, X n [19659437] ist es auch möglich, eine Wahrscheinlichkeitsdichtefunktion zu definieren, die der Gesamtmenge zugeordnet ist, häufig als gemeinsame Wahrscheinlichkeitsdichtefunktion bezeichnet. Diese Dichtefunktion ist als Funktion der Variablen n definiert, so dass für jeden Bereich D im n -dimensionalen Raum der Werte der Variablen X 1 ,…, X n die Wahrscheinlichkeit, dass eine Realisierung der Mengenvariablen in die Domäne fällt D
Wenn F ( x 1 ,…, x n ] = Pr [ X = 19659162] 1 ≤ x 1 ,…, X n ≤ x n ) ist das kumulative Verteilungsfunktion des Vektors ( X 1 ,…, X n ), dann kann die gemeinsame Wahrscheinlichkeitsdichtefunktion als partielle Ableitung berechnet werden
Randdichte [ edit ]
Für i = 1, 2, ..., n let . f X i ( x i ) die Wahrscheinlichkeitsdichtefunktion ist, die mit der Variablen X i allein assoziiert ist . Dies wird als Randdichtefunktion bezeichnet und kann aus der mit den Zufallsvariablen verknüpften Wahrscheinlichkeitsdichte X 1 ..., X n durch Integration abgeleitet werden über alle Werte des anderen n - 1 Variablen:
Unabhängigkeit [ edit ]
Kontinuierliche Zufallsvariablen X 1 ..., X n die eine gemeinsame Dichte zulassen, sind alle unabhängig Wenn und nur dann, wenn
No comments:
Post a Comment