Schätzung der maximalen Wahrscheinlichkeit

Inhaltsverzeichnis:

Anonim

Die Maximum-Likelihood-Schätzung (VLE) ist ein allgemeines Modell zum Schätzen von Parametern einer Wahrscheinlichkeitsverteilung, die von den Beobachtungen in der Stichprobe abhängt.

Mit anderen Worten maximiert die EMV die Wahrscheinlichkeit der Parameter der Dichtefunktionen, die von der Wahrscheinlichkeitsverteilung und den Beobachtungen in der Stichprobe abhängen.

Wenn wir über die Schätzung der maximalen Wahrscheinlichkeit sprechen, müssen wir über die Funktion maximale Wahrscheinlichkeit. Mathematisch ist eine Stichprobe x = (x1,…, Xnein) und Parameter, θ = (θ1,…,nein) dann,

Keine Panik! Dieses Symbol bedeutet dasselbe wie die Summation für Summen. In diesem Fall ist es die Multiplikation aller Dichtefunktionen, die von den Stichprobenbeobachtungen (xich) und die Parameter θ.

Je größer der Wert von L (θ | x), d. h. der Wert der Maximum-Likelihood-Funktion, desto wahrscheinlicher sind die stichprobenbasierten Parameter.

Logarithmische Funktion von EMV

Um die Maximum-Likelihood-Schätzungen zu finden, müssen wir die Produkte der Dichtefunktionen differenzieren (ableiten), und dies ist nicht die bequemste Art, dies zu tun.

Wenn wir auf komplizierte Funktionen stoßen, können wir eine monotone Transformation durchführen. Mit anderen Worten, es wäre, als wollte man Europa in einem realen Maßstab zeichnen. Wir sollten es verkleinern, damit es auf ein Blatt Papier passt.

In diesem Fall führen wir die monotone Transformation mit natürlichen Logarithmen durch, da es sich um monotone und steigende Funktionen handelt. Mathematisch,

Die Eigenschaften von Logarithmen erlauben es uns, die obige Multiplikation als Summe der natürlichen Logarithmen auszudrücken, die auf die Dichtefunktionen angewendet werden.

Die monotone Transformation durch Logarithmen ist also einfach eine "Skalenänderung" zu kleineren Zahlen.

Der Schätzwert der Parameter, die die Wahrscheinlichkeit der Parameter der Maximum-Likelihood-Funktion mit Logarithmen maximieren, entspricht dem Schätzwert der Parameter, die die Wahrscheinlichkeit der Parameter der ursprünglichen Maximum-Likelihood-Funktion maximieren.

Wir werden uns also immer mit der monotonen Modifikation der Maximum-Likelihood-Funktion befassen, da sie einfacher zu berechnen ist.

Neugierde

So komplex und seltsam EMV auch erscheinen mag, wir wenden es ständig an, ohne es zu merken.

Wann?

In allen Schätzungen der Parameter einer linearen Regression unter klassischen Annahmen. Besser bekannt als Ordinary Least Squares (OLS).

Mit anderen Worten, wenn wir OLS anwenden, wenden wir implizit EMV an, da beide in Bezug auf die Konsistenz gleichwertig sind.

App

EMV basiert wie andere Methoden auf Iteration. Das heißt, eine bestimmte Operation so oft wie nötig zu wiederholen, um den maximalen oder minimalen Wert einer Funktion zu finden. Dieser Prozess kann Einschränkungen hinsichtlich der Endwerte der Parameter unterliegen. Zum Beispiel, dass das Ergebnis größer oder gleich Null ist oder dass die Summe zweier Parameter kleiner als eins sein muss.

Das symmetrische GARCH-Modell und seine verschiedenen Erweiterungen wenden die EMV an, um den geschätzten Wert der Parameter zu finden, der die Wahrscheinlichkeit der Parameter der Dichtefunktionen maximiert.