4 votos

¿Cuando es probable una probabilidad?

La función de densidad de probabilidad está bien caracterizado: tiene que ser medible, y debe integrar a 1, y debe ser no negativo a través de su apoyo. En este caso, el vector de parámetros es visto como algo fijo, y alojado dentro de una familia paramétrica de distribuciones, como Exp($\theta$) o de Weibull o...

Para el cálculo y la estadística, el concepto de probabilidad es introducido. Aproximadamente es una función de los parámetros en lugar de los datos, ya que cuando nos maximizar la probabilidad, podemos encontrar los parámetros que dan la mayoría de "probable" conjunto de datos de acuerdo a esa familia paramétrica de distribuciones en lugar de la otra manera alrededor. Sin embargo, como yo lo entiendo: la probabilidad no tiene requisitos funcionales como una función de la $\theta$. Seguro, va a ser distinto de cero ya que es el producto de las densidades. Pero no pueden agregar hasta 1 si integramos sobre $\theta$'s de apoyo (tendríamos que multiplicar por una antes de conseguir ese tipo de Bayesiana resultado).

A continuación, obtener en estas diversas formas de la probabilidad: un cuasiprobabilidad, un pseudoprobabilidad condicional probabilidad, un parcial de probabilidad, y así sucesivamente y así sucesivamente. Estos representan, respectivamente, las situaciones cuando decimos, "Bueno... no es una adecuada probabilidad, pero voy a maximizar y ver qué ocurre de todos modos." La delegación de tales títulos sugiere que sólo cuando sabemos con certeza que el modelo de probabilidad es adecuado para los datos, el uso del término "probabilidad", se justifica. Pero tendría que ser siempre el caso en la mayoría de los escenarios prácticos? Seguramente que implica supuestos que no son verificables o interesante.

Tomemos como ejemplo la prueba de t pareada. Esta es la máxima probabilidad condicional. No me importa entre el par de diferencias de medias, por lo que restando los pares de observaciones, puedo directamente el modelo univariante dentro de par de diferencias de medias. ¿Por qué no es posible decir que yo estoy usando un modelo de probabilidad normal para la dentro de par de diferencias? No puedo llamar a una cosa una probabilidad?

Hay una forma más práctica o robusto manera de entender la estimación de máxima verosimilitud? En caso de no estar llamando a todo un pseudo- o cuasi- verosimilitud en todos estimación y la inferencia?

2voto

kap Puntos11

En cierto modo, usted está en lo correcto: todos nuestros modelos están equivocados, por lo tanto, incluso "exacta" de las probabilidades son, pero conveniente pseudoprobabilidades a la probabilidad de la función de la verdad subyacente de proceso de datos (suponiendo que incluso podría ser parametrizada).

Sin embargo, para entender probabilidad, usted necesita para alejarse de Dr. Caja del adagio de " todos los modelos están equivocados..." y vivir en un mundo donde pretendemos que nuestro modelo es correcto. Esto significa pasar de aplicar a la estadística matemática.

En esta más limitado contexto, la explicación de lo que es una probabilidad está dada por la definición de cuasi y pseudo probabilidad de sí mismos:

Una función de $L$ es una probabilidad iff es desarrollado usando la verdadera distribución subyacente de los datos.

Pseudoprobabilidad rompe con esta definición por la aproximación de $L$ usando una diferente, pero asintóticamente correcta, modelo de probabilidad. Cuasiprobabilidad de funciones $Q$ representan una parte aún más el descanso de la definición de probabilidad debido a que no puede ser generado por cualquier válido distribución de probabilidad. Por ejemplo, si los datos son iid, entonces:

$$\neg \exists P \in \mathcal{P}: L(\theta;x) = \prod_{i=1}^n P(x_i;\theta)$$

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by: