4 votos

¿Hay aleatoriedades no equivalentes?

Hay nonequivalent geometrías, nonequivalent grupos finito y lo infinito, nonequivalent lógicas ( fregean y nofregean http://www.formalontology.it/suszkor.htm), incluso nonequivalent lógicos;-)

Hay nonequivalent randomnesses?

Las dos principales teorías que saber lidiar con la aleatoriedad y la probabilidad es la prueba de Kolmogorov Teoría de la Probabilidad ( por medio de la teoría de la medida y Borel $\sigma$-álgebras), y Bayesiana de un a priori de enfoque. Son equivalentes suficiente para decir que son lo mismo en algunas significado más profundo?


@ Johannes Hahn - no, no estoy preguntando acerca de la no isomorfos probabilidad de espacios como sería trivial. más bien, yo como sobre posibles probabilidad de teorías tan diferentes como diferentes son las geometrías euclidiana y noneuclidean. La generalización obvia es cambiar la linealidad en el segundo axioma de la probabilidad ($P(A U B) = P(A) + P(B)$ cuando a,B son independientes.

De hecho menciono acerca de él después de la lectura de la probabilidad de introducción de Terence Tao http://terrytao.wordpress.com/2010/01/01/254a-notes-0-a-review-of-probability-theory/ Él escribí:

la teoría de la probabilidad es sólo "permitido" para el estudio de los conceptos y realizar las operaciones que se conservan con respecto a la ampliación de la base de espacio muestral.

Que en mi opinión es algo muy profundo ( pero yo soy sólo un aficionado;-). Así que, probablemente, si Usted tiene inicial de la probabilidad de espacio, y Que necesita a medida para describir algunos fenómenos adicionales, Que han hecho algún tipo de morfismos entre las estructuras de espacio de la primera y otro más amplio. Hay un único, canónica o cualquier forma de hacer esto? Podemos realizar este tipo de extensión siempre de la misma manera o hay diferentes formas de hacerlo? Le da cualquier predecible y muy interesante estructura?

@sheldon cooper aproximación Bayesiana de la probabilidad es a veces visto como alternativa ( no muy bien definido) prueba de Kolmogorov axiomática de la probabilidad sistema, ya que no requieren dada a priori de la probabilidad de espacio. Por ejemplo, en este enfoque, podemos decir que la probabilidad de que mañana podría ser el día ( es decir temp<-10) es definido, mientras que en la prueba de Kolmogorov enfoque Que probablemente no se puede definir el espacio correcto ( porque no Se puede tener el equivalente de la población de los miércoles, que son los futuros días, con diferentes temperaturas). De acuerdo - al tener la posibilidad de utilizar adecuadamente definidos probabilidad en el espacio de dos enfoque coincide. De la Wikipedia: http://en.wikipedia.org/wiki/Bayesian_probability

Probabilidad bayesiana interpreta el concepto de probabilidad como "una medida de un estado de conocimiento",[1] en contrario a la interpretación como un frecuencia o una propiedad física de un sistema.

@Qiaochu Yuan - por supuesto aleatoriedad aquí es vulgarismo. Sí, tienes razón: tal vez yo solo deben preguntar acerca de las diferentes teorías de probabilidad, pero tenga en cuenta que las geometrías no euclidianas realizados en la analogía son sólo geometrías, pero en diferentes espacios, con algunas propiedades especiales. Así que en el hecho de que comparten el mismo significado geométrico de conjunto, figura, espacio, incluso para objetos complicados como los sistemas de coordenadas y el ángulo. Pero tienen diferentes relaciones entre ellos. Así que me pregunto acerca de algo similar: los diferentes tipos de aleatoriedad, que están en el ámbito de la teoría de la probabilidad, sino que describe las diferentes relaciones entre, por ejemplo, diferentes clases de formas de extensiones de espacios de probabilidad. Si el último procedimiento cambia nada en resultantes;-) de Acuerdo - tal vez esto no es pregunta muy interesante. Tal vez sería más interesante en el ámbito de la teoría de la información algorítmica y su aleatoriedad concepto?

9voto

thedeeno Puntos 12553

Probablemente usted está interesado en la respuesta por parte de la teoría de la medida o de la probabilidad, y yo podría estar interesado en una respuesta también, pero te voy a dar una respuesta desde la teoría de conjuntos, que creo que no en el hecho de ofrecer una respuesta precisa, con algo como el sentido de que creo que la intención de su pregunta.

En la teoría de conjuntos, el método de forzamiento es fundamentalmente acerca de los diferentes tipos de aleatoriedad o genericity. Específicamente, con el fin de llevar a cabo forzar un argumento, primero debemos especificar la noción de forzar o genericity que va a ser utilizado. Esto se realiza mediante la especificación de un cierto orden parcial o álgebra Booleana, cuya natural de la topología se utiliza para determinar la noción de conjuntos densos. Genérico de objetos a los objetos que se encuentran en muchos densos conjuntos. En el caso extremo en el que está obligando a aplicar, se tiene un modelo de la teoría de conjuntos V, y considera contigua a un objeto G V-genérica, en el sentido de que G es un filtro que contiene los elementos de cada denso conjunto en V. La extensión genérica V[G] es un nuevo modelo de la teoría de conjuntos que contienen este nuevo objeto genérico G. El total de la construcción es algo así como una extensión de campo, debido a que V se encuentra en el interior de V[G], que es el modelo más pequeño de ZFC que contiene V y G, y todo lo que V[G] es edificable algebraicamente a partir de G y objetos en V. Forzar el primero fue utilizado para demostrar la consistencia de ZFC con la negación de la Hipótesis continua, y la noción de forzar había utilizado el efecto de la adición de ω2 muchos de los nuevos números reales. El objeto genérico se muestra una lista de ω2 muchos de los nuevos reales, obligando a CH a fallar.

El punto es que en el fin de controlar la naturaleza de la forzando la extensión de V[G], se debe controlar cuidadosamente el forzamiento de la noción, es decir, la noción de aleatoriedad que se utilizan para construir V[G].

Resulta que muchos de los más fructíferos obligando a las nociones implican una noción de genericity o aleatoriedad en los reales. Por ejemplo, con Cohen forzar, un V-genérico real es uno que es un miembro de cada co-escasos establecido en V. Un aleatoria real es un miembro de cada medida de Lebesgue un conjunto en V. Hay docenas de diferentes obligando a los conceptos (ver la lista de forzar nociones), y estos han demostrado ser fundamentalmente diferente, en el sentido de que un filtro genérico para uno de estos nunca es genérica con respecto a otro. Con forzar, podemos añadir Cohen reales, al azar de reales, Mathias reales, Fuente de reales, dominando reales y así sucesivamente, y estas ideas no tienen genérico instancias en común.

No hay ninguna probabilidad de espacio aquí para hablar de, y siendo V-genérico para una noción particular de forzar no es equivalente a cualquier probabilística de la propiedad. Más bien, uno es la adaptación de la noción de forzar para describir un cierto tipo de aleatoriedad o genericity que luego es utilizada para construir el forzamiento de la extensión. La mayoría de la detallada atención en forzar un argumento es acerca de cómo elegir el forzamiento de la noción y asegurarse de que funciona como se desea.

Por lo tanto, ya que cada noción de forzar a que corresponde, fundamentalmente, a una noción de genericity o aleatoriedad, tengo las pruebas de que las diferentes nociones de forzar a que son diferentes, como una respuesta a su pregunta.

7voto

John Topley Puntos 58789

Una respuesta diferente de la que hasta ahora: Quantum aleatoriedad es otro tipo de aleatoriedad que es una generalización de la tradicional aleatoriedad, es decir, clásica o no la probabilidad cuántica. Creo que cabe la pregunta, porque usted podría también decir que la geometría no Euclidiana, interpretado como la no-necesariamente-la geometría Euclidiana, es una generalización de la geometría Euclidiana.

Un clásico de la probabilidad del espacio se define generalmente como un $\sigma$-álgebra $\Omega$, con una medida normalizada. Desde el punto de vista Bayesiano la medida podría también ser llamado un "estado". Ahora, un $\sigma$-álgebra es el algebra de variables aleatorias Booleanas con un cierto conjunto de axiomas. Pero usted puede escribir los axiomas de $L^\infty(\Omega)$, el álgebra de limitada complejo de variables aleatorias. En los casos favorables, es un conmutativa álgebra de von Neumann. En la probabilidad cuántica, en lugar de permitir que un no-conmutativa von Neumann álgebra $\mathcal{M}$. También, en el nivel cuántico de la probabilidad de mantener la costumbre completado producto tensor $\mathcal{M} \otimes \mathcal{N}$ como el modelo de un sistema de articulación. (Libre la teoría de la probabilidad es todavía probabilidad cuántica, pero con un cierto producto libre en lugar de un producto tensor.) También tenemos a los estados, con la condición de que los estados, de la articulación de los estados, las correlaciones, la generalización de la estocástico mapas, etc.

Algunas de las variantes de los modelos anteriores conducen a los diferentes teoremas, pero en general dan las mismas respuestas en combinatoria, probabilidad, preguntas como la paradoja de cumpleaños o el modelado de los juegos de azar. La probabilidad cuántica conduce a una significativamente diferente de la imagen de combinatoria, probabilidad, la generalización de la anterior, pero también que permitan nuevas respuestas, tales como la violación de las desigualdades de Bell, la covarianza de las matrices que se Hermitian en lugar de real simétrica, nueva complejidad en clases de BQP, etc.

Otra variante de los modelos mencionados hasta el momento no dan ninguna respuesta para combinatoria, probabilidad, por ejemplo, los modelos de forzar. Pero, parte del interés de la probabilidad es que los modelos de la vida real. Sorprendentemente, también lo hace la probabilidad cuántica, que fue la central descubrimiento de la mecánica cuántica cuando se definió en la década de 1920 y 1930.

5voto

Sekhat Puntos 2555

En primer lugar, hay una diferencia entre la prueba de Kolmogorov y la probabilidad Bayesiana de la teoría de la probabilidad. Los axiomas de Kolmogorov requieren contables de aditividad, que Bayesians difícil de justificar, por una variedad de razones.

Cox del teorema es un ejemplo de cómo el "objetivo Bayesians" justificar las leyes de la teoría de la probabilidad. Ellos creen que la teoría de la probabilidad debe ser una extensión de la lógica que puede lidiar con la incertidumbre. Su teorema sólo justifica aditividad finita, y no contables aditividad. (Objetivo Bayesians son "objetivas", porque creen que no todos los agentes racionales debe comenzar con noninformative, o de máxima entropía, priores. La dificultad/arte de objetivo Bayesianism surge del hecho de que las distribuciones uniformes sobre conjuntos infinitos no necesariamente existe.)

Subjetivo Bayesians no estar de acuerdo en que la teoría de la probabilidad es una extensión de la lógica-en cambio, creen que las probabilidades de reflejar los estados subjetivos de la creencia, y las leyes de la probabilidad debe ser derivable como la decisión que-teóricamente óptima manera de actualizar creencias para reflejar la evidencia. La forma habitual de la formalización de esto es a través de "libro holandés" argumentos -- debido a un agente con un conjunto de creencias, no debería ser posible llegar a un conjunto aceptable de apuestas que en la espera hace que el agente de perder dinero. Aquí, las dificultades contables aditividad surgen del hecho de que no está claro que los agentes se puede hablar de conjuntos infinitos de apuestas.

Prueba de Kolmogorov introdujo el axioma de contables aditividad con el fin de aplicar la teoría de la medida de probabilidad. Esto ha sido muy fructífera, y Terry Tao tiene un blog maravilloso post acerca de cómo medir los teóricos de pensar acerca de la probabilidad como una formales de la teoría matemática.

Además Bayesiana conceptos de probabilidad, hay frecuentista conceptos de probabilidad así. Aquí, la idea es formalizar la idea de una infinita secuencia aleatoria de dígitos binarios, como una secuencia en la que no se puede determinar el $n+1$-ésimo elemento de la primera $n$, pero que en el límite de satisfacer propiedades estadísticas como la ley de los grandes números (e.e., vamos a obtener un número aproximadamente igual de 1s y 0s). Este fue introducido por von Mises en el siglo xx, y había un montón de dificultades en la formalización de si ... resulta que el conjunto de secuencias aleatorias con la sencilla definición está vacía(!), y esto es lo que motivó a la recursividad de la teoría de las nociones de secuencias aleatorias, como las secuencias sin computably detectable regularidades.

También hay wilder variantes de la teoría de la probabilidad. Por ejemplo, si usted toma una vista lógica de la probabilidad, de ello se sigue que los desacuerdos acerca de la lógica (por ejemplo, intuitionistic frente clásica) rendimiento de probabilidad diferentes teorías. AI investigadores han estudiado también cualitativa de la probabilidad de teorías, en la que la probabilidad no es un número real, sino más bien discretos (por ejemplo, "probable" versus "no es probable") -- esto es para tener una teoría de lo que aprenden cuando sacan las preferencias de los expertos, cuando la construcción (por ejemplo) de los sistemas expertos. Se han estudiado también las teorías en las que la probabilidad es un conjunto de primitivas de la evidencia, de modo que se puede calcular lo que los hechos explicar una lógica determinada afirmación.

2voto

marcospereira Puntos 3144

A pesar de que el OP admite que no está claro cuál es la pregunta aquí, hay un sentido en el que no hay, no existe nonequivalent randomnesses (por un fijo de distribución de probabilidad de $\mathbb P$), más bien existen diferentes grados de aleatoriedad.

Si fijamos un modelo de terreno de la teoría de conjuntos $M$, entonces podemos declarar:

un número real $r\in [0,1]$ es aleatorio si para cada conjunto $S\subseteq [0,1]$$\mathbb P(S)=0$$S\in M$,$r\not\in S$.

Por lo $r$ parece aleatorio medida de lo $M$ puede decir; $r$ es extremadamente azar! A continuación, se puede considerar más abajo-a-tierra nociones tales como

para cualquier polinomio de tiempo acotado máquina de Turing se puede decir, $r$ parece aleatorio.

Esto significaría que un impaciente secretario, mirando a los bits de $r$, no se puede detectar más y más evidencia de que la $r$ exhibe un patrón inusual (es decir, que $r\in S$).

Un grado intermedio es

tan lejos como cualquier máquina de Turing se puede decir, $r_1$ parece aleatorio

Hay varias nociones que intento que se ajustan a esta última descripción (Martin-Löf aleatoriedad es mayor o igual grado de aleatoriedad de la prueba de Kolmogorov-Loveland aleatoriedad, que es mayor que computable aleatoriedad, que a su vez es mayor que Schnorr aleatoriedad...).

1voto

user3035 Puntos 91

Cox del teorema establece que si aceptan cierto `sentido común' de las reglas (por ejemplo, la coherencia con la lógica), entonces el estándar de probabilidad leyes son las únicas válidas de inferencia de leyes. I. e. usted no puede cambiar arbitrariamente las sumas de los productos y tal. Página de la Wikipedia no es malo, y un largo derivación aparece en Jaynes del libro aquí.

Si usted no acepta algunas (o todas) de estas reglas como 'sentido común', entonces parece que se puede derivar de otras leyes, que supongo que podría ser llamado 'nonequivalent probabilidades", en el sentido de que son la inferencia de leyes que no corresponden a ningún estándar de la probabilidad. Un ejemplo se da en [3] (también aparece en la página de la wiki).

[3]: J. Halpern, "Un contraejemplo a los teoremas de la Cox y la Multa," JAIR 1999

i-Ciencias.com

I-Ciencias es una comunidad de estudiantes y amantes de la ciencia en la que puedes resolver tus problemas y dudas.
Puedes consultar las preguntas de otros usuarios, hacer tus propias preguntas o resolver las de los demás.

Powered by: