Autor Tema: ¿Cuánto puede durar una racha en estadística?

0 Usuarios y 1 Visitante están viendo este tema.

07 Marzo, 2020, 09:45 pm
Respuesta #30

Richard R Richard

  • Ingeniero Industrial
  • $$\Large \color{#5b61b3}\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 2,415
  • País: ar
  • Karma: +1/-0
  • Sexo: Masculino
  • Dentro de la ciencia todo,fuera de la ciencia nada
Ante todo, me disculpo por tardar en dar mi humilde respuesta, no siempre se dispone de tiempo para todo...

Estás usando las frecuencias relativas como probabilidad, bien, cumplen los axiomas de Kolmogorov, pero son experimentos aleatorios, no tienen ninguna utilidad, y las funciones de estado que representan los estados físicos de los sistemas no se refieren a esas probabilidades.

A ver si puedo entender  tu linea de pensamiento, hagamoslo simple, hay dos estados 0 y 1, sabemos si son equiprobables? a priori no..o tu entiendes qui sí. en caso de no,como definimos su probabilidad?, experimentalmente, por el historial de resultados a favor y en contra?. Que las caras sean lisas, que sean geométricamente simétricas, que el centro de gravedad se corresponda con el centro geométrico... son causas que hemos aprendido y verificado experimentalmente, que conducen a que caras y secas tengan probabilidad tendiente a 0.5, los casos en que sale de canto dejémoslos de lado, y digamos que esto se ha testeado un numero muy grande de veces, y que cara es equiprobable a ceca.

Pero te reitero, cuando tu dices que solo se ha podido experimentar 4 veces en la historia del universo, no tienes forma de validar que tu propocisión sobre 0 y 1 son equiprobables a priori, si tu única historia de eventos es de 3 unos y  1 cero. Esa frecuencia determina la probabilidad... a eso me refiero... si tu previamente asumes la equiprobabilidad, bueno, es mas probable que salgan 2 ceros y dos 1 en cualquier orden que  4 ceros o que cuatro unos, es decir de todas combinaciones de n eventos donde m fueron 1 y b ceros, la mas probable es la que m=b, es la que tiene mayor posibilidad de salir, es decir tiende a la media, si realmente son equiprobables el evento 0  y el 1.



Yo digo que la única forma sensata es que las frecuencias relativas sean tan raras que se provoque una entropía física en el Universo superior a la de un agujero negro, que eso viola las leyes de la termodinámica, y aunque las leyes de la termodinámica no son invariantes bajo inversión temporal, y las leyes cuánticas y clásicas sí, da igual, porque si ocurre un fenómenos donde la entropía disminuye nadie lo recuerda. Es algo filosófico.

Interpreto por un analogo que dices que si se rompe un frasco contra el piso, existe la probabilidad de que se forme de vuelta por si solo... la probabilidad no es nula, pero si muy cercana a cero, Allí si entiendo que entra la entropía a tomar parte, El grado de dispersión de la piezas, influye sobre el valor de la probabilidad de que dos piezas se vuelvan a unir . Esto lo estudia bien la Fisica estadística, pero no soy muy conocedor para ayudarte en más...


El problema es que esto te permite descartar unas probabilidades de que para corroborar que una moneda este trucada tendrías que sacar cara como 100 veces seguidas, un poco menos, \( ln 10/ln 2 \). Claro, yo no voy a esperar a ver cerca de 100 caras seguidas para sospechar que una moneda está trucada, tendré que tomar la decisión antes.

Bueno como tomas la decisión entonces, que limite te impones, en Física lo normal es observar el desvío, con 5 sigmas de gauss de seguridad, osea que tienes aproximadamente 1 posibilidad entre el millón de que te estés equivocando en tu afirmación.

Si haces mil tiradas de monedas y las primeras 500 salen caras pero las 500 restantes salen secas, que opinas esta sesgada la moneda?, según tu criterio, con pocos lances seguidos de  caras descartarias la moneda, pero ante estos resultados 500 caras 500 cecas, descartas la moneda?
es extremadamente improbable, pero no imposible que suceda.

que hace entonces, determinar para cada cantidad de lanzamientos, cual es la cantidad de eventos máximos tolerables o bien de 0 o de 1, para que en el 99.9999% de los casos la moneda no esté trucada,   o te  debes poner en mente un sesgo máximo tolerable, y ver cual es la sucesión de n eventos que tiene mas de \( x \) eventos seguidos  o \( y \) eventos en el total, para que eso se deba  con 99,9999% de probabilidad al sesgo y no a un evento aleatorio, pero jamas sabrás si fue realmente un evento aleatoriao, o bien el sesco con certeza absoluta.



Con respecto a los foros, cada uno de ellos tiene sus normas, si intentas torcerlas, te ganas enemigos, luego no hallaras muchas respuestas, yo diría que siempre  en los foros, trates de comunicarte con otros, haciendo pequeñas afirmaciones que resulten ser preguntas, pero si esgrimes argumentos complejos como afirmación,  sin mucho sustento científico, dificilmente de seguir, tus mensajes seguro se acumularan en un basurero electrónico de unos y ceros... Hay que ser hábil o estudiar un tiempo prudencial, el estilo de respuestas, para pisar o no la línea que no se atreven ellos a cruzar, muchas veces solo por el hecho que no quieren hacerlo para que su reputación dentro del foro no se manche por dar una respuesta , un tanto floja de papeles, por decir un análogo a carente de rigor científico.


El espacio y el tiempo no son cuantizados, al menos entiendo que  no lo sabemos por ahora, me sorprende leer que la probabilidad  si está cuantizada- Lo que ocurre que habría un valor por debajo del cuál dificilmente podrías hacer un experimento que te permitiera discernir un valor por debajo de una determinada probabilidad, de 25 o 30 ordenes negativos de magnitud, en mis estimaciones más pesimistas, con respecto a una probabilidad 0.

Entiendo, que para ciertos ejercicios 30 ordenes es mucho, pero para otros puede ser poco, pero  Bueno es eso se trata la ciencia, de saber explicar tu criterio, y que si otro aplica tu mismo criterio, en el 99,9999% de los casos obtendrá resultados compatibles con los tuyos.

No lo quiero llamar cuantización, porque no lo es simplemente un experimento que permitiera tal resolución. Esto ocurre en todas las magnitudes medibles. No olvidemos que en las interpretaciones normales de la cuántica las probabilidades son los modulos de una amplitud de probabilidad, que representa una función de ondas, que es la función que representa un estado del sistema, en el sentido de que hay valores que dan un valor concreto para esos estados, un CCOC, independientemente de que haya otros cuyo valor sea aleatorio al hacer una media sobre el sistema, esto es algo clave en la cuántica. Y esto ocurre en cualquier teoría científica, no es un problema de que lo que midamos sean amplitudes de probabilidad o densidades de probabilidad o estimemos probabilidades de algo. Y en el CCOC, no es que solo los resultados salgan con probabilidad 1, es que no hay ninguna posibilidad de que salga otro resultado, como podría ocurrir en una interpretación más laxa, la definición frecuentista permite cualquier obtener cualquier número finito de resultados con probabilidad 0 en la definición de probabilidad, de hecho, incluso un número infinito "no demasiado frecuente"


excede lo que conozco, prefiero no contribuir a formarte una falsa idea.



Saludos  \(\mathbb {R}^3\)

09 Marzo, 2020, 06:11 pm
Respuesta #31

Raúl Aparicio Bustillo

  • $$\Large \color{#9c57a6}\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,113
  • Karma: +0/-3
  • Sexo: Masculino



Interpreto por un analogo que dices que si se rompe un frasco contra el piso, existe la probabilidad de que se forme de vuelta por si solo... la probabilidad no es nula, pero si muy cercana a cero, Allí si entiendo que entra la entropía a tomar parte, El grado de dispersión de la piezas, influye sobre el valor de la probabilidad de que dos piezas se vuelvan a unir . Esto lo estudia bien la Fisica estadística, pero no soy muy conocedor para ayudarte en más...


El problema es que esto te permite descartar unas probabilidades de que para corroborar que una moneda este trucada tendrías que sacar cara como 100 veces seguidas, un poco menos, \( ln 10/ln 2 \). Claro, yo no voy a esperar a ver cerca de 100 caras seguidas para sospechar que una moneda está trucada, tendré que tomar la decisión antes.

Bueno como tomas la decisión entonces, que limite te impones, en Física lo normal es observar el desvío, con 5 sigmas de gauss de seguridad, osea que tienes aproximadamente 1 posibilidad entre el millón de que te estés equivocando en tu afirmación.

Si haces mil tiradas de monedas y las primeras 500 salen caras pero las 500 restantes salen secas, que opinas esta sesgada la moneda?, según tu criterio, con pocos lances seguidos de  caras descartarias la moneda, pero ante estos resultados 500 caras 500 cecas, descartas la moneda?
es extremadamente improbable, pero no imposible que suceda.

que hace entonces, determinar para cada cantidad de lanzamientos, cual es la cantidad de eventos máximos tolerables o bien de 0 o de 1, para que en el 99.9999% de los casos la moneda no esté trucada,   o te  debes poner en mente un sesgo máximo tolerable, y ver cual es la sucesión de n eventos que tiene mas de \( x \) eventos seguidos  o \( y \) eventos en el total, para que eso se deba  con 99,9999% de probabilidad al sesgo y no a un evento aleatorio, pero jamas sabrás si fue realmente un evento aleatoriao, o bien el sesco con certeza absoluta.



Con respecto a los foros, cada uno de ellos tiene sus normas, si intentas torcerlas, te ganas enemigos, luego no hallaras muchas respuestas, yo diría que siempre  en los foros, trates de comunicarte con otros, haciendo pequeñas afirmaciones que resulten ser preguntas, pero si esgrimes argumentos complejos como afirmación,  sin mucho sustento científico, dificilmente de seguir, tus mensajes seguro se acumularan en un basurero electrónico de unos y ceros... Hay que ser hábil o estudiar un tiempo prudencial, el estilo de respuestas, para pisar o no la línea que no se atreven ellos a cruzar, muchas veces solo por el hecho que no quieren hacerlo para que su reputación dentro del foro no se manche por dar una respuesta , un tanto floja de papeles, por decir un análogo a carente de rigor científico.



Y sí, es la 2ª ley de la termodinámica, es trivial ver que las leyes físicas son invariantes bajo inversión temporal (en cuántica tienes que conjugar la carga, pero es igualmente simétrica), y sí es la 2ª ley de la termodinámica, no voy a citar un experimento de una revista que solo vi la referencia, pero por ahí van las cosas, más que no ocurrir eventos que disminuyen la entropía a ese nivel, es que el resto del Universo no puede almacenar una información correspondiente tan grande a una disminución de entropía. Voy a ver si busco el artículo, porque me ha picado el gusanillo de leérlo también. Desde luego, es la explicación más sensata, y resolvería un montón de cosas, si es que es viable. Así que, no es que no disminuye la entropía, yo hablo de fenomenos\(  1^10{-15} \), en termdinámica son \( 10^23 l \)os valores típicos





26 Marzo, 2020, 03:25 am
Respuesta #32

Richard R Richard

  • Ingeniero Industrial
  • $$\Large \color{#5b61b3}\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 2,415
  • País: ar
  • Karma: +1/-0
  • Sexo: Masculino
  • Dentro de la ciencia todo,fuera de la ciencia nada
Creo  que minuto final de este video resume lo que intentaba explicar.

https://www.youtube.com/watch?v=HHJFhssdxZU

Espero te resulte útil
Saludos  \(\mathbb {R}^3\)

11 Abril, 2020, 12:42 pm
Respuesta #33

Raúl Aparicio Bustillo

  • $$\Large \color{#9c57a6}\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,113
  • Karma: +0/-3
  • Sexo: Masculino
Pues no, trata de descubrir una partícula y de descorchar botellas. Nada que ver con mi pregunta. Me guardo las gracias para alguien que me responda, ya he encontrado la respuesta

13 Abril, 2020, 05:38 am
Respuesta #34

Raúl Aparicio Bustillo

  • $$\Large \color{#9c57a6}\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,113
  • Karma: +0/-3
  • Sexo: Masculino
Bueno, creo que en largo general que puede alcanzar es de euna exponencial de la entropía de Shannon, exponenciando en la base usada, como el artículo que referí. El argumento físico es válido pero da probabilidades tan ínfimas que no se pudee usar en la práctica. A continuación el link de nuevo, y el mensaje original, que no se de deben borrar por las normas del foro.

https://arxiv.org/abs/physics/9903045

Everett no saca la constante, pero en su tesis de Many Worlds llega a la misma conclusión. Usar la desviación típica es más fácil, pero porque hay una cota, la cita en el artículo. Con una distribución cuadrada llegas a sacar la constante, que depende del espacio muestral, pero no de las probabilidades de cada evento. ASí que más de 5 desviaciones típicas en torno a un valor dado no tiene sentido. Por supuesto, esto choca con la definición frecuentistas, donde solo se dan límites, es cuestionable valorar si tiene sentido la existencia de tal límite. Es cierto que las definiciones de probabilidad condicionada, independencia son muy transparentes, pero con esa definición no se llega a ningún sitio

Bueno, hay un argumento físico. El problema es que la probabilidad que he conseguido descartar con ello es de 0,0000000000000000000000001, o sea, con \(  ln_2 10^{-25} \) veces cara, por ejemplo. que son entre 75 y 100 caras, puedo asegurar que la moneda está trucada. No es muy útil, pero es incuestionable con la física actual. Obviamente, hay que recurrir al analisis bayesiano, pero sin aplicar este método siempre nos queda la posibilidad de que el fallo sea estadístico no científico, sería útil encontrar un límite menor, creo sería posible usar la entropía del Universo, que permitiría dar una cota mejor, si los astrofísicos hicieran bien los cálculos. Yo solo uso la entropía de Planck, que es un límite poco dado a discusión. A esa escala los agujeros negros no existen (no veríamos las partículas). Si eso ocurre a escalas superiores, más a mi favor el cálculo, pero no quisiera aventurar

Y bueno, el argumento físico, es poco útil, pero es muy simple, puedes obtener un resultado raro, pero no que genere más entropía que un agujero negro, ahí está la cuestión, considerando que lleva 1 s repetir cada experimento. Es más, pero bueno, es una cota más que razonable. La entropía de un agujero negro, al nivel máximo de resolución, es proporcional al area, no al volumen, luego crece más despacio. No hay agujeros negros menores a una circunferencia de diámetro la longitud de Planck. En eso se basa mi cálculo. Obviamente en el mundo real, se han de usar argumentos bayesianos. Obviamente, mi cálculo da un límite para la entropía de Shannon, la desviación típica se puede aplicar, y podemos considerar distribuciones normales, dado que el cálculo se puede hacer considerando relatividad general, y podemos usar cualquier distribución de soporte infinito, de ahí saco \( 10 ^{-25}  \)como probabilidad