Autor Tema: ¿Cuánto puede durar una racha en estadística?

0 Usuarios y 1 Visitante están viendo este tema.

28 Febrero, 2020, 07:17 am
Respuesta #20

Raúl Aparicio Bustillo

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,105
  • Karma: +0/-3
  • Sexo: Masculino
Ah bueno, lo de los contrastes de hipótesis es otro asunto. Es verdad que un nivel de confianza del 95% o del 99% puede no ser muy alto en muchos casos, sobre todo si se trata de algo muy importante. La cuestión es que por muchas veces que repitas un experimento nunca podrás estar seguro de que el contraste de hipótesis no esté equivocado. Es decir, nunca puedes reducir a 0 los errores de tipo I y tipo II. Aunque cuantas más veces repitas el experimento más seguridad tendrás.

Los valores 95% y 99% no dejan de ser una convención, que se usa mucho en ciencias sociales o en medicina. Tengo entendido que, por ejemplo, en física de partículas para que algo se considere un descubrimiento (el bosón de Higgs por ejemplo) se exige un nivel de confianza mucho mayor.
\(
Se exige \) 5 \sgima

Sobre lo último que dices de los errores tipo I y tipo II: estos errores no son independientes. Si reduces uno te sube el otro. Entonces lo que se hace normalmente es dar un nivel de significación, que es el error de tipo I máximo que puedes cometer, y una vez fijado eso considerar el contraste que tiene menor error de tipo II (a esto se le llama el test con mayor potencia).
Esto se hace así porque tal como se plantean los tests uno quiere estar razonablemente seguro de que si los datos rechazan la hipótesis nula, ésta está bien rechazada. Los tests de hipótesis funcionan igual que los juicios: hay presunción de inocencia (presunción de que \( H_0 \) es cierta) a menos que haya fuertes eviencias de lo contrario. De manera que se considera menos peligroso cometer un error tipo II (dejar libre a alguien culpable) que cometer un error de tipo I (encarcelar a un inocente).

De todas maneras, tienes que tener en cuenta que el error tipo II (aceptar \( H_0 \) cuando es falsa) depende de cuál sea el verdadero valor del parámetro sobre el que haces el test. Es decir, no es un único valor sino que tienes un valor para cada posible valor del parámetro. Por eso se suele dar la curva de potencia del test. En cualquier caso, en los test típicos estas curvas se pueden calcular sin demasiada dificultad.

28 Febrero, 2020, 07:36 am
Respuesta #21

Raúl Aparicio Bustillo

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,105
  • Karma: +0/-3
  • Sexo: Masculino
Aunque sea para niños, y aunque no hace falta creer las suposiciones del asesino de gatos, y aunque después de su tesis se dedicara más a las mujeres y otras cosas, no deja de ser una tesis, he leído cosas bastante más aberrantes, y aunque deja muchas cosas en el tintero, realmente decir que Many Worlds es su interpretación es un tanto exagerado, creo que siembra un buen camino . Y desde luego, es el primero que no se toma a chufla el tamaño de una variable aleatoria, y coge la desviación típica porque es lo más ameno que se le hace, total, parece una medida de distancias en un espacio métrico, pero, ¿qué espacio métrico, que hablamos de probabilidades?


https://www-tc.pbs.org/wgbh/nova/manyworlds/pdf/dissertation.pdf

Una versión un poco más elegante https://arxiv.org/abs/physics/9903045

De todas formas, yo creo que la densidad volúmica másica del agujero negro si se puede tomar como constante universal en nuestro universo, no es una constante matemática en modo alguno, es física, y desaparecen todas las circularidades. Los matemáticos no fallan en sus pruebas estadísticas porque son vacías de significado físico, esto es una situación que se lleva evitando. A nadie le parece sensato que lanzando una moneda 10 veces salga C+C+C+C+C+C, pero nadie se atreve a decirla, todos, es poco probable. Todos los que intentaron llegar a algo serio, Kolmogorov, von Mises, acabaron mal, todo el mundo considera los test de hipótesis fiables cuando dan lo que esperan, todo el mundo espera que dentro de un rato amanezca en Madrid....Así no se puede....Esta lectura mía no tiene 500 visitas porque yo sea ninguna eminencia, ni por mi CV, la tiene porque es el tema que nadie quiere tocar. Y realmente, meter una constante universal como un máximo a la densidad de entropía, cosa que ya hicieron Hawking y Penrose, sí, increíble, pero Penrose aparte de .....ha hecho también otras cosas

29 Febrero, 2020, 03:11 am
Respuesta #22

Richard R Richard

  • Ingeniero Industrial
  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 451
  • País: ar
  • Karma: +0/-0
  • Sexo: Masculino
  • Oh Oh!!! me contestó... y ahora qué le digo...
Por ejemplo, en un experimento dicotómico con resultados 0 y 1, que "ocurre" 4 veces en la historia del Universo, 1011 es aleatorio, pero 1010, que clava la frecuencia relativa a la probabilidad no lo es. Evidentemente, la definición de aleatoriedad es simplicísima, se trata de que no se pueda predecir el resultado en base a resultados anteriores, en 1010 es trivial que sí. El problema es que hacer esto con 100000 resultados, y no te digo ya si no son solo 2 resultados posibles, o si tiene sentido realmente dar probabilidades distintas, creo que sí, pero hay que definirlo, si eso es computable.

si el evento sucede 4 veces solamente en la historia del universo,  y 3 veces sale 1 y una sola vez 0 entonces la probabilidad de 1 es 0.75 y la de 0 es 0.25... es decir  0 y 1 no son equiprobables...

Tu puedes pensar que el hecho de lanzar unas moneda , después de los millones de veces que se ha lanzado una , de las que ha quedado registro la tendencia es que  la probabilidad de cara es igual a la de seca... luego p=0.5 de ambas, pero si solo hay 4 eventos . la probabilidad depende directamente de los casos a favor sobre los casos totales



Pues es un tema muy importante, porque esperar a tirar 200 veces una moneda y que salga una sola vez cruz para "sospechar" que puede estar trucada, me parece exagerado.

Depende,... en un número "infinito" de tiradas puedes codificar grupos de aparición contiguos como por ejemplo 00000001 = "a" y  00000010= "b" y así el abecedario entero con sus signos de puntuación , etc, luego es probable, que encuentres a lo largo de una sucesión finita de elementos dentro de la infinidad de  ceros y unos, todo el texto del Quijote de corrido, del mismo modo que el Martin Fierro, y todas las obras literarias que se te ocurran, las puedes hallar en la sucesión... por ello que 200 ceros seguidos luego por  200 unos seguidos, esta dentro de la probabilidades de que sucedan, y en infinitos lanzamiento, suceden seguro.

Ahora bien la probabilidad de que en un número "finito" de n lanzamientos se de n/2 veces seguidas 01 es la misma probabilidad de que se de n/2 veces seguidas 11,  yo no veo ningún sesgo a  analizar... cuando haces 1000 lanzamientos y obtienes 200 seguidos de 1 o 0 , esta dentro de lo probable, y posible y si sucede es normal... que sospechas que hay sesgo en la moneda? como lo determinas?, repites el experimento, y si no vuelve a suceder , no hay sesgo... ahora bien tu me diras puede darse que en todas las reiteraciones obtienes 200 seguidas... si claro es posible, pero cada vez menos probable.
Saludos  \(\mathbb {R}^3\)

29 Febrero, 2020, 10:57 pm
Respuesta #23

Raúl Aparicio Bustillo

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,105
  • Karma: +0/-3
  • Sexo: Masculino


si el evento sucede 4 veces solamente en la historia del universo,  y 3 veces sale 1 y una sola vez 0 entonces la probabilidad de 1 es 0.75 y la de 0 es 0.25... es decir  0 y 1 no son equiprobables...

[/quote]

No, esto no es verdad




[quote author=Raúl Aparicio Bustillo link=topic=112319.msg444537#msg444537 date=158285998

Y es un tema muy importante, porque esperar a tirar 200 veces una moneda y que salga una sola vez cruz para "sospechar" que puede estar trucada, es exagerado
[/quote]

Y no, claro que no espero una solución matemática al problema, de la misma forma que la constante de la gravitación universal se puede deducir matemáticamente que es una constante universal, pero nunca su valor. Los experimentos para averiguarla ya son de por sí físicos. Y bueno, sobre matemáticas yo no sé, en ciencias experimentales los teoremas te los dan, y nadie pone en duda las demostraciones matemáticas, sin embargo veo que las deducciones físicas son cuestionadas, hablo en general, no me refiero a nadie en concreto, por algún matemático, cuando tienen el mismo valor de verdad, dado que aunque no estén basadas en la razón, si lo están en la experiencia. Todavía hay gente que piensa que no hay modelos de ZFC con ordinales estándar, solo por el hecho de que no son necesarios para demostrar teoremas matemáticos

29 Febrero, 2020, 11:48 pm
Respuesta #24

Richard R Richard

  • Ingeniero Industrial
  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 451
  • País: ar
  • Karma: +0/-0
  • Sexo: Masculino
  • Oh Oh!!! me contestó... y ahora qué le digo...


si el evento sucede 4 veces solamente en la historia del universo,  y 3 veces sale 1 y una sola vez 0 entonces la probabilidad de 1 es 0.75 y la de 0 es 0.25... es decir  0 y 1 no son equiprobables...


No, esto no es verdad


Hola Raúl. estoy absolutamente perplejo, por la respuesta, realmente me has interesado en ver sí me podrías ofrecer una demostración de lo contrario,
como haces a afirmar que 0 y 1 son equiprobables, (no hablo de caras y secas de monedas, sino de lo literal de lo citado) con solo 4 eventos de los cuales 3 solo son 1 y uno 0,  la historia te dice

\( P_1=\dfrac{casos\,favorables}{casos \,totales}=\dfrac{3}{4} \)

\( P_0=\dfrac{casos\,favorables}{casos \,totales}=\dfrac{1}{4} \)

la probabilidad  para un quinto lanzamiento está en esos valores, luego

\( P_1\neq P_0 \)

Entiendo que en el caso de caras y secas, asumimos que \( P_{cara}\cong P_{seca}\cong0.5 \) nadie ha contado todos los lanzamientos de monedas para asumir que P sea exactamente 0.5, pero si idealizas la situación,  \( P_{cara}=P_{seca}=0.5 \) esto es a priori de tu experimento.

Luego lanzas tu moneda, n veces, relacionas cara con 1 y seca con 0, la sucesión de ceros y unos que toque es equiprobable, a cualquier otra sucesión de ceros y unos de la misma longitud posterior, a menos que el resultado del experimento influya en la probabilidad, es decir si lo ultimo que salio es 0 , aumenta el números de casos a favor del 0 y la probabilidad de que la próxima tirada sea 0 es mayor que antes, pero intuyo que de esto no es de lo que hablas.

Si la experiencia total en lanzamientos de monedas dice 3 de 4 lanzamientos son 1 y 1 de cuatro 4 es 0 , sin información adicional, sobre si se trata de una moneda, o de que evento se trate, la  probabilidad de la da casos favorables sobre totales....



Saludos  \(\mathbb {R}^3\)

01 Marzo, 2020, 08:14 am
Respuesta #25

Raúl Aparicio Bustillo

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,105
  • Karma: +0/-3
  • Sexo: Masculino
Estás equiparando probabilidades a frecuencias relativas, yo hablo de probabilidades en lo que parece ser lo que se dice "propensiones", que creo que es una noción de Von Mises. En cualquier caso, yo hablo de una probabilidad física, a priori, luego lo que se parezcan o no los resultados, es una discusión que llevamos decadas o cientos de años, pero preguntar a un científico si esa "propensión" o como quieras llamarlo existe, es algo así como preguntar si existe la función de estado para representar a un estado físico (sí, son estados muy peculiares porque hay valores que no tienen un valor fijo, de hecho, la existencia de un CCOC, conjunto completo de observables que conmutan en los estados puros es algo crucial, sin ello se peredería todo el potencial) Lo cierto, es que por mucho que en esos estados haya experimentos que den resultados distintos, hay un conjunto completo de resultados que dan SIEMPRE lo mismo, sin entrar en si la probabilidad es 1, que lo es, del formalismo, no de la de consecuencia matemática, es trivial que puede salir un resultado de probabilidad 0 si no tenemos en cuenta una noción a priori, basta la secuencia trivial 10000000.....y todo lo demás 0´s, evidentemente, sale 1, y evidentemente, con el límite de frecuencias relativas, las respuesta es 0

Los físicos tienen discusiones muy agrias sobre cuánto se puede alejar la frecuencia relativa de la probabilidad ( de hecho, está demostrado que aunque históricamente se consideró, salvo un factor, la desviación típica, sabemos que en realidad es la entropía, de Shannon, que es una definición puramente matemática de una variables aleatoria, aunque relacionada, no implica nada de física) El problema es si admitimos resultados con probabilidad 0 o  no. Insisto, sé que la tesis de Everett y sus universos paralelos no goza de mucha aceptación, entre los físicos tampoco, pero en algunos aspectos, como ése que mencioné, y como ya linke la propia tesis y un arxiv, un poco más adecuado a los formatos actuales, todo va a la entroía de Shannon (salvo constantes) para medir la anchura de una variable aleatoria

01 Marzo, 2020, 10:55 am
Respuesta #26

feriva

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 9,169
  • País: es
  • Karma: +1/-0
  • Sexo: Masculino
Por ejemplo, en un experimento dicotómico con resultados 0 y 1, que "ocurre" 4 veces en la historia del Universo, 1011 es aleatorio, pero 1010, que clava la frecuencia relativa a la probabilidad no lo es. Evidentemente, la definición de aleatoriedad es simplicísima, se trata de que no se pueda predecir el resultado en base a resultados anteriores, en 1010 es trivial que sí. El problema es que hacer esto con 100000 resultados, y no te digo ya si no son solo 2 resultados posibles, o si tiene sentido realmente dar probabilidades distintas, creo que sí, pero hay que definirlo, si eso es computable.

si el evento sucede 4 veces solamente en la historia del universo,  y 3 veces sale 1 y una sola vez 0 entonces la probabilidad de 1 es 0.75 y la de 0 es 0.25... es decir  0 y 1 no son equiprobables...

Hola, Richard.
Por lo que voy leyendo creo que quería decir sucesos del espacio muestral. Es decir, se puede tirar una moneda dos veces y que salgan dos caras en vez de cara y cruz (o seca, como se dice allá por lo que veo). Entonces en el conjunto de sucesos del espacio muestral habría 2 caras y cero cruces, pero eso no quita que la probabilidad de cada una siga siendo 1/2.

Luego, entiendo que dice que dados dos sucesos posibles, 0 ó 1, si en cuatro lanzamientos aparece 1011,esto  es aleatorio porque no se cumple la probabilidad teórica 1/2, no sale la mitad de cada uno como en, por ejemplo, sí sale en 1010. Pero, por lo que dice Geómetracat (creo entender también) la complejidad de Kolmogorov no tiene que ver con que se cumpla o no la probabilidad, sino con que no se repitan periodos o sí se repitan (supongo que dada un cantidad finita de unos y ceros) según el orden de los sucesos.
Eso es lo que interpreto, porque, vaya por delante, yo sé nada de dicha cuestión, no lo he estudiado la complejidad ésa.

Saludos.

03 Marzo, 2020, 10:27 am
Respuesta #27

Raúl Aparicio Bustillo

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,105
  • Karma: +0/-3
  • Sexo: Masculino
Bueno, pero entonces, ¿sería un tema de física‽ Porque

creo atañe a todas las ciencias experimentales, no sé, y si la respuesta es distinta serà por el nivel de resolución, no más. No entiendo bien por qué se oculta está respuesta ¿para proteger determinadas disciplinas? En física el cálculo es.triviso, nadie lo ocultamos, y no ha supuesto su fin,, al contrario, sabemos qué cualquier càlxulo físico es incuestionable. ¿Por qué las otras ciencias no hacen lo mismo?

Por ejemplo, en un experimento dicotómico con resultados 0 y 1, que "ocurre" 4 veces en la historia del Universo, 1011 es aleatorio, pero 1010, que clava la frecuencia relativa a la probabilidad no lo es. Evidentemente, la definición de aleatoriedad es simplicísima, se trata de que no se pueda predecir el resultado en base a resultados anteriores, en 1010 es trivial que sí. El problema es que hacer esto con 100000 resultados, y no te digo ya si no son solo 2 resultados posibles, o si tiene sentido realmente dar probabilidades distintas, creo que sí, pero hay que definirlo, si eso es computable.

si el evento sucede 4 veces solamente en la historia del universo,  y 3 veces sale 1 y una sola vez 0 entonces la probabilidad de 1 es 0.75 y la de 0 es 0.25... es decir  0 y 1 no son equiprobables...

Tu puedes pensar que el hecho de lanzar unas moneda , después de los millones de veces que se ha lanzado una , de las que ha quedado registro la tendencia es que  la probabilidad de cara es igual a la de seca... luego p=0.5 de ambas, pero si solo hay 4 eventos . la probabilidad depende directamente de los casos a favor sobre los casos totales



Estás usando las frecuencias relativas como probabilidad, bien, cumplen los axiomas de Kolmogorov, pero son experimentos aleatorios, no tienen ninguna utilidad, y las funciones de estado que representan los estados físicos de los sistemas no se refieren a esas probabilidades. Yo digo que la única forma sensata es que las frecuencias relativas sean tan raras que se provoque una entropía física en el Universo superior a la de un agujero negro, que eso viola las leyes de la termodinámica, y aunque las leyes de la termodinámica no son invariantes bajo inversión temporal, y las leyes cuánticas y clásicas sí, da igual, porque si ocurre un fenómenos donde la entropía disminuye nadie lo recuerda. Es algo filosófico. El problema es que esto te permite descartar unas probabilidades de que para corroborar que una moneda este trucada tendrías que sacar cara como 100 veces seguidas, un poco menos, \( ln 10/ln 2 \). Claro, yo no voy a esperar a ver cerca de 100 caras seguidas para sospechar que una moneda está trucada, tendré que tomar la decisión antes. Solo digo que yo no he encontrado un cálculo más fino en la literatura, sé que esto es física, y estoy escribiendo en una sección de matemáticas, pero la sección de física de este foro está tan denostada, y foros muy rigurosos como los Stack Exchange tienen unas normas absurdas de censura, de si a unos expertos no les gusta tu pregunta, te prohíben preguntar, no defiendo este foro porque sea en español, aunque tampoco deja de de ser un aliciente, pero salvo alguna vez desafortunada por alguien quizá en un mal momento, no he sufrido censura, en el otro foro sí, así que prefiero escribir aquí, incluso podría estar habiendo dar versiones bilingues de las preguntas, si no se ponen rigurosos los moderadores con la censura, creo que hasta podríamos superarlo, Porque los stackexchange, he escrito en física, en matemáticas hay demasiado nivel y no soy experto, no me considero capacitado para escribir, pero obviamente en mi disciplina sí. Y el tema este, a lo mejor ha sido tratado, pero yo jamás he encontrado en bases de datos, y es un tema físico, que los matemáticos no os incumbe, bueno, os puede interesar, yo lo considero un tema crucial. Fiajros que gente como Einstein dedicó los últimos años de su vida a una teoría determinista para evitar entrar en estos temas, cuando el hecho de que ocurra un fenómeno que disminuya la entropía, mientras no deje rastro de información, es perfectamente razonable. Creo que hay un artículo que lo trata, lo que pasa que los valores que se descartan son de los ordenes que estoy dando, no se puede usar en la prácitca para tomar decisiones casi nunca, en mecanica estadística sí, pero no en teoría de juegos ni en economía, ni en medicina, en muy pocas cosas prácticas, aunque sea la mía. Sé que no tengo nivel para manejar ecuaciones en estos niveles, pero es algo importantísimo, a no ser que alguien haga alguna teoría determinista, que me parece que hace como 100 años que se abandonó la idea en física, posiblemente Einstein hizo el último intento, y hasta donde yo sé, no publicñ´ó nada


04 Marzo, 2020, 02:18 pm
Respuesta #28

Raúl Aparicio Bustillo

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,105
  • Karma: +0/-3
  • Sexo: Masculino

Corrijo, fue una errata. No, el tiempo y el espacio hasta donde sabemos no hay evidencia de cuantización, hay teorías de cuantización de la gravedad que trabajan sobre ello, como la teoría cuántica de bucles LQG, de Carlo Rovelli, no la de cuerdas, pero aparte yo no soy fan. Aunque estoy es ciencia, no es una cuestión de que seas fan o no de la teoría, es una cuestión de que la teoría de explicaciones de cosas bien que otras teorías no las dan bien



El espacio y el tiempo no son cuantizados, al menos entiendo que  no lo sabemos por ahora, me sorprende leer que la probabilidad  si está cuantizada- Lo que ocurre que habría un valor por debajo del cuál dificilmente podrías hacer un experimento que te permitiera discernir un valor por debajo de una determinada probabilidad, de 25 o 30 ordenes negativos de magnitud, en mis estimaciones más pesimistas, con respecto a una probabilidad 0. No lo quiero llamar cuantización, porque no lo es simplemente un experimento que permitiera tal resolución. Esto ocurre en todas las magnitudes medibles. No olvidemos que en las interpretaciones normales de la cuántica las probabilidades son los modulos de una amplitud de probabilidad, que representa una función de ondas, que es la función que representa un estado del sistema, en el sentido de que hay valores que dan un valor concreto para esos estados, un CCOC, independientemente de que haya otros cuyo valor sea aleatorio al hacer una media sobre el sistema, esto es algo clave en la cuántica. Y esto ocurre en cualquier teoría científica, no es un problema de que lo que midamos sean amplitudes de probabilidad o densidades de probabilidad o estimemos probabilidades de algo. Y en el CCOC, no es que solo los resultados salgan con probabilidad 1, es que no hay ninguna posibilidad de que salga otro resultado, como podría ocurrir en una interpretación más laxa, la definición frecuentista permite cualquier obtener cualquier número finito de resultados con probabilidad 0 en la definición de probabilidad, de hecho, incluso un número infinito "no demasiado frecuente"


07 Marzo, 2020, 07:48 am
Respuesta #29

Raúl Aparicio Bustillo

  • $$\Large \color{red}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 3,105
  • Karma: +0/-3
  • Sexo: Masculino
Ah, creo que ya veo por dónde vas. En cualquier caso, yo creo que es un problema de física. Nunca he visto a matemáticos (ni a estadísticos) preocuparse por estas cosas. No tengo mucha idea, pero intuyo que no se debe saber calcular bien (probablemente ni aproximadamente) ese valor mínimo de la probabilidad.

Lo acabo del calcular, esa una estimación muy burda, pero para valores físicos macroscópicos (sistemas descritos con un número particulas \eq 10^{23] es más que de sobra

Físicamente, aunque es cierto que estrictamente la estadística frecuentista (que se basa en leyes de grandes números y hacer tender el número de elementos de una muestra hacia infinito) no es válida, da una aproximación bastante buena que funciona razonablemente bien en el día a día. La estadística bayesiana no tiene estos problemas pues no basa los resultados en hacer límites, pero tiene otros problemas propios.