Ante todo, me disculpo por tardar en dar mi humilde respuesta, no siempre se dispone de tiempo para todo...
Estás usando las frecuencias relativas como probabilidad, bien, cumplen los axiomas de Kolmogorov, pero son experimentos aleatorios, no tienen ninguna utilidad, y las funciones de estado que representan los estados físicos de los sistemas no se refieren a esas probabilidades.
A ver si puedo entender tu linea de pensamiento, hagamoslo simple, hay dos estados 0 y 1, sabemos si son equiprobables? a priori no..o tu entiendes qui sí. en caso de no,como definimos su probabilidad?, experimentalmente, por el historial de resultados a favor y en contra?. Que las caras sean lisas, que sean geométricamente simétricas, que el centro de gravedad se corresponda con el centro geométrico... son causas que hemos aprendido y verificado experimentalmente, que conducen a que caras y secas tengan probabilidad tendiente a 0.5, los casos en que sale de canto dejémoslos de lado, y digamos que esto se ha testeado un numero muy grande de veces, y que cara es equiprobable a ceca.
Pero te reitero, cuando tu dices que solo se ha podido experimentar 4 veces en la historia del universo, no tienes forma de validar que tu propocisión sobre 0 y 1 son equiprobables a priori, si tu única historia de eventos es de 3 unos y 1 cero. Esa frecuencia determina la probabilidad... a eso me refiero... si tu previamente asumes la equiprobabilidad, bueno, es mas probable que salgan 2 ceros y dos 1 en cualquier orden que 4 ceros o que cuatro unos, es decir de todas combinaciones de n eventos donde m fueron 1 y b ceros, la mas probable es la que m=b, es la que tiene mayor posibilidad de salir, es decir tiende a la media, si realmente son equiprobables el evento 0 y el 1.
Yo digo que la única forma sensata es que las frecuencias relativas sean tan raras que se provoque una entropía física en el Universo superior a la de un agujero negro, que eso viola las leyes de la termodinámica, y aunque las leyes de la termodinámica no son invariantes bajo inversión temporal, y las leyes cuánticas y clásicas sí, da igual, porque si ocurre un fenómenos donde la entropía disminuye nadie lo recuerda. Es algo filosófico.
Interpreto por un analogo que dices que si se rompe un frasco contra el piso, existe la probabilidad de que se forme de vuelta por si solo... la probabilidad no es nula, pero si muy cercana a cero, Allí si entiendo que entra la entropía a tomar parte, El grado de dispersión de la piezas, influye sobre el valor de la probabilidad de que dos piezas se vuelvan a unir . Esto lo estudia bien la Fisica estadística, pero no soy muy conocedor para ayudarte en más...
El problema es que esto te permite descartar unas probabilidades de que para corroborar que una moneda este trucada tendrías que sacar cara como 100 veces seguidas, un poco menos, \( ln 10/ln 2 \). Claro, yo no voy a esperar a ver cerca de 100 caras seguidas para sospechar que una moneda está trucada, tendré que tomar la decisión antes.
Bueno como tomas la decisión entonces, que limite te impones, en Física lo normal es observar el desvío, con 5 sigmas de gauss de seguridad, osea que tienes aproximadamente 1 posibilidad entre el millón de que te estés equivocando en tu afirmación.
Si haces mil tiradas de monedas y las primeras 500 salen caras pero las 500 restantes salen secas, que opinas esta sesgada la moneda?, según tu criterio, con pocos lances seguidos de caras descartarias la moneda, pero ante estos resultados 500 caras 500 cecas, descartas la moneda?
es extremadamente improbable, pero no imposible que suceda.
que hace entonces, determinar para cada cantidad de lanzamientos, cual es la cantidad de eventos máximos tolerables o bien de 0 o de 1, para que en el 99.9999% de los casos la moneda no esté trucada, o te debes poner en mente un sesgo máximo tolerable, y ver cual es la sucesión de n eventos que tiene mas de \( x \) eventos seguidos o \( y \) eventos en el total, para que eso se deba con 99,9999% de probabilidad al sesgo y no a un evento aleatorio, pero jamas sabrás si fue realmente un evento aleatoriao, o bien el sesco con certeza absoluta.
Con respecto a los foros, cada uno de ellos tiene sus normas, si intentas torcerlas, te ganas enemigos, luego no hallaras muchas respuestas, yo diría que siempre en los foros, trates de comunicarte con otros, haciendo pequeñas afirmaciones que resulten ser preguntas, pero si esgrimes argumentos complejos como afirmación, sin mucho sustento científico, dificilmente de seguir, tus mensajes seguro se acumularan en un basurero electrónico de unos y ceros... Hay que ser hábil o estudiar un tiempo prudencial, el estilo de respuestas, para pisar o no la línea que no se atreven ellos a cruzar, muchas veces solo por el hecho que no quieren hacerlo para que su reputación dentro del foro no se manche por dar una respuesta , un tanto floja de papeles, por decir un análogo a carente de rigor científico.
El espacio y el tiempo no son cuantizados, al menos entiendo que no lo sabemos por ahora, me sorprende leer que la probabilidad si está cuantizada- Lo que ocurre que habría un valor por debajo del cuál dificilmente podrías hacer un experimento que te permitiera discernir un valor por debajo de una determinada probabilidad, de 25 o 30 ordenes negativos de magnitud, en mis estimaciones más pesimistas, con respecto a una probabilidad 0.
Entiendo, que para ciertos ejercicios 30 ordenes es mucho, pero para otros puede ser poco, pero Bueno es eso se trata la ciencia, de saber explicar tu criterio, y que si otro aplica tu mismo criterio, en el 99,9999% de los casos obtendrá resultados compatibles con los tuyos.
No lo quiero llamar cuantización, porque no lo es simplemente un experimento que permitiera tal resolución. Esto ocurre en todas las magnitudes medibles. No olvidemos que en las interpretaciones normales de la cuántica las probabilidades son los modulos de una amplitud de probabilidad, que representa una función de ondas, que es la función que representa un estado del sistema, en el sentido de que hay valores que dan un valor concreto para esos estados, un CCOC, independientemente de que haya otros cuyo valor sea aleatorio al hacer una media sobre el sistema, esto es algo clave en la cuántica. Y esto ocurre en cualquier teoría científica, no es un problema de que lo que midamos sean amplitudes de probabilidad o densidades de probabilidad o estimemos probabilidades de algo. Y en el CCOC, no es que solo los resultados salgan con probabilidad 1, es que no hay ninguna posibilidad de que salga otro resultado, como podría ocurrir en una interpretación más laxa, la definición frecuentista permite cualquier obtener cualquier número finito de resultados con probabilidad 0 en la definición de probabilidad, de hecho, incluso un número infinito "no demasiado frecuente"
excede lo que conozco, prefiero no contribuir a formarte una falsa idea.