Mostrar Mensajes

Esta sección te permite ver todos los posts escritos por este usuario. Ten en cuenta que sólo puedes ver los posts escritos en zonas a las que tienes acceso en este momento.

Mensajes - Raúl Aparicio Bustillo

Páginas: [1] 2 3 4 ... 156
1
Pero no será mejor usar la definición metamatemática, ¿qué resultados permite obtener esta? Y en el momento que la teoría matemática usada no sea ZF (con o sin axioma de partes, ¿se sigue pudiendo utilizar la definición de modelo de ZF? Si esto es posible, y tiene ventajas, lo estudiaré, que supongo las tendrá, pero como motivación, estaría bien decir cuáles son, y otra cuestión, creo que no, que no hay circularidad. Pero si no partes de una definición metamatemática de modelo, ¿cómo se justifican los axiomas y reglas de inferencia de la lógica de primer orden, que al fin y al cabo es "la lógica"? Las otras lógicas, alguien me va a criticar, pero son lógicas que responden a la definición formal de sistema deductivo, pero que, o añaden cosas o quitan, pero no es la lógica del "Universo real".

2
Sí, que sí este tipo de problemas se pueden buscar otras soluciones más ortodoxas. Los números del contraejemplo son muy simples, pero podrían ser series de números arbitrarias. Dentreo de \( \mathbb{R} \), la solución es fácil, es ir probando. Si factorizas no llegas a nada. ¿Hay algún método más estándar, o es solo de ir probando, porque llegar justo a 2, es pura idea feliz, ¿o lo pensaste de alguna forma como conjetura previa

3
Sí, es cierto, el segundo paréntesis no da 3 obviamente. Y por igualdades notables prefiero no contar los árboles que ha perdido el planeta xDDD . Estoy un poco flojo ultimamente, disculpas por el mensaje a los 2 , ¿se pueden borrar o hay que dejarlos puestos con las normas del foro? No aporta nada. De todas formas, lo de trabajar en cuerpos no conmutativos extraños, cuaterniones, etc.. porque bueno, no es muy rebuscado el contraejemplo, en este caso no pero, ¿en algún problema de este tipo se usa como técnica?

4
Contraejemplo: para \( a,b,c=i \) no se cumple

5
- Otros - / Re: Es posible el calculo de esta probabilidad
« en: 15 Abril, 2020, 12:03 pm »
¿Cómo defines el potencial ganador? Sin esa definición, no es posible plantear una respuesta ni de lejos

6
Bueno, creo que en largo general que puede alcanzar es de euna exponencial de la entropía de Shannon, exponenciando en la base usada, como el artículo que referí. El argumento físico es válido pero da probabilidades tan ínfimas que no se pudee usar en la práctica. A continuación el link de nuevo, y el mensaje original, que no se de deben borrar por las normas del foro.

https://arxiv.org/abs/physics/9903045

Everett no saca la constante, pero en su tesis de Many Worlds llega a la misma conclusión. Usar la desviación típica es más fácil, pero porque hay una cota, la cita en el artículo. Con una distribución cuadrada llegas a sacar la constante, que depende del espacio muestral, pero no de las probabilidades de cada evento. ASí que más de 5 desviaciones típicas en torno a un valor dado no tiene sentido. Por supuesto, esto choca con la definición frecuentistas, donde solo se dan límites, es cuestionable valorar si tiene sentido la existencia de tal límite. Es cierto que las definiciones de probabilidad condicionada, independencia son muy transparentes, pero con esa definición no se llega a ningún sitio

Bueno, hay un argumento físico. El problema es que la probabilidad que he conseguido descartar con ello es de 0,0000000000000000000000001, o sea, con \(  ln_2 10^{-25} \) veces cara, por ejemplo. que son entre 75 y 100 caras, puedo asegurar que la moneda está trucada. No es muy útil, pero es incuestionable con la física actual. Obviamente, hay que recurrir al analisis bayesiano, pero sin aplicar este método siempre nos queda la posibilidad de que el fallo sea estadístico no científico, sería útil encontrar un límite menor, creo sería posible usar la entropía del Universo, que permitiría dar una cota mejor, si los astrofísicos hicieran bien los cálculos. Yo solo uso la entropía de Planck, que es un límite poco dado a discusión. A esa escala los agujeros negros no existen (no veríamos las partículas). Si eso ocurre a escalas superiores, más a mi favor el cálculo, pero no quisiera aventurar

Y bueno, el argumento físico, es poco útil, pero es muy simple, puedes obtener un resultado raro, pero no que genere más entropía que un agujero negro, ahí está la cuestión, considerando que lleva 1 s repetir cada experimento. Es más, pero bueno, es una cota más que razonable. La entropía de un agujero negro, al nivel máximo de resolución, es proporcional al area, no al volumen, luego crece más despacio. No hay agujeros negros menores a una circunferencia de diámetro la longitud de Planck. En eso se basa mi cálculo. Obviamente en el mundo real, se han de usar argumentos bayesianos. Obviamente, mi cálculo da un límite para la entropía de Shannon, la desviación típica se puede aplicar, y podemos considerar distribuciones normales, dado que el cálculo se puede hacer considerando relatividad general, y podemos usar cualquier distribución de soporte infinito, de ahí saco \( 10 ^{-25}  \)como probabilidad

7
Pues no, trata de descubrir una partícula y de descorchar botellas. Nada que ver con mi pregunta. Me guardo las gracias para alguien que me responda, ya he encontrado la respuesta

8
La notación \( a \gg b \), "mucho mayor que", indica que el valor de \(  a  \) está \( 1 \) o varios ordenes de magnitud \( (m  \)ordenes de magnitud) por encima de \(  b  \). En general, se exige la condición más restrictiva, y precisa, de que se puede hacer tender \( m \to \infty \), no sé si cuando dices variables de Taylor te estás refiriendo a esto último tal vez.

9



Interpreto por un analogo que dices que si se rompe un frasco contra el piso, existe la probabilidad de que se forme de vuelta por si solo... la probabilidad no es nula, pero si muy cercana a cero, Allí si entiendo que entra la entropía a tomar parte, El grado de dispersión de la piezas, influye sobre el valor de la probabilidad de que dos piezas se vuelvan a unir . Esto lo estudia bien la Fisica estadística, pero no soy muy conocedor para ayudarte en más...


El problema es que esto te permite descartar unas probabilidades de que para corroborar que una moneda este trucada tendrías que sacar cara como 100 veces seguidas, un poco menos, \( ln 10/ln 2 \). Claro, yo no voy a esperar a ver cerca de 100 caras seguidas para sospechar que una moneda está trucada, tendré que tomar la decisión antes.

Bueno como tomas la decisión entonces, que limite te impones, en Física lo normal es observar el desvío, con 5 sigmas de gauss de seguridad, osea que tienes aproximadamente 1 posibilidad entre el millón de que te estés equivocando en tu afirmación.

Si haces mil tiradas de monedas y las primeras 500 salen caras pero las 500 restantes salen secas, que opinas esta sesgada la moneda?, según tu criterio, con pocos lances seguidos de  caras descartarias la moneda, pero ante estos resultados 500 caras 500 cecas, descartas la moneda?
es extremadamente improbable, pero no imposible que suceda.

que hace entonces, determinar para cada cantidad de lanzamientos, cual es la cantidad de eventos máximos tolerables o bien de 0 o de 1, para que en el 99.9999% de los casos la moneda no esté trucada,   o te  debes poner en mente un sesgo máximo tolerable, y ver cual es la sucesión de n eventos que tiene mas de \( x \) eventos seguidos  o \( y \) eventos en el total, para que eso se deba  con 99,9999% de probabilidad al sesgo y no a un evento aleatorio, pero jamas sabrás si fue realmente un evento aleatoriao, o bien el sesco con certeza absoluta.



Con respecto a los foros, cada uno de ellos tiene sus normas, si intentas torcerlas, te ganas enemigos, luego no hallaras muchas respuestas, yo diría que siempre  en los foros, trates de comunicarte con otros, haciendo pequeñas afirmaciones que resulten ser preguntas, pero si esgrimes argumentos complejos como afirmación,  sin mucho sustento científico, dificilmente de seguir, tus mensajes seguro se acumularan en un basurero electrónico de unos y ceros... Hay que ser hábil o estudiar un tiempo prudencial, el estilo de respuestas, para pisar o no la línea que no se atreven ellos a cruzar, muchas veces solo por el hecho que no quieren hacerlo para que su reputación dentro del foro no se manche por dar una respuesta , un tanto floja de papeles, por decir un análogo a carente de rigor científico.



Y sí, es la 2ª ley de la termodinámica, es trivial ver que las leyes físicas son invariantes bajo inversión temporal (en cuántica tienes que conjugar la carga, pero es igualmente simétrica), y sí es la 2ª ley de la termodinámica, no voy a citar un experimento de una revista que solo vi la referencia, pero por ahí van las cosas, más que no ocurrir eventos que disminuyen la entropía a ese nivel, es que el resto del Universo no puede almacenar una información correspondiente tan grande a una disminución de entropía. Voy a ver si busco el artículo, porque me ha picado el gusanillo de leérlo también. Desde luego, es la explicación más sensata, y resolvería un montón de cosas, si es que es viable. Así que, no es que no disminuye la entropía, yo hablo de fenomenos\(  1^10{-15} \), en termdinámica son \( 10^23 l \)os valores típicos





10
Álgebra Lineal (Espacios Vectoriales) / Re: Sistema libre
« en: 09 Marzo, 2020, 01:02 pm »
Sí, es cierto. Mi mensaje es erroneo por confundir conceptos, se ha borrado, pero la demostración era válida, si la podéis recuperar. No por nada, seguro que sois capaces de hacer una demostración más sencilla, pero sí simplemente no os hace (cambiando sistema libre por sistema generador, obviamente)
Hola

Todo sistema generador es un sistema libre, luego la igualdad  estricta es trivial.Todo sistema generador es un sistema libre, luego la igualdad  estricta es trivial. Vamos a ver un ejemplo, por ejemplo \(  V  \)es \( l(0,1)+m(1,0) \) \( l,m \in \mathbb{C} \)

Eso es falso. NO todo sistema generador es un sistema libre; y aunque así fuese, de ahí no se deduciría trivialmente la desigualdad estricta.

Como sugiere sugata para espacios de dimensión finita, el resultado se deduce del Teorema de la base incompleta de Steiniz. Para el caso de dimensión infinita lo tienes probado aquí.

https://en.wikipedia.org/wiki/Dimension_theorem_for_vector_spaces

Pregunta las dudas si las hubiese (concretándolas).

Saludos.

11
Álgebra Lineal (Espacios Vectoriales) / Re: Sistema libre
« en: 08 Marzo, 2020, 09:34 am »
Yo he pensado que con este teorema explicado por Fernando podría valer, pero no estoy seguro.


Bueno, podría aunque mi respuesta es explícita, aunqueél sabe más que yo, pero si la preguna sigue ahí, será por algo

12
Álgebra Lineal (Espacios Vectoriales) / Re: Sistema libre
« en: 08 Marzo, 2020, 08:38 am »
Sí, es cierto, aunque no tiene interés, un sistema generador puede no ser libre. Si es libre es base, eso sí. En la práctica como solo se usan bases, estoy acostumbrado a trabajar solo con bases y dí por hecho el error.


13
Pues los del link no sé si pueden expresarse mejor. Yo me refiero al hecho de que la notación de Leibniz, aunque Leibniz no lo hiciera, estaba justificado, \( dx \) es un incremento "infinitesimal", naturalmente, no tiene sentido si una variable se está incrementando darle un sentido, salvo al final, en el que juegas con el hecho de que se incrementa pero a su vez es un incremento muy pequeño . Si se mezclan ambas cosas solo dan contradicciones. Naturalmente, los iguales son aproximadamente iguales, pero al poder hacer \( dx  \)tan pequeño como quiera, por muchos pasos (en un número finito, como cualquier demostración matemática), nunca va a generar problemas, solo que el igual es aproximadamente igual, solo que tan aproximado como yo quiera, nunca mejor el error siempre lo puedo mantener, y eso en cualquier conjunto continuo (denso, de hecho), se requiere un continuo porque si no habría derivadas, que son límites, que podrían definirse perfectamente y en los racionales, por ejemplo, no existe. Creo que a estos nivéles dar ejemplos de irracionalidad no viene al caso, todos los sabemos para \( \pi, 2^{0,5} \), etc.... Eso justifica que la notación de Leibniz funcione siempre. Incluso si interesa, como en las derivadas segundas, se pueden meter diferenciales de diferenciales y diferenciales al cuadrado (infiniténsimos de orden 2, o del que haga falta). Lo único que no se puede hacer es dividir por 0. En ANE o cualquier extensión de los reales justifica esto, pero no es necesario recurrir a ello, más que nada, porque seguimos teniendo un "aproximadamente igual" y no un igual estricto, esto último es lo que no sé si Leibniz llegó a ver, pero da igual. Y lo que digo es que en todos los libros matemáticos, aunque los conceptos se introducen usando \( \delta- \epsilon \) notación, nunca se trabaja en esa notación, porque las fórmulas son horrorosas, se mezcla la notación de punto derivada con respecto al tiempo, y coma con respecto a coordenada espacial (tampoco es rigurosa, estás derivando estrictamente una función que es lo único que se puede derivar, no una variable, como hizo Leibniz) y ya está

Resuelve la ecuación del observador armónico con la notación de Newton, y luego se lo cuentas así a los alumnos, vamos a ser serios. NADIE hace eso. Eso es lo que dice el foro que he linkado, lo que digo yo, y lo que hace todo el mundo

Sí, desde luego es trivial la conversión, pero el auemento en la longitud de las fórmulas no lo hace viable
Eso no es original, Dirac  y muchos otros escriotres usaron amnbos métodos,. u so esèramos a subir al finañ va hacerl el cñalculo de la maáma, creo que ya sabría donde empezar

14
Hola

¿Qué usas tú, no en las explicaciones teóricas, sino cuando resuelves integrales y cosas de esas?

¿Qué uso para hacer exactamente qué?. Para resolver una integral uso los métodos usuales: teorema fundamental del cálculo integral, primitivas conocidas, cambio de variable, integración por partes. Todos ellos están basados en resultados sólidamente probados y uno cuando los usa se preocupa...¡obviamente!... de la aplicación práctica de los mismos.

Citar
Porque yo llevo años intentando justificar, creo que la mejor justificación es que en una función diferenciable puede cambiar un valor variable por un valor concreto dentro de la pequeña variación (no hace falta sea pequeña pero ayuda), siempre se puede hacer, y eso lo justifica la diferenciabilidad de la función. Pero si alguien conoce otra regla, porque conmigo fue la que usaron en toda la carrera, por eso se me hace extraño que haya otra


Saludos.

Pues hablo de esto, sí, claro, tú estás usando (la forma de ver las cosas de Leibniz), no es necesario mencionar el cálculo no estándar, vale un continuo, de hecho, vale un simple conjunto denso, aunque nos encontramos con límites que no existen, y por eso ni se estudian funciones racionales https://fuga.naukas.com/2016/03/10/derivadas-con-primas-o-diferenciales/  No sé si se pueden poner los links así pegados, perdonad

15
Ah, creo que ya veo por dónde vas. En cualquier caso, yo creo que es un problema de física. Nunca he visto a matemáticos (ni a estadísticos) preocuparse por estas cosas. No tengo mucha idea, pero intuyo que no se debe saber calcular bien (probablemente ni aproximadamente) ese valor mínimo de la probabilidad.

Lo acabo del calcular, esa una estimación muy burda, pero para valores físicos macroscópicos (sistemas descritos con un número particulas \eq 10^{23] es más que de sobra

Físicamente, aunque es cierto que estrictamente la estadística frecuentista (que se basa en leyes de grandes números y hacer tender el número de elementos de una muestra hacia infinito) no es válida, da una aproximación bastante buena que funciona razonablemente bien en el día a día. La estadística bayesiana no tiene estos problemas pues no basa los resultados en hacer límites, pero tiene otros problemas propios.

16

Corrijo, fue una errata. No, el tiempo y el espacio hasta donde sabemos no hay evidencia de cuantización, hay teorías de cuantización de la gravedad que trabajan sobre ello, como la teoría cuántica de bucles LQG, de Carlo Rovelli, no la de cuerdas, pero aparte yo no soy fan. Aunque estoy es ciencia, no es una cuestión de que seas fan o no de la teoría, es una cuestión de que la teoría de explicaciones de cosas bien que otras teorías no las dan bien



El espacio y el tiempo no son cuantizados, al menos entiendo que  no lo sabemos por ahora, me sorprende leer que la probabilidad  si está cuantizada- Lo que ocurre que habría un valor por debajo del cuál dificilmente podrías hacer un experimento que te permitiera discernir un valor por debajo de una determinada probabilidad, de 25 o 30 ordenes negativos de magnitud, en mis estimaciones más pesimistas, con respecto a una probabilidad 0. No lo quiero llamar cuantización, porque no lo es simplemente un experimento que permitiera tal resolución. Esto ocurre en todas las magnitudes medibles. No olvidemos que en las interpretaciones normales de la cuántica las probabilidades son los modulos de una amplitud de probabilidad, que representa una función de ondas, que es la función que representa un estado del sistema, en el sentido de que hay valores que dan un valor concreto para esos estados, un CCOC, independientemente de que haya otros cuyo valor sea aleatorio al hacer una media sobre el sistema, esto es algo clave en la cuántica. Y esto ocurre en cualquier teoría científica, no es un problema de que lo que midamos sean amplitudes de probabilidad o densidades de probabilidad o estimemos probabilidades de algo. Y en el CCOC, no es que solo los resultados salgan con probabilidad 1, es que no hay ninguna posibilidad de que salga otro resultado, como podría ocurrir en una interpretación más laxa, la definición frecuentista permite cualquier obtener cualquier número finito de resultados con probabilidad 0 en la definición de probabilidad, de hecho, incluso un número infinito "no demasiado frecuente"


17
Bueno, pero entonces, ¿sería un tema de física‽ Porque

creo atañe a todas las ciencias experimentales, no sé, y si la respuesta es distinta serà por el nivel de resolución, no más. No entiendo bien por qué se oculta está respuesta ¿para proteger determinadas disciplinas? En física el cálculo es.triviso, nadie lo ocultamos, y no ha supuesto su fin,, al contrario, sabemos qué cualquier càlxulo físico es incuestionable. ¿Por qué las otras ciencias no hacen lo mismo?

Por ejemplo, en un experimento dicotómico con resultados 0 y 1, que "ocurre" 4 veces en la historia del Universo, 1011 es aleatorio, pero 1010, que clava la frecuencia relativa a la probabilidad no lo es. Evidentemente, la definición de aleatoriedad es simplicísima, se trata de que no se pueda predecir el resultado en base a resultados anteriores, en 1010 es trivial que sí. El problema es que hacer esto con 100000 resultados, y no te digo ya si no son solo 2 resultados posibles, o si tiene sentido realmente dar probabilidades distintas, creo que sí, pero hay que definirlo, si eso es computable.

si el evento sucede 4 veces solamente en la historia del universo,  y 3 veces sale 1 y una sola vez 0 entonces la probabilidad de 1 es 0.75 y la de 0 es 0.25... es decir  0 y 1 no son equiprobables...

Tu puedes pensar que el hecho de lanzar unas moneda , después de los millones de veces que se ha lanzado una , de las que ha quedado registro la tendencia es que  la probabilidad de cara es igual a la de seca... luego p=0.5 de ambas, pero si solo hay 4 eventos . la probabilidad depende directamente de los casos a favor sobre los casos totales



Estás usando las frecuencias relativas como probabilidad, bien, cumplen los axiomas de Kolmogorov, pero son experimentos aleatorios, no tienen ninguna utilidad, y las funciones de estado que representan los estados físicos de los sistemas no se refieren a esas probabilidades. Yo digo que la única forma sensata es que las frecuencias relativas sean tan raras que se provoque una entropía física en el Universo superior a la de un agujero negro, que eso viola las leyes de la termodinámica, y aunque las leyes de la termodinámica no son invariantes bajo inversión temporal, y las leyes cuánticas y clásicas sí, da igual, porque si ocurre un fenómenos donde la entropía disminuye nadie lo recuerda. Es algo filosófico. El problema es que esto te permite descartar unas probabilidades de que para corroborar que una moneda este trucada tendrías que sacar cara como 100 veces seguidas, un poco menos, \( ln 10/ln 2 \). Claro, yo no voy a esperar a ver cerca de 100 caras seguidas para sospechar que una moneda está trucada, tendré que tomar la decisión antes. Solo digo que yo no he encontrado un cálculo más fino en la literatura, sé que esto es física, y estoy escribiendo en una sección de matemáticas, pero la sección de física de este foro está tan denostada, y foros muy rigurosos como los Stack Exchange tienen unas normas absurdas de censura, de si a unos expertos no les gusta tu pregunta, te prohíben preguntar, no defiendo este foro porque sea en español, aunque tampoco deja de de ser un aliciente, pero salvo alguna vez desafortunada por alguien quizá en un mal momento, no he sufrido censura, en el otro foro sí, así que prefiero escribir aquí, incluso podría estar habiendo dar versiones bilingues de las preguntas, si no se ponen rigurosos los moderadores con la censura, creo que hasta podríamos superarlo, Porque los stackexchange, he escrito en física, en matemáticas hay demasiado nivel y no soy experto, no me considero capacitado para escribir, pero obviamente en mi disciplina sí. Y el tema este, a lo mejor ha sido tratado, pero yo jamás he encontrado en bases de datos, y es un tema físico, que los matemáticos no os incumbe, bueno, os puede interesar, yo lo considero un tema crucial. Fiajros que gente como Einstein dedicó los últimos años de su vida a una teoría determinista para evitar entrar en estos temas, cuando el hecho de que ocurra un fenómeno que disminuya la entropía, mientras no deje rastro de información, es perfectamente razonable. Creo que hay un artículo que lo trata, lo que pasa que los valores que se descartan son de los ordenes que estoy dando, no se puede usar en la prácitca para tomar decisiones casi nunca, en mecanica estadística sí, pero no en teoría de juegos ni en economía, ni en medicina, en muy pocas cosas prácticas, aunque sea la mía. Sé que no tengo nivel para manejar ecuaciones en estos niveles, pero es algo importantísimo, a no ser que alguien haga alguna teoría determinista, que me parece que hace como 100 años que se abandonó la idea en física, posiblemente Einstein hizo el último intento, y hasta donde yo sé, no publicñ´ó nada


18
Estás equiparando probabilidades a frecuencias relativas, yo hablo de probabilidades en lo que parece ser lo que se dice "propensiones", que creo que es una noción de Von Mises. En cualquier caso, yo hablo de una probabilidad física, a priori, luego lo que se parezcan o no los resultados, es una discusión que llevamos decadas o cientos de años, pero preguntar a un científico si esa "propensión" o como quieras llamarlo existe, es algo así como preguntar si existe la función de estado para representar a un estado físico (sí, son estados muy peculiares porque hay valores que no tienen un valor fijo, de hecho, la existencia de un CCOC, conjunto completo de observables que conmutan en los estados puros es algo crucial, sin ello se peredería todo el potencial) Lo cierto, es que por mucho que en esos estados haya experimentos que den resultados distintos, hay un conjunto completo de resultados que dan SIEMPRE lo mismo, sin entrar en si la probabilidad es 1, que lo es, del formalismo, no de la de consecuencia matemática, es trivial que puede salir un resultado de probabilidad 0 si no tenemos en cuenta una noción a priori, basta la secuencia trivial 10000000.....y todo lo demás 0´s, evidentemente, sale 1, y evidentemente, con el límite de frecuencias relativas, las respuesta es 0

Los físicos tienen discusiones muy agrias sobre cuánto se puede alejar la frecuencia relativa de la probabilidad ( de hecho, está demostrado que aunque históricamente se consideró, salvo un factor, la desviación típica, sabemos que en realidad es la entropía, de Shannon, que es una definición puramente matemática de una variables aleatoria, aunque relacionada, no implica nada de física) El problema es si admitimos resultados con probabilidad 0 o  no. Insisto, sé que la tesis de Everett y sus universos paralelos no goza de mucha aceptación, entre los físicos tampoco, pero en algunos aspectos, como ése que mencioné, y como ya linke la propia tesis y un arxiv, un poco más adecuado a los formatos actuales, todo va a la entroía de Shannon (salvo constantes) para medir la anchura de una variable aleatoria

19


si el evento sucede 4 veces solamente en la historia del universo,  y 3 veces sale 1 y una sola vez 0 entonces la probabilidad de 1 es 0.75 y la de 0 es 0.25... es decir  0 y 1 no son equiprobables...

[/quote]

No, esto no es verdad




[quote author=Raúl Aparicio Bustillo link=topic=112319.msg444537#msg444537 date=158285998

Y es un tema muy importante, porque esperar a tirar 200 veces una moneda y que salga una sola vez cruz para "sospechar" que puede estar trucada, es exagerado
[/quote]

Y no, claro que no espero una solución matemática al problema, de la misma forma que la constante de la gravitación universal se puede deducir matemáticamente que es una constante universal, pero nunca su valor. Los experimentos para averiguarla ya son de por sí físicos. Y bueno, sobre matemáticas yo no sé, en ciencias experimentales los teoremas te los dan, y nadie pone en duda las demostraciones matemáticas, sin embargo veo que las deducciones físicas son cuestionadas, hablo en general, no me refiero a nadie en concreto, por algún matemático, cuando tienen el mismo valor de verdad, dado que aunque no estén basadas en la razón, si lo están en la experiencia. Todavía hay gente que piensa que no hay modelos de ZFC con ordinales estándar, solo por el hecho de que no son necesarios para demostrar teoremas matemáticos

20
Hola

Creo que más que meter a la gente en bachillerato en versiones de analisis más o menos horteras explicar esto tal cuál es, que no es más que una propìedad de cualquier conjunto denso, es lo mejor. Porque así se ve que las matemáticas van, no se usan las cosas según aquí sí o aquñí no.

Que yo sepa nadie en su sano juicio defiende enseñar Análisis no Estándar ni nada parecido en Bachillerato. De hecho ni creo que se estudie de manera obligatoria en la carrera de matemáticas.

Ahora bien todas las propiedades usuales de la derivada que se enseñan en Bachillerato se pueden demostrar con total rigurosidad y sin mayor complicación usando una notación correcta.

Citar
Los fallos vienen cuando se desprecian cantidades en partes que son necesarias y se hacen 0, y luego no se hacen 0 en otras, si no se falla en eso, el razonamiento siempre funciona.

Los fallos vienen cuando se hacen las cosas mal; y no vienen cuando se hacen bien.

Citar
Que desde luego cualquier matemático con surreales o no estándar puede que llegue a hacer demostraciones mucho más sencillas,


Los matemáticos que usen surreales o análisis no estándar son una minoría. Insisto en que no hace falta nada de eso para una correcta manipulación de la derivada, la diferencia y sus notaciones.

Saludos.

¿Qué usas tú, no en las explicaciones teóricas, sino cuando resuelves integrales y cosas de esas? Porque yo llevo años intentando justificar, creo que la mejor justificación es que en una función diferenciable puede cambiar un valor variable por un valor concreto dentro de la pequeña variación (no hace falta sea pequeña pero ayuda), siempre se puede hacer, y eso lo justifica la diferenciabilidad de la función. Pero si alguien conoce otra regla, porque conmigo fue la que usaron en toda la carrera, por eso se me hace extraño que haya otra

Páginas: [1] 2 3 4 ... 156