Hola otra vez.
Perdón por tardar tanto en responder, no funciono si hay excesiva radiación solar presente
.
Ahora bien, ese Teorema sigue siendo lógicamente válido aún si yo cambio esos símbolos que figuran ahí por otros, con tal de que la estructura lógica sea la misma.
Y eso es así porque las leyes de inferencia lógica son "meramente formales", o sea, se ocupan sólo de la forma de las expresiones, y no de su "contenido".
Si se cambian los símbolos implementados, pero permanecen las nociones a las que se hace referencia, la conclusión será la misma. Si permanecen los mismos símbolos pero éstos hacen referencia a nociones diferentes, entonces no necesariamente la conclusión es la misma. Me parece que no nos estamos entendiendo, y que nos estamos refiriendo a cosas diferentes
. Voy a poner un ejemplo por las dudas; si el/los simbolo/s \( (\#A < \infty) \) representa/n una determinada proposición y \( {\forall{B\subset A}(\# B< \infty)} \) representa la negación de esa proposición, entonces no se puede concluir dicha implicación (o al menos es lo que noto ahora). Por eso es que decía que lo importante no es la simbología en sí, sino a que hace referencia ésta.
La lógica no se preocupa de si se hace referencia a "algo" externo, o con sentido para intuitivo para alguien.
Es mero cálculo, que transforma unas hileras de caracteres en otras. Eso es en definitiva una "demostración", y es algo que una computadora puede hacer, porque se trata de una actividad sistemática, sintáctica, sin significado.
No necesariamente ese "algo" debe ser "externo", basta con que ese algo tenga cualidades distintivas (tal vez imaginarias).
En las computadoras se programa el algoritmo, un algoritmo que se puede demostrar que es válido (lógicamente) como procedimiento para llegar a conclusiones a partir de nociones previas. El punto está que para formular el algoritmo se tienen en cuenta a que hace referencia con cada símbolo que puede ser introducido en el programa que lo ejecutará.
Hay unas expresiones que se forman mediante ciertas reglas sintácticas: algunas expresiones tienen sentido lógico y otras se tiran a la basura (algo como [ \forall{\in{\in{\exists{\supset{xx\emptyset}}}}}] no tiene sentido lógico, son signos puestos al azar).
Sí, totalmente; en un mensaje anterior había mencionado algo semejante, pero me parece que lo hice de forma poco clara. Era cuando me refería a que cierto conjunto de símbolos (que a su vez son un símbolo) o hacen referencia a una noción, o son inutiles.
A este nivel de cosas, no existen valores de verdad de esas proposiciones.
Pero ¿no son los axiomas premisas que se consideran ciertas a priori?
Pero aún así, que sean verdaderas o falsas esas proposiciones, no necesita hacer referencia a noción alguna.
Pero como se establece la verosimilitud de la proposición si no hace referencia a ninguna noción? (será que nos estamos refiriendo a diferentes cosas con el término "noción"?); Por ejemplo ¿se puede decir si **^¨_Ç es verdadera o falsa?
No es lo mismo la definición de "infinito" con una fórmula, que la intuición de infinito.
Pero entonces se está haciendo referencia a diferentes cosas con la misma palabra, y alli reside (al menos uno) de los problemas. Es decir, uno puede interpretar la formula, notar a que se refiere y compararla con la "noción intuitiva" de infinito; si no coinciden, entonces son nociones diferentes, y si son nociones diferentes poco útil es que se las llame de igual forma. Es decir, me parece que se puede trabajar con la formula porque no se está haciendo referencia a esa noción poco definida, sino que se está haciendo referencia a otra, que sí está bien clara.
No entiendo qué quisiste decir con "no-nociones".
Simbología que no hace referencia a algo; por ejemplo averiguar el valor de verdad de \( (P(x)\longrightarrow Q(x)) \longrightarrow |||| \)
Bueno, los entes perceptibles no los percibimos con precisión, y de lo poco que percibimos de ellos, descartamos muchas propiedades o cualidades complejas, y nos quedamos con algunas simples.
Luego las "representamos" matemáticamente, pero eso no es lo mismo que decir que "coinciden".
No me refiero para nada a ningún ente ontologico, sino que puramente lo que percibimos y llamamos entes. Por ejemplo, los colores y los sonidos se pueden trabajar con teoría de conjuntos, siendo que la generalización tratada en dicha teoría incluye a los casos de éstos.
Un tipico modelo de crecimiento de poblaciones es [P(t) = ce^{at}] , siendo a, c, unas constantes.
La población de un país dado podría modelarse con esa fórmula.
Pero supongamos que a = c = 1, para simplificar. En la mayoría de los instantes t, la población P(t) sería un número fraccionario. Por ejemplo, P(t) = 2.71.... si t = 1.
¿Acaso hay 2.71 personas tras t = 1 año?
No puede haber una cantidad fraccionaria de personas.
Claro, no. Alli el problema sería el decir que dicha situación es un caso paticular de la función tratada (la cual generaliza a muchas situaciones); debería decirse que la situación es semejante a uno de los casos particulares de la generalización tratada en la función, o lo que es lo mismo, a la función en sí.
En cuanto a los patrones que un ser humano puede distinguir quizá sean sólo los que "prefiere" distinguir.
Me refiero a que puede haber autolimitaciones psicológicas y culturales que orienten al ser humano a ver unos patrones y no otros.
Más aún si se trata de costumbres, o cosas enseñadas o inculcadas.
Probablemente, pero no dudo que si uno se lo propone, pueda saltear esas limitaciones.
Lo de la "relevancia" que has mencionado no tiene discusión.
Cada aplicación con su teoría...
Me refería a que si necesitamos resolver un problema de índole empirico, recurrimos a la lógica clásica, y no a otra, pues ella es la que nos da resultados "verificables" y útiles (si lo que queremos es resolver el problema).
Claro, eso es lo que hacen, y eso es lo que no logro aceptar.
realmente desconcertante.
Pero ahora yo me pregunto, ya que estamos razonando con la lógica PL (sin permiso de nadie) ¿pòr qué no usamos mejor IL?
¿O por qué no usamos incluso cualquier otra lógica mientras demostramos teoremas acerca de la lógica misma?
Eso sí es puro razonamiento inductivo; cuando queremos resolver un problema, como mencionaba antes, claramente recurrimos a la lógica clasica, y como por lo general nos da resultados "correctos", es decir, verificables de alguna otra forma (además del mismo razonamiento), inducimos que cada vez que tenemos un problema, si aplicamos la lógica clasica de forma efectiva, lo vamos a resolver. Claramente, no tendría por que ser así.
Pero acá de lo que se estaría dudando es de las nociones que se tienen en cuenta en un principio, y como "notar" si son ciertas o no. Es decir, que se están poniendo en duda los axiomas, y eso es un problema en el sentido que al ser axiomas no cabe la posibilidad de una demostración, a menos que la misma sea realizada a partir de otras reglas arbitrarias, es decir, más axiomas
.
Ahora bien, se habla de cardinales como si fueran algo establecido en forma única, sin duda alguna ni ambigüedad.
Pero eso no puede tomarse a la ligera, porque se sabe que hay teorías de conjuntos en los que hay más cardinales o menos que en otras.
Así que la noción de "cardinal" no es clara, es ambigua.
Esto escapa totalmente a mis nociones, pero algo a tener en cuenta (en cualquier tema) es que si son nociones diferentes, poco importa si las llaman iguales, porque se están refiriendo a diferentes cosas; Si yo dentro de mi casa le digo a los "perros", "arboles", y fuera de mi casa le digo "perros", entonces tengo que tener en cuenta (y cualquiera que me escucha) que cuando me meto en mi casa estoy haciendo referencia a algo diferente con la misma palabra, con el mismo símbolo. Pero claro, siempre es preferible que no se llegue a una situación como esa, que solo presta a confusiones.
¿Cómo se los usa impunemente en etapas constructivas de la matemática, si encierran dilemas estructurales y teóricos que no son triviales en lo absoluto?
Creéme cuando digo que comprendo claramente lo inconcebible que probablemente te resulten, como a mi me resultan, que se hagan las cosas de esa forma.
Saludos