Hola. Yo también siento cierta desesperación al notar lo poco solido que se vuelve lo que puedo notar acerca de algo cuando profundizo en él. Más aún en el campo de la matemática, de la cual tengo un preconcepto que se contrapone a situaciones como estas.
Ah, ahora no me siento tan sólo
Estoy completamente de acuerdo con el hecho de que los temas tratados dentro de lo denominado como matemática precisan un previa aceptación de la "lógica", pero discrepo en el que ésta solo se trate de un conjunto de símbolos que no hacen referencia a algo.
Lo que pasa es que yo me "tragué" el cuento del logicismo-formalismo de Russell y Hilbert.
Si nos ponemos en el contexto de los años en torno al 1900, la matemática no tenía una base sólida común, y muchos conceptos estaban dando vueltas, con sus correspondientes ambigûedades y contradicciones o paradojas.
Russell y Hilbert, cada cual a su modo, trataron de eliminar todas esas imprecisiones, y propusieron basar la matemática en la lógica pura, para asegurar precisión en todos los casos.
Por ejemplo, todos los matemáticos tenían en ese entonces una "intuición" de lo que vendría a ser un "
conjunto infinito".
Pero había mucha controversia sobre la "naturaleza real" del infinito.
Había matemáticos que decían que el infinito era pura superchería metafísica, o en el mejor de los casos, que era una noción de dudosa exactitud matemática.
Para enfrentar este tipo de objeciones, Hilbert prefirió "eludir" el problema, y simplemente dejó dicho que "no importa si el infinito realmente tiene sentido o no", o sea, si es producto de la imaginación de alguien, o si existe en el mundo platónico de las ideas, o lo que fuere.
Lo que importa es que mediante símbolos lógicos se puede definir lo que es "ser un conjunto infinito" sin ambigûedad alguna, y sin preocuparse por el "sentido humano" que eso pudiera tener.
Así, el concepto de infinito se puede preservar en la matemática, sin preocuparse por cuestiones intuitivas, metafísicas o filosóficas sobre "lo infinito" en sí mismo.
Pero para eso, hay que relegar al "infinito" al mundo de la imaginación, y en el trabajo concreto de matemáticos, hacer un simple cálculo lógico.
La definición de infinito sería una simple fórmula vacía de significado, como esto:
X es un conjunto infinito si:\( \exists{Y,f}(Y\subsetneq X \wedge f:Y\to X \wedge f(Y)=X) \)
Traduciendo a lenguaje "intuitivo", esa fórmula diría que: X es infinito si existen Y, f, tales que Y es un subconjunto propio de X, y f es una función de Y en X que es sobreyectiva.
Me he salteado muchos formalismos, pero lo que quiero mostrar es el carácter "vacío" de una fórmula fría y sin sentimientos.
Cuando uno demuestra teoremas o define objetos matemáticos, en realidad no hace más que manipulaciones de símbolos.
El "significado" o "sentido" que le damos es accesorio. Es quizá lo que en definitiva enriquece a la matemática y la hace bella.
Después de todo, poner ristras de símbolos sin significado no tiene nada de hermoso, claro está.
Pero no sé hasta dónde lo "bello" o lo "intuitivo" tiene que ver con la verdadera sustancia de la lógica y los fundamentos.
Más aún, lo que critico es que esa frialdad en las fórmulas como la de arriba, no puede aplicarse directamente, sin previo aviso o consideración, a objetos concretos de la realidad.
Los símbolos de la lógica se pueden considerar "objetos concretos de la realidad" (mmm), si los pienso como caracteres escritos en un papel.
Al razonar sobre ellos usando teorías de conjuntos o lógica formal, estoy haciendo una "interpretación" de la lógica formal.
De la misma manera que la fórmula F = m x'' no tiene nada que ver con la física, hasta que alguien "interpreta" que eso es Fuerza = masa por aceleración, respecto al movimiento de una partícula.
La cuestión es que, ante todo, hay que preguntarse si la interpretación de F como "fuerza" y m como "masa", etc., es correcta físicamente. Podría ser que no lo fuera, si pusiera una fórmula distinta.
Lo mismo acontece con el uso de números y cardinales al hablar de símbolos escritos en un papel.
Pero lo grave del asunto es que esos mismos símbolos se usan después para formalizar el concepto de número y de cardinal... y la cabeza me da vueltas.
Creo que en este contexto aceptamos, que el "ser humano" es un animal que posee la capacidad de "manipular las nociones que a priori posee y las adquiridas a través de la experiencia" (me disculpo por el exceso de comillas, sabrán entender) y de esa forma obtener nuevas nociones.
Entonces es de notar que la lógica no es solo un montón de lineas distribuidas de una determinada manera, sino que cada curva, cada símbolo "representa", "hace referencia", etc. a una de esas nociones que tenemos. Por otro lado también sabemos como interpretar símbolos compuestos de otros símbolos (las proposiciones) los cuales hacen referencia a la noción que tenemos de una cierta "situación"; la forma de interpretar éstos símbolos se reduce a la interpretación de los símbolos contenidos y a la "posición relativa" entre ellos. De esa forma, se puede notar que solo son "válidos" cierto conjunto de símbolos, porque hay limitadas y determinadas maneras en las que relacionamos las nociones que tenemos, y los símbolos hacen referencia a dichas nociones.
(notar que las nociones de "posición relativa", "composición" y demás, también son nociones previas, las cuales se manipulan en el uso e interpretación del lenguaje lógico pero no necesariamente se hace referencia a ellas con un símbolo de forma explicita).
Al interpretar símbolos como ciertas entidades matemáticas "ideales", se entra necesariamente en el "platonismo", que presupone que los objetos matemáticas existen realmente en algún lugar, y que la lógica sólo se ocupa de "expresar con un lenguaje limitado hechos de una realidad matemática superior".
Yo no creo en nada que esté "más allá", así que puntos de vista como éste me son duros de digerir.
Tengo que admitir que, aparentemente, todos los matemáticos coincidimos en tener las mismas "intuiciones" de lo infinito, de los objetos geométricos, y otras objetos matemáticos.
Pero mi opinión es que esto se debe a un hecho cultural: todos hemos sido educados para tener esas mismas intuiciones e ideas, y es por eso que parecen universales, que siempre han estado "ahí".
Al pensar en los Botocoudos de Brasil, me pregunto si para ellos serán igual de "obvias" nuestras intuiciones matemáticas, ya sean de la geometría euclidiana, de los infinitos, los números naturales y su caprichosa propiedad de que "siempre hay un siguiente", etc.
Me refiero a que no son intuiciones que la mente humana "capte" de forma natural, como si siempre hubieran estado ahí, sino que son cosas "inculcadas".
Si se deja a los Botocoudos desarrollar su propia lógica o matemática, en unos miles de años podrían sorprendernos con una estructura mental totalmente incompresible para nosotros, pero podrían ellos quizá desarrollar de todos modos una ciencia, aparatos tecnológicos como los nuestros, y hasta incluso mejores todavía.
A mi me parece que "fundamentar la lógica" no tiene mucho sentido, porque cuando se intenta demostrar (por ejemplo) un teorema, es decir, fundamentarlo, se intenta notar que éste es lógicamente válido, por lo que "fundamentar la lógica" sería intentar notar que ésta es lógicamente válida, lo que es trivial.
En realidad hay mucha investigación en lógica y fundamentos.
La cuestión de si tiene sentido o no... yo creo que sí lo tiene.
O sea, el punto de partida es preguntarse: ¿por qué usamos los razonamientos que usamos? ¿Por qué los consideramos correctos? ¿Cómo ha de darse un razonamiento para que sea correcto?
Si no nos preguntáramos estas cosas, caeríamos muy seguido en situaciones erróneas o paradójicas.
Típico ejemplo es la paradoja de Richards:Sabemos que los números naturales tienen la propiedad de que
"todo conjunto no vacío de números naturales tiene un elemento mínimo".Ahora definamos el conjunto X de los números naturales n tal que n "no puede definirse con una frase castellana de menos de cien letras". Claramente ese conjunto es no vacío, ya que la cantidad de números que pueden definirse con menos de cien letras es a lo sumo \( 99^{27} \).
Sea N un tal número. Este N en realidad se puede definir con menos de cien letras, porque es "el mínimo número natural definible con una frase con menos de cien letras", que es una frase que tiene menos de cien letras.
Así que, para evitar ése y muchos otros problemas, hace falta fundamentar la lógica con mucho cuidado, y en particular, ser cuidadoso no sólo sobre el tipo de expresiones que admitimos como "afirmaciones lógicas", sino con el "universo de interpretación" de esas expresiones.
Tal vez, así como se puede demostrar que un teorema es lógicamente válido, se podría demostrar que la lógica es válida con respecto a otra cosa (¿la realidad?), pero no creo que tenga mucho sentido intentar notar si es válida en el sentido usual que se le da al término.
No sé respecto a qué, o en qué sentido se puede hablar de la validez de la lógica.
Pero la cuestión es que los lógicos mismos investigan esto, y hacen aseveraciones muy complejas "en el aire", y "razonan" como si todos estuviéramos de acuerdo en lo que se entiende por "cadena finita de signos", "número natural", entre otras cuestiones.
Claro que ha habido muchos avances, y yo estoy tratando de informarme a ver qué se sabe y que no se sabe al respecto.
Ahora estoy leyendo el libro "Admissibility of Logical Inference Rules" de un tal Rybakov, quien dice que su libro sistematiza y reúne muchos resultados que andan flotando en el mundillo de los lógicos, y explica y define todos los conceptos.
Mas, sigue haciendo las mismas cosas que siempre me ponen nervioso: usa subíndices de números naturales, usa la idea de "numerable", efectúa modelos que son "conjuntos".
A pesar del malestar, aún así lo he de leer, porque seguramente aprenderé bastante de todos modos, y a lo mejor un día pueda criticar estas cosas con más fundamento.
Espero no desencadenar varios mensajes de insultos .
·$&""$%"·$%