Autor Tema: Encajando conceptos básicos con conceptos más avanzados

0 Usuarios y 1 Visitante están viendo este tema.

03 Agosto, 2014, 01:33 pm
Leído 3169 veces

Alejandro Caballero

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 257
  • Karma: +0/-0
  • Sexo: Masculino
Hola, muy buenas y gracias por dedicarme atención.

Mi problema es que yo en primero de carrera estudié un poco (realmente poco) de lógica, lo que pasa es que ahora que estoy intentando aprender a un nivel más elevado, me está costando intentar encajar lo que me enseñaron por encima con lo que leo ahora.

En los libros más avanzados, cogemos una axiomática para el lenguaje lógico y que una regla de inferencia sea cierta depende de que pueda probarse como teorema con la axiomática. Esto lo veo muy razonable y más justificado que lo que me contaron a mí en primero (pero seguro que todo tiene que tener relación, si no me tomaron el pelo).

A nosotros lo único que hicieron es darnos una tabla de verdad para cada conector lógico (de cuantificadores nos hablaron superficialmente y poco hicimos en lógica, pues ya entramos a trabajar con conjuntos sin contarnos que estábamos en ZF o algo similar). A partir de esas tablas nos dieron dos afirmaciones que gastábamos ciegamente como si fueran una suerte de axiomas:

1. Si dos tablas de verdad son iguales, las expresiones a las que van referidas son las mismas (equivalentes).
2. Una regla de inferencia es una expresión del tipo \( \alpha\rightarrow{\beta} \) cuya tabla de verdad es todo unos (tautología), en cuyo caso escribimos \( \alpha\Rightarrow{\beta} \).

A partir de ahí también podíamos probar reglas de inferencia a partir de otras reglas de inferencia. Mis problemas son dos:

El primero, que no veo cómo encajar esto en la axomatización del lenguaje lógico, ni veo por qué 1 o 2 tengan que ser ciertas. Entiendo que esto de las tablas de verdad tiene que ver con el modelo de ese lenguaje, ¿pero esto quiere decir que estas dos afirmaciones son ciertas de forma intuitiva? ¿que esto se escapa a la axiomatización? Estoy perdido con esto.

El segundo: que no he encontrado en ningún libro de lógica la distinción entre el símbolo \( \rightarrow{} \) y el símbolo \( \Rightarrow{} \). Parecía muy útil esa distinción, por ejemplo para enunciar de forma cómoda el modus ponendo ponens:

\( (\alpha\rightarrow\beta)\wedge \alpha \Rightarrow{\beta}, \)

Porque si yo veo

\( (\alpha\rightarrow\beta)\wedge \alpha \rightarrow{\beta}, \)

no veo ninguna diferencia entre los símbolos y no entiendo por qué debo entender que hay una inferencia. También he vivido mucho tiempo pensando que cuando los matemáticos usan \( \Rightarrow{} \) era un caso particular de \( \rightarrow{} \), pero no algo equivalente, aún cuando algunos profesores los emplean indistintamente. Ahora no sé si me equivocaba.

Es cierto que en las inferencias, en libros más avanzados emplean un signo totalmente diferente, pero a la hora de trabajar en tablas utilizan el condicional, indistintamente.

Siento si no sé explicar mi problema demasiado bien, porque como no entiendo bien las cosas, no sé exactamente cuál es.

¡Un saludo y muchas gracias!

03 Agosto, 2014, 02:47 pm
Respuesta #1

Carlos Ivorra

  • Administrador
  • Mensajes: 9,707
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
    • Página web personal
En los libros más avanzados, cogemos una axiomática para el lenguaje lógico y que una regla de inferencia sea cierta depende de que pueda probarse como teorema con la axiomática. Esto lo veo muy razonable y más justificado que lo que me contaron a mí en primero (pero seguro que todo tiene que tener relación, si no me tomaron el pelo).

No te tomaron el pelo, aunque esas introducciones a la lógica que suelen explicar por ahí me suelen poner nervioso. Mi opinión es que sólo sirven para confundir a la gente, aunque lo que digan sea correcto desde un punto de vista estrictamente lógico.

El primero, que no veo cómo encajar esto en la axomatización del lenguaje lógico, ni veo por qué 1 o 2 tengan que ser ciertas. Entiendo que esto de las tablas de verdad tiene que ver con el modelo de ese lenguaje, ¿pero esto quiere decir que estas dos afirmaciones son ciertas de forma intuitiva? ¿que esto se escapa a la axiomatización? Estoy perdido con esto.

Tus dudas están flotando en el problema de relacionar la sintaxis con la semántica. Si nos restringimos al cálculo proposicional, es decir, sin cuantificadores, que es lo que estás considerando aquí, por un lado podemos definir un lenguaje formal formado por variables proposicionales \( p, q, r, \ldots \) y conectores lógicos \( \lnot, \land, \lor, \rightarrow, \leftrightarrow \). Con estos signos (y tal vez paréntesis, aunque se puede prescindir de ellos con cierta astucia) puedes formar fórmulas respetando ciertas reglas sintácticas que se pueden dar explícitamente. Por ejemplo, \( p\rightarrow (p\lor q) \) es una fórmula, mientras que \( \rightarrow pq\lor \) no lo es.

Una vez definidas las fórmulas, puedes estudiarlas semánticamente asignando a cada fórmula una tabla de verdad. Por ejemplo, si consideras la fórmula \( p\rightarrow (p\land q) \), su tabla de verdad tiene cuatro entradas, y, por ejemplo, la correspondiente a \( (1,0) \) tiene salida \( 0 \).

Esto significa que si p es verdadera y q es falsa, entonces la fórmula es falsa por definición. Pero ahora hay que tener en cuenta un hecho fundamental, y es que esta definición no es arbitraria. También podríamos haber definido la construcción de tablas de verdad de otro modo para que resultara verdadera, pero eso no sería "lógico". ¿En qué sentido podemos decir que la construcción de las tablas de verdad, aunque es una definición, no es una definición arbitraria, que podría sustituirse por otra distinta?

Tú vienes a preguntar si la construcción de las tablas de verdad es "intuitivamente verdadera". Aquí tengo que introducir un breve paréntesis filosófico, es decir, algo sobre lo que otros podrían opinar de forma distinta:

Creo que es importante distinguir entre intuición y razón. Son cosas distintas. Saber razonar es saber pasar de unas afirmaciones a otras cumpliendo siempre el requisito de no aceptar ningún paso que pueda llevar de unas premisas verdaderas a una conclusión falsa. Si alguien cree que de "todos los hombres son mortales" y "los perros no son hombres" puede concluir que "los perros no son mortales", es que no sabe razonar, y eso no tiene nada que ver con la intuición.

La intuición es una capacidad de representación que nos permite afirmar ciertas cosas sin necesidad de razonarlas. Por ejemplo, uno puede razonar que un cubo tiene ocho vértices sin más que imaginarse un cubo y contar sus vértices, y eso no es un razonamiento, porque no estás pasando de unas afirmaciones a otras: simplemente miras el cubo y cuentas: uno, dos, tres, cuatro, cinco, seis, siete y ocho, y no razonas por qué paras en ocho. Simplemente ves que al llegar a ocho ya has contado todos los vértices y no quedan más.

Pero la razón no tiene nada que ver con eso. Cuando alguien se empeña en que la lógica tiene que fundarse en la intuición acaba convertido en un intuicionista, y eso le lleva a renegar de ciertos principios lógicos, como el tercio excluso.

Igual que tenemos una capacidad de intuir, que nos permite saber cuántos vértices tiene un cubo sin necesidad de razonar (sin perjuicio de que podamos dar una definición formal (no intuitiva) de cubo y a partir de ella razonar cuántos vértices tiene), también tenemos una capacidad de razonar, y la lógica formal trata de "capturar" esa capacidad. No se trata de definir arbitrariamente qué es un razonamiento correcto, sino dar una definición formal que se corresponda con lo que hacemos en la práctica cuando razonamos.

Del mismo modo que hay muchas geometrías, pero tú sabes distinguir cuál describe tu intuición geométrica y cuáles no, también podrías definir muchas lógicas raras, pero sólo una se corresponde con nuestro uso de la razón.

De este modo, las tablas de verdad se construyen para que cuando dices que \( p\rightarrow (p\land q) \) es falsa cuando p es verdadera y q es falsa, estás diciendo que, en efecto, nunca darías por válido un razonamiento que partiendo de p afirmara \( p\land q \) sin más información.

En particular, cuando una tabla de verdad de  una fórmula \( \alpha\rightarrow \beta \) da todo unos (donde \( \alpha \) y \( \beta \) no son variables, sino fórmulas) eso significa que siempre que \( \alpha \) sea verdadera, también lo será \( \beta \), y por eso en cualquier razonamiento será correcto pasar a \( \beta \) si se tiene \( \alpha \).

No es que 1) y 2) sean intuitivamente verdaderas, sino que son racionalmente verdaderas. Es algo que aceptará todo ser dotado de uso de razón (salvo que sea intuicionista y no acepte guiarse por su razón, sino que exija que su intuición avale sus razonamientos, pero no me preguntes por qué habría que exigir eso, que no lo sé).

En resumen, hasta aquí tenemos que es posible asignar una tabla de verdad a cada fórmula, que nos dice en qué casos la fórmula será verdadera en función de la verdad o falsedad de sus variables, y que cualquier ser racional (que no sea víctima de filosofías que apantallen su uso de razón, es decir, que le lleven a no aceptar razonamientos que sabe hacer, pero que por principios filosóficos considera inválidos) reconocerá que lo que has definido como una regla de inferencia realmente garantiza que sólo permite pasar de afirmaciones verdaderas a afirmaciones verdaderas, por lo que es válido usarla como regla de paso en un razonamiento.

La segunda parte de tu pregunta es qué tiene que ver esto con la axiomatización de la lógica. La relación se llama teorema de completitud y afirma que si eliges adecuadamente ciertos axiomas y ciertas reglas de inferencia, por ejemplo, te sirven estos axiomas:

\( \alpha\rightarrow (\beta\rightarrow \alpha) \)

\( (\alpha\rightarrow (\beta\rightarrow\gamma))\rightarrow ((\alpha\rightarrow \beta)\rightarrow (\alpha\rightarrow\gamma)) \)

\( (\lnot\alpha\rightarrow \lnot\beta)\rightarrow (\beta\rightarrow\alpha) \)

y como regla de inferencia el modus ponens, entonces:

1) Todos los axiomas son tautologías.

2) Todo lo que puedas deducir a partir de esos axiomas mediante aplicaciones sucesivas del modus ponens son tautologías.

3) Toda tautología puede ser deducida a partir de esos axiomas mediante aplicaciones sucesivas del modus ponens.

En realidad, el teorema de completitud es más interesante para el caso de la lógica de primer orden (con cuantificadores) que para el cálculo proposicional.

El segundo: que no he encontrado en ningún libro de lógica la distinción entre el símbolo \( \rightarrow{} \) y el símbolo \( \Rightarrow{} \). Parecía muy útil esa distinción, por ejemplo para enunciar de forma cómoda el modus ponendo ponens:

\( (\alpha\rightarrow\beta)\wedge \alpha \Rightarrow{\beta}, \)

Porque si yo veo

\( (\alpha\rightarrow\beta)\wedge \alpha \rightarrow{\beta}, \)

no veo ninguna diferencia entre los símbolos y no entiendo por qué debo entender que hay una inferencia.

En efecto, si confundes reglas de inferencia con axiomas acabarías con los quebraderos de cabeza que la tortuga dio a Aquiles:

http://www.librosmaravillosos.com/eljuegodelalogica/loquelatortugadijoaaquiles.html

Pero la forma usual de representar las reglas de inferencia en lógica es

\( p\lor q,\lnot p\vdash q \),

que es más útil, sobre todo cuando tienes un conjunto infinito de premisas y no puedes formar la conjunción de todas ellas.

También he vivido mucho tiempo pensando que cuando los matemáticos usan \( \Rightarrow{} \) era un caso particular de \( \rightarrow{} \), pero no algo equivalente, aún cuando algunos profesores los emplean indistintamente. Ahora no sé si me equivocaba.

Distinguir entre \( \rightarrow \) y \( \Rightarrow \) es una de esas antiguallas que siguen contando con fruición los diseñadores de cursos introductorios de lógica que no tienen mucha visión de adónde deberían encaminarse sus introducciones. Otra cosa es el uso de \( \Rightarrow \) en el cálculo secuencial de Gentzen, pero eso es harina de otro costal.

Ciertamente, hay una distinción relevante que has citado, pero la forma usual de expresarla hoy en día es con el signo \( \vdash \), que supongo que es el signo al que te refieres aquí:

Es cierto que en las inferencias, en libros más avanzados emplean un signo totalmente diferente, pero a la hora de trabajar en tablas utilizan el condicional, indistintamente.

A la hora de trabajar con tablas no hay necesidad de hacer distinciones. Lo que hay que distinguir es un axioma (que es una fórmula) de una regla de inferencia (que es una regla para pasar de unas fórmulas a otras) en el cálculo deductivo.

Tal vez esto te pueda ayudar:

http://rinconmatematico.com/foros/index.php?topic=66204.msg265781

03 Agosto, 2014, 04:06 pm
Respuesta #2

Alejandro Caballero

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 257
  • Karma: +0/-0
  • Sexo: Masculino
¡Muchas gracias por la respuesta! A ver si logro aclararme, ¿las tablas de verdad son entonces un modo de "capturar el razonamiento" que hacemos con cada conector, pero no son un modo formal de deducir nada? Si yo quiero formalmente deducir algo, ¿debo remitirme a los axiomas, de otro modo es una manera "informal" de llegar a la conclusión?

Es que en dicho curso nosotros trabajábamos con las tablas de cada conector, luego en las fórmulas, íbamos en el sentido de prioridad de los símbolos y aplicábamos directamente dichas tablas, de manera que a partir de las 5 tablas dadas, ibas trabajando de forma "precisa" sin "razonar de cabeza". Es como si aquí la axiomática fueran las tablas iniciales que ya venían dadas.

Sin embargo, con la axiomática del lenguaje, yo no necesito saber entre comillas, la tabla de verdad de cada expresión, mientras pueda probarla a partir de los axiomas será verdadera...

Lo de \( \Rightarrow{} \), puede parecer una tontería, pero ciertamente es lo que más confundido me tiene, porque en ese curso era algo muy importante. Yo he entendido el tema de las reglas de inferencia, del modo en que viene expuesto en los libros de lógica y en ese sentido entiendo y comparto lo que tú me explicas... De hecho, recientemente he empezado a leer tu libro de lógica matemática y la exposición me ha resultado muy clara. Lo que no soy es capaz de dar el paso de ahí, a lo que veo de forma habitual en las pizarras.

Por un lado, a nosotros nos dijeron que una regla de inferencia era una fórmula que enlazaba dos fórmulas con un condicional y que era una tautología, osea como si fuera un caso particular de teorema. Entiendo que esto no acaba de corresponderse con lo que yo estudié en primero, pero...

Por ejemplo, probábamos el modus ponens como regla de inferencia (o lo mismo para cualquier otra) si al remplazar el signo \( \vdash \) (efectivamente, me refería a ese) por el del condicional \( \rightarrow \), la expresión obtenida era una tautología. ¿Existe semejante relación entre reglas de inferencia y axiomas, sin caer en paradojas?

Y al mismo tiempo, los matemáticos (lo que decía de las pizarras) suelen usar frecuéntemente el signo \( \Longrightarrow{} \) para indicar el paso de una afirmación a otra, como sinónimo de la palabra "entonces", (cosa que parece corresponderse con las formas de demostrar teoremas que he estudiado recientemente en lógica, que se parecen más a las reglas de inferencia).

Desde ese punto de vista, si yo una demostración la convierto en una cosa del estilo de:

\( \mathbb{H}\implies \alpha_1 \implies \alpha_2 \implies ... \implies \alpha_n \implies \mathbb{T}, \)

Spoiler
Por ejemplo

\( f: \ ]a,b[\subseteq \mathbb{R} \mbox{ derivable en } x_0\in ]a,b[ \implies \left(\lim_{h\to 0} f(x+h_0)-f(x_0)\right)= \lim_{h\to 0}\left(\frac{ f(x+h_0)-f(x_0)}{h}\cdot h\right)=\lim_{h\to 0}\frac{ f(x+h_0)-f(x_0)}{h}\cdot \lim_{h\to 0}h= f'(x_0)\cdot 0 \implies f \mbox{ cont\'inua en } x_0   \)

Donde

\( \mathbb{H} \equiv f: \ ]a,b[\subseteq \mathbb{R} \mbox{ derivable en } x_0; \)

\( \alpha_1 \equiv \left(\lim_{h\to 0} f(x+h_0)-f(x_0)\right)= \lim_{h\to 0}\left(\frac{ f(x+h_0)-f(x_0)}{h}\cdot h\right)=\lim_{h\to 0}\frac{ f(x+h_0)-f(x_0)}{h}\cdot \lim_{h\to 0}h= f'(x_0)\cdot 0; \)

\( \mathbb{T} \equiv  f \mbox{ cont\'inua en } x_0; \)

y, efectivamente \( n=1 \).
[cerrar]

donde con \( \mathbb{H} \) designo a la hipótesis de un teorema y con \( \mathbb{T} \) designo a la tesis, y cambio implicadores por condicionales ¡parece que mi demostración sea una única fórmula lógica!

\( \mathbb{H}\rightarrow \alpha_1 \rightarrow \alpha_2 \rightarrow ... \rightarrow \alpha_n \rightarrow \mathbb{T}, \)

Entiendo que mi exposición es muy confusa, pero mi problema no es que no entienda como se hacen realmente las cosas en lógica, es que no acabo de saber "atar" las ideas que me habían metido en la cabeza, con las nuevas ideas, que parecen sutilmente diferentes.

¿Realmente hay formalidad lógica en esta suerte de expresiones? ¿O los matemáticos pecan de usar muchos condicionales y cuantificadores, donde no hace al caso nada de eso?

Parece que hubiera una distinción clara entre "condicional" y "implicador".

EDITO: Adjunto los apuntes de primero (algo muy breve), aunque están en valenciano, por si puede ilustrar un poco lo que intento explicar.

P.D.: Ciértamente, si ignoro lo recién aprendido, y me ciño a lo que me han enseñado en la carrera, tengo los mismos problemas que le plantea la tortuga a Aquiles... Y este fue uno de los motivos que me movió a estudiar lógica, aún cuando yo no sabía nada de dicha tortuga todavía.

03 Agosto, 2014, 04:50 pm
Respuesta #3

Carlos Ivorra

  • Administrador
  • Mensajes: 9,707
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
    • Página web personal
¡Muchas gracias por la respuesta! A ver si logro aclararme, ¿las tablas de verdad son entonces un modo de "capturar el razonamiento" que hacemos con cada conector, pero no son un modo formal de deducir nada? Si yo quiero formalmente deducir algo, ¿debo remitirme a los axiomas, de otro modo es una manera "informal" de llegar a la conclusión?

En primer lugar, te vas a volver loco si tratas de comparar lo que hacen tus profesores en la pizarra con lo que te han enseñado en un curso de lógica proposicional, porque lo que subyace a lo que hacen tus profesores en la pizarra no es la lógica proposicional, sino la lógica de primer orden (con cuantificadores), y lo de añadir cuantificadores no es un mero retoque a la lógica proposicional, sino una extensión nada trivial. Es como si intentaras entender un curso de variable compleja a partir de unos apuntes sobre los axiomas de Peano.

Podría intentar relacionarte lo que hacen tus profesores con lo que te contaron en tu curso de lógica proposicional, pero sería algo artificial y nada instructivo. Por ejemplo, las tablas de verdad no sirven para justificar la validez de un razonamiento que involucra cuantificadores. Y si quieres estudiar lo necesario para justificar dicha validez, incluso podrías prescindir por completo de las tablas de verdad sin perder nada importante.

Creo que lo más práctico para ti sería que te olvidaras de tu curso de lógica, porque te va a liar más que otra cosa, y te esforzaras por entender la lógica de primer orden que hay detrás de las demostraciones que ves en las pizarras, y cuando hayas entendido la lógica de primer orden, podrás volver sobre tu curso de lógica y entender que era una "lógica de juguete", cuya relación con la lógica "de verdad" no te costará entender, pero que ayuda en tanto a entender la lógica de verdad como aprender a ir en bicicleta ayuda a aprender a conducir.

Es que en dicho curso nosotros trabajábamos con las tablas de cada conector, luego en las fórmulas, íbamos en el sentido de prioridad de los símbolos y aplicábamos directamente dichas tablas, de manera que a partir de las 5 tablas dadas, ibas trabajando de forma "precisa" sin "razonar de cabeza". Es como si aquí la axiomática fueran las tablas iniciales que ya venían dadas.

Sí, pero con esa clase de técnicas nunca podrás justificar los razonamientos de tus profesores. No son lo suficientemente potentes.

Sin embargo, con la axiomática del lenguaje, yo no necesito saber entre comillas, la tabla de verdad de cada expresión, mientras pueda probarla a partir de los axiomas será verdadera...

¿De qué te sirve una tabla de verdad para demostrar que \( \forall xy\in \mathbb N(x+y=y+x) \)? No hay forma de usarlas para eso. Es como si te dan un coche y preguntas dónde tiene los pedales.

Lo de \( \Rightarrow{} \), puede parecer una tontería, pero ciertamente es lo que más confundido me tiene, porque en ese curso era algo muy importante.

Los pedales también son muy importantes para montar en bicicleta, pero no te ayudan en nada a conducir un coche.

Yo he entendido el tema de las reglas de inferencia, del modo en que viene expuesto en los libros de lógica y en ese sentido entiendo y comparto lo que tú me explicas... De hecho, recientemente he empezado a leer tu libro de lógica matemática y la exposición me ha resultado muy clara. Lo que no soy es capaz de dar el paso de ahí, a lo que veo de forma habitual en las pizarras.

Si ahora hablas de mi libro de lógica y no de tu curso de lógica, entonces el salto de la lógica formal tal y como está contada ahí a lo que ves en las pizarras ya es mucho más fácil de dar.

Por un lado, a nosotros nos dijeron que una regla de inferencia era una fórmula que enlazaba dos fórmulas con un condicional y que era una tautología, osea como si fuera un caso particular de teorema. Entiendo que esto no acaba de corresponderse con lo que yo estudié en primero, pero...

Por ejemplo, una regla de inferencia que tus profesores usan implícitamente una y otra vez es que \( \forall x \alpha(x)\vdash \alpha(t) \), donde \( t \) es cualquier término del lenguaje formal. Eso no tiene nada que ver con tablas de verdad o tautologías. Mientras trates de buscar una justificación por ahí, te volverás loco. Es imposible.

Por ejemplo, probábamos el modus ponens como regla de inferencia (o lo mismo para cualquier otra)

No. Para cualquier otra no. Para la que yo te he citado no puedes razonar así.

si al remplazar el signo \( \vdash \) (efectivamente, me refería a ese) por el del condicional \( \rightarrow \), la expresión obtenida era una tautología. ¿Existe semejante relación entre reglas de inferencia y axiomas, sin caer en paradojas?

No, y no es porque puedas caer en paradojas, sino porque no tiene sentido decir que

\( \forall x \alpha(x)\rightarrow \alpha(t) \)

sea una tautología. No puedes construir una tabla de verdad para una fórmula así, aunque consideres un caso concreto para \( \alpha(x) \). Mira por ejemplo:


\( \forall x \forall y(x\in A\land y\in A\rightarrow x=y)\rightarrow \forall y(0\in A\land y\in A\rightarrow 0=y) \)

¿Es eso una tautología? Es que no tiene sentido siquiera planteárselo. No es una fórmula del cálculo proposicional. Contiene relatores y cuantificadores, y ahí no se puede hablar de tautologías. El concepto "de verdad" análogo al concepto "de juguete" de tautología es el de fórmula lógicamente válida, que no puede definirse en términos de tablas de verdad, sino en términos de modelos.

Y al mismo tiempo, los matemáticos (lo que decía de las pizarras) suelen usar frecuéntemente el signo \( \Longrightarrow{} \) para indicar el paso de una afirmación a otra, como sinónimo de la palabra "entonces", (cosa que parece corresponderse con las formas de demostrar teoremas que he estudiado recientemente en lógica, que se parecen más a las reglas de inferencia).

Desde ese punto de vista, si yo una demostración la convierto en una cosa del estilo de:

\( \mathbb{H}\implies \alpha_1 \implies \alpha_2 \implies ... \implies \alpha_n \implies \mathbb{T}, \)

donde con \( \mathbb{H} \) designo a la tesis de un teorema y con \( \mathbb{T} \) designo a la tesis, y cambio implicadores por condicionales ¡parece que mi demostración sea una única fórmula lógica!

\( \mathbb{H}\rightarrow \alpha_1 \rightarrow \alpha_2 \rightarrow ... \rightarrow \alpha_n \rightarrow \mathbb{T}, \)

En principio, una demostración es una sucesión finita de afirmaciones. No necesitas escribir nada entre ellas. Si en las demostraciones de tus profesores borras todos los \( \Rightarrow \) y te limitas a escribir una afirmación debajo de otra tienes algo equivalente, pero escrito de forma más acorde a como se trabaja teóricamente con las demostraciones. El análogo usual en lógica a esas \( \Rightarrow \) no es \( \rightarrow \) ni \( \vdash \), sino un simple cambio de línea.

Entiendo que mi exposición es muy confusa, pero mi problema no es que no entienda como se hacen realmente las cosas en lógica, es que no acabo de saber "atar" las ideas que me habían metido en la cabeza, con las nuevas ideas, que parecen sutilmente diferentes.

Insisto. Lo mejor que puedes hacer con las ideas que te habían metido en la cabeza es un lavado de cerebro. Y eso suele valer para todos los cursos de introducción a la lógica que veo por ahí. Con eso no estoy diciendo que lo que te hayan dicho sea falso ni que no estés en condiciones de entenderlo, sino que el camino más natural para familiarizarse con la lógica "de verdad" que usan los matemáticos es olvidarse de todo curso de introducción a la lógica, estudiar la lógica "de verdad", y luego, si quieres desclavarte la espinita de no entender por qué demonios te contaron todo aquello, puedes volver sobre ello y verás que sólo era una versión simplificada de la lógica de verdad, una versión demasiado débil como para servirte de ayuda y, al mismo tiempo, demasiado parecida como para desconcertarte al compararlas.

¿Realmente hay formalidad lógica en esta suerte de expresiones? ¿O los matemáticos pecan de usar muchos condicionales y cuantificadores, donde no hace al caso nada de eso?

Aquí hay una cuestión muy delicada. En cierto sentido podría decirte que los matemáticos no son rigurosos, y en ese cierto sentido tendría razón, pero en un sentido mucho más razonable sería una pedantería por mi parte.

La lógica de primer orden no sirve para trabajar en la práctica. Si quisieras demostrar un teorema siguiendo paso a paso los criterios de corrección de la lógica de primer orden, y sin saltarte ningún paso, el razonamiento más elemental te ocuparía varias páginas, y quedaría tan enmarañado que nadie lo entendería salvo tras horas de reflexión.

Pero es que una exposición matemática no puede ni debe ser rigurosa en el sentido de cumplir con todos los convenios lógicos que puedes encontrar en un curso teórico de la teoría de la demostración. El criterio de rigor no es respetar todos los detalles, sino que lo que digas sea formalizable, es decir, que quede claro que uno, armado con toda la paciencia del mundo, podría convertir cualquier razonamiento "de pizarra" en una demostración "de libro de lógica" (pero no de "curso de introducción a la lógica"). Y entonces, da igual que uno ponga flechas gordas, delgadas o que cambie de línea. Lo que importa es que la estructura de la demostración quede clara. ¿De verdad ganas algo cambiando flechas gordas por cambios de línea?

Mira por ejemplo este mensaje:

http://rinconmatematico.com/foros/index.php?topic=66204.msg267410#msg267410

En él comparo una demostración próxima a lo que sería una demostración "de pizarra" con lo que sería su forma "de libro" equivalente. Se trata de la prueba de que la divisibilidad es transitiva.

Tienes más ejemplos en el mensaje

http://rinconmatematico.com/foros/index.php?topic=66204.msg267649#msg267649

al final, donde dice "ejemplos de deducciones con cuantificadores", en spoilers.

Mira también este mensaje:

http://rinconmatematico.com/foros/index.php?topic=66204.msg269369#msg269369

EDITO: Adjunto los apuntes de primero (algo muy breve), aunque están en valenciano, por si puede ilustrar un poco lo que intento explicar.

Has escrito esto después de que yo empezara a contestar. He respondido sin haber visto tus apuntes. Ahora los miro.

Edito Ya los he mirado. No voy a añadir nada a lo dicho. Estos cursos me ponen, muy, muy nervioso.

03 Agosto, 2014, 05:06 pm
Respuesta #4

Alejandro Caballero

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 257
  • Karma: +0/-0
  • Sexo: Masculino
¡Muchas gracias! Yo entiendo que no puedes trabajar con tablas de verdad con cuantificadores, la primera demostración que me has enlazado está en tu libro y entiendo, más o menos bien como se procede para hacer demostraciones.

El problema es que en esos apuntes que he colgado intentan hacer una conversión del signo \( \rightarrow{} \) en el signo \( \Longrightarrow{} \) y luego por lo visto en la realidad no tiene nada que ver con esto, sino que usas los axiomas, y los teoremas que tienes y ya está.

Lo que me desconcierta es eso, que para algunas personas, cuando pones un implicador en realidad estás poniendo un condicional y yo entiendo que son afirmaciones a parte, por eso me planteaba hasta que punto ese signo es un condicional, o solo un convenio extraño.

Por lo visto de algún modo nos han mezclado un poco conectores lógicos, con "lenguaje castellano" queriéndolo meter todo en el mismo saco en algunos contextos.

Lo de los cuantificadores no me lo planteo, porque como no me lo explicaron de forma extraña, pues ahora no tengo un "desfase mental" con ellos.


03 Agosto, 2014, 05:23 pm
Respuesta #5

Carlos Ivorra

  • Administrador
  • Mensajes: 9,707
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
    • Página web personal
El problema es que en esos apuntes que he colgado intentan hacer una conversión del signo \( \rightarrow{} \) en el signo \( \Longrightarrow{} \) y luego por lo visto en la realidad no tiene nada que ver con esto, sino que usas los axiomas, y los teoremas que tienes y ya está.

No me tires de la lengua, pero huye de esos apuntes. Hazme caso.

Quiero desarrollar una idea que he expuesto antes y no sé si ha quedado clara. En otro hilo recomendaste el libro de Stromberg como modelo de libro riguroso sobre análisis matemático. Coincido totalmente en que es un libro de rigor impecable. Ahora ábrelo y dime cuántos signos lógicos ves en él: ¿cuántas veces ves los signos \( \Rightarrow \), \( \rightarrow \) (no valen las flechas que se usan para indicar convergencia, que no tienen nada que ver), \( \forall \), \( \exists \), etc.?

Así a ojo diría que la respuesta es ¡ninguna vez!, y lo mismo vale para cualquier otro libro riguroso que encuentres publicado en una editorial seria, salvo los que tratan de lógica y teoría de conjuntos, y sólo en contextos muy concretos.

En cualquier manual de estilo de lenguaje matemático leerás que es de mal gusto usar signos lógicos cuando escribes matemáticas, salvo en las contadas ocasiones en las que son necesarios o, alguna que otra vez, meramente convenientes.

Las matemáticas rigurosas se exponen sin flechas de ninguna clase. Otra cosa es que en una pizarra pueda ser útil echar mano de ciertas abreviaturas taquigráficas, pero las flechas que ves por ahí no son más que eso: pura taquigrafía.

Y cada cual puede tener su estilo taquigráfico, y no tiene por qué rendir cuentas a nadie de si aquí pone una flecha o cambia de línea. Sólo es taquigrafía y lo que importa es que se entienda la lógica subyacente. Pero si quieres contarlo con elegancia, quita todas las flechas y usa el castellano bien usado (o cualquier otra lengua, claro).

Una demostración matemática puede exponerse a varios niveles:

a) en buen castellano (u otra lengua)

b) en castellano con signos taquigráficos auxiliares

c) totalmente formalizada en un lenguaje formal.

Lo tercero sería para morirse, y por ello en la práctica una demostración no se presenta siguiendo los convenios de un lenguaje formal, sino en castellano, procurando que la lógica subyacente quede lo más clara posible, de modo que cualquiera pueda formalizar el argumento hasta el grado que se considere necesario para que no haya duda de su corrección formal.

No debes marearte tratando de entender cómo concibe cada uno de tus profesores cada flecha que ponen. Puedes encontrarte con que un día ponen una flecha doble cuando otro ponen una simple cuando otro no ponen nada, pero eso no es ninguna crítica seria hacia su competencia como matemáticos, porque lo que importa es que las ideas queden bien reflejadas y sean rigurosas. Probablemente, cuando tus profesores escriben libros o artículos de investigación, siguen los convenios usuales y no usan flechas para nada, por lo que para ellos sólo son una forma de escribir más rápido en la pizarra, o de mostrar más claramente el flujo del razonamiento que están contando, y para ello no están obligados a ceñirse a ninguna serie de normas lógicas.

La finalidad de la lógica formal no es proporcionar una escritura conveniente para las matemáticas, sino definir qué es un razonamiento válido (un razonamiento formalizable en una determinada teoría axiomática), razonar que la definición es razonable, valga la redundancia, y estudiar las posibilidades del razonamiento matemático, para lo cual lo fundamental es que todo razonamiento se puede formalizar en una teoría axiomática, que no es lo mismo que presentar cada razonamiento formalizado hasta su ininteligibilidad completa.


Lo que me desconcierta es eso, que para algunas personas, cuando pones un implicador en realidad estás poniendo un condicional y yo entiendo que son afirmaciones a parte, por eso me planteaba hasta que punto ese signo es un condicional, o solo un convenio extraño.

Por lo visto de algún modo nos han mezclado un poco conectores lógicos, con "lenguaje castellano" queriéndolo meter todo en el mismo saco en algunos contextos.

Lo de los cuantificadores no me lo planteo, porque como no me lo explicaron de forma extraña, pues ahora no tengo un "desfase mental" con ellos.



03 Agosto, 2014, 05:31 pm
Respuesta #6

Alejandro Caballero

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 257
  • Karma: +0/-0
  • Sexo: Masculino
Edito Ya los he mirado. No voy a añadir nada a lo dicho. Estos cursos me ponen, muy, muy nervioso.

Si supieras la cantidad de gente en la carrera que está confundida por esas afirmaciones de los apuntes acerca de que un condicional, cuando es tautología, se le llama implicador y que luego el implicador lo gasten en clase en todas partes, te pondrías más nervioso seguro.

La mayoría, supongo aprovechan ese significado intuitivo de "si... entonces" y lo usan para abreviar. Pero como a nosotros nos habían dado un significado supuestamente preciso de ese símbolo, pues más de uno tenemos un pequeño follón con eso. Muy posiblemente, pensándolo bien, si a la gente que lo usa en la pizarra les contáramos sobre esa asignatura, fruncirían el ceño y dirían que no lo ponen por eso.

Ahora creo que ya lo he entendido del todo...

Aunque, amén de esta confusión con dicho signo, creo que puede ser muy útil utilizar cuantificadores y lenguaje lógico cuando trabajamos en contextos bastante topológicos o más enrevesados, para mejorar la comprensión y escribir cosas más precisas, ¿no?

03 Agosto, 2014, 05:37 pm
Respuesta #7

Carlos Ivorra

  • Administrador
  • Mensajes: 9,707
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
    • Página web personal
Aunque, amén de esta confusión con dicho signo, creo que puede ser muy útil utilizar cuantificadores y lenguaje lógico cuando trabajamos en contextos bastante topológicos o más enrevesados, para mejorar la comprensión y escribir cosas más precisas, ¿no?

Como te digo, eso contradice todas las normas de estilo en matemáticas. Puede hacerse, sin duda, pero los matemáticos profesionales no usan cuantificadores cuando escriben (salvo en contextos muy concretos). Es verdad que en ocasiones pueden ser útiles, como para diferenciar la continuidad de la continuidad uniforme en un espacio métrico, por ejemplo, pero también es verdad que las lenguas naturales son totalmente precisas cuando se usan bien, al menos en contextos matemáticos, y la lógica formal no se echa de menos. Otra cosa es que, teóricamente, un texto matemático escrito en castellano conviene entenderlo como una paráfrasis de una demostración en una teoría axiomática (ZFC, por ejemplo).

03 Agosto, 2014, 05:50 pm
Respuesta #8

Alejandro Caballero

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 257
  • Karma: +0/-0
  • Sexo: Masculino
Muchas gracias por toda la paciencia que has tenido conmigo en estos temas, creo que ahora con los prejuicios que tenía rotos, estoy en disposición de entender las cosas mejor. Voy a revisar toda la primera parte de tu libro nuevamente. ¡Un saludo!

04 Agosto, 2014, 10:54 pm
Respuesta #9

Cristian C

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 482
  • Karma: +0/-0
  • Sexo: Masculino
No sé si podrá servirte, pero para transitar el terreno de la lógica sin marearme mucho con la polisemia existente, a mí me ha servido realizar dos distinciones diferentes:

.Primera distinción  (entre semántica y sintaxis):
En su nivel más básico, la lógica trata con afirmaciones, donde una afirmación (o proposición) es una idea de la que tiene sentido plantearse si es verdadera o falsa. De modo que, ante todo, una afirmación es una idea, un elemento del pensamiento.
Ahora bien, los elementos del pensamiento son invisibles para los demás. La herramienta que tenemos para hacerlos visibles es el lenguaje (natural o formal, no importa ahora). El objeto lingüístico que utilizamos para hacer visible una afirmación es la sentencia (o enunciado).
Es crítico entonces realizar una primera distinción entre afirmaciones y sentencias ya que las primeras son elementos del pensamiento y las segundas son cadenas de signos, dos cosas radicalmente diferentes. Para expresar la relación entre ambas, podemos decir que las sentencias designan afirmaciones.
En la práctica, afirmaciones y sentencias aparecen juntas y por eso es necesario hacer un esfuerzo para desamalgamar ambos mundos.

En el texto que adjuntas, esa diferencia crucial no se especifica.

. Segunda distinción (el orden)
Una afirmación puede estar formada por otras que se unen por disyunción, conjunción u otros conectores cuya idea es clara y evidente para nosotros. Pero una afirmación simple, que no está compuesta por otras, tiene también estructura interna. La lógica proposicional (o de orden 0) estudia las afirmaciones sin atender esa estructura interna; solo se estudian allí las operaciones entre afirmaciones.
La estructura interna de una afirmación simple, que no está compuesta por otras, es decididamente sencilla; solo tiene dos elementos diferentes: el o los objetos de los que se habla y lo que se dice o predica de ellos. Por ejemplo: “6 es múltiplo de 3” habla del 6 y del 3, y dice de ellos que el primero es múltiplo del segundo.
Cuando nos permitimos reemplazar los objetos por variables, tenemos lógica de primer orden. Si nos permitimos, además, reemplazar los predicados por variables, tenemos lógica de segundo orden (asumo conocido el significado de “variable”, independientemente del elemento que reemplace)
La lógica de primer orden es la que se utiliza usualmente en matemática. Allí, los objetos pueden reemplazarse por variables, lo que abre la posibilidad de cuantificarlas. Es fácil ver que la estructura lógica resultante es mucho más rica que la que permite la simple lógica proposicional.
Respecto a la lógica de segundo orden, no estoy familiarizado como para entrar en detalles.

El texto que adjuntas salta de lógica proposicional a lógica de primer orden sin hacer la menor referencia de que ha saltado un abismo.

Una nota final para este resumen de resúmenes: En mi opinión, tanto los objetos como las afirmaciones son elementos que pueden  “vivir” como ideas puras, sin representación en algún lenguaje. En cambio, los esquemas de afirmación, donde tenemos variables sin cuantificar, como “x es múltiplo de 3” son muy difíciles de conceptualizar sin un lenguaje. Quiero decir, aunque no esté tratando de transmitirle la idea a alguien, solo para concebir yo mismo el significado de “x es múltiplo de 3” será mucho más claro para mí escribir la forma correspondiente.
Mi primer gran deslumbramiento matemático consistió en comprender que puede demostrarse que existen infinitos de diferente tamaño.
El segundo fue comprender que lo anterior, aun pese a ser correcto, carece de todo significado.