Mostrar Mensajes

Esta sección te permite ver todos los posts escritos por este usuario. Ten en cuenta que sólo puedes ver los posts escritos en zonas a las que tienes acceso en este momento.

Mensajes - gdl

Páginas: [1]
1
Problemas y Desafíos / Re: La caja envenenada
« en: 19 Diciembre, 2013, 09:37 pm »
PD:  Como cada preso sea ha tomado 500 tragos va a ser necesario un médico para poder diferenciar los muertos de los borrachos.

Lo que me he reído con esto.

2
Echadle un vistazo al concepto de tensor. Generaliza escalares, vectores y matrices.

3
Creo que no hace falta L'Hopital. Basta usar las propiedades de los coeficientes binomiales. En concreto esa que dice:

\( \displaystyle\binom{n+1}{m}=\displaystyle\binom{n}{m} + \displaystyle\binom{n}{m-1} \).

En el paso de inducción, usaría la hipótesis de inducción en la definición de derivada:

\( D^{n+1}f(x)=\displaystyle\lim_{h\to{0}\0}\dfrac{D^{n}f(x+h)-D^{n}f(x)}{h} \)
\( =
\displaystyle\lim_{h\to{0}\0}
\dfrac{
\displaystyle\lim_{h \to{0}\0} h^{-n} \displaystyle\sum_{m=0}^n{(-1)^{m}}\displaystyle\binom{n}{m}f(x+(n+1-m)h)
-
\displaystyle\lim_{h \to{0}\0} h^{-n} \displaystyle\sum_{m=0}^n{(-1)^{m}}\displaystyle\binom{n}{m}f(x+(n-m)h)
}{h} \)

Tanto la resta como el producto son continuos por lo que podemos sacar los límites.

\( \displaystyle\lim_{h\to{0}\0}
h^{-n-1}\left\{ \displaystyle\sum_{m=0}^n{(-1)^{m}}\displaystyle\binom{n}{m}f(x+(n+1-m)h)
-
\displaystyle\sum_{m=0}^n{(-1)^{m}}\displaystyle\binom{n}{m}f(x+(n-m)h) \right\} \)

Ahora empiezan los juegos con los coeficientes binomiales. En el primer sumatorio podemos añadir un término \( n+1 \) ya que \( \binom{n}{n+1} \) podemos tomarlo por convenio como cero (luego veremos que el convenio es correcto). En el segundo sumatorio hago un cambio de variables \( m=v-1 \).

\( \displaystyle\lim_{h\to{0}\0}
h^{-n-1}\left\{ \displaystyle\sum_{m=0}^{n+1}{(-1)^{m}}\displaystyle\binom{n}{m}f(x+(n+1-m)h)
-
\displaystyle\sum_{v=1}^{n+1}{(-1)^{v-1}}\displaystyle\binom{n}{v-1}f(x+(n-(v-1))h) \right\} \)

En el segundo sumatorio cambio el límite inferior desde \( v=0 \) con el convenio de que \( \binom{n}{-1}=0 \).

\( \displaystyle\lim_{h\to{0}\0}
h^{-n-1}\left\{ \displaystyle\sum_{m=0}^{n+1}{(-1)^{m}}\displaystyle\binom{n}{m}f(x+(n+1-m)h)
+
\displaystyle\sum_{v=0}^{n+1}{(-1)^v}}\displaystyle\binom{n}{v-1}f(x+(n+1-v)h) \right\} \)

Ahora podemos agrupar ambos sumatorios en uno ya que los límites son iguales.

\( \displaystyle\lim_{h\to{0}\0}
h^{-n-1} \displaystyle\sum_{m=0}^{n+1}{(-1)^{m}}\displaystyle\left\{\binom{n}{m}+\binom{n}{m-1}\right\}f(x+(n+1-m)h) \)

Ahora aplicamos la propiedad de arriba. Esta propiedad sólo se puede usar cuando \( n>0 \) y \( m>1 \) por lo que en los extremos no se aplica. Hemos de usar las ecuaciones

\( \displaystyle\binom{n}{0}=\displaystyle\binom{n}{n}=1 \)

Justamente estas ecuaciones son las que se obtienen con los convenios que hemos elegido ya que

\( \displaystyle\binom{n+1}{n+1}=\displaystyle\binom{n}{n+1} + \displaystyle\binom{n}{n}=0+1=1 \)
\( \displaystyle\binom{n+1}{0}=\displaystyle\binom{n}{0} + \displaystyle\binom{n}{-1}=1+0=1 \)

Así que llegamos a la expresión del paso de inducción que es lo que estábamos buscando.

\( D^{n+1}f(x)=\displaystyle\lim_{h\to{0}\0}
h^{-(n+1)} \displaystyle\sum_{m=0}^{n+1}{(-1)^{m}}\binom{n+1}{m}f(x+((n+1)-m)h) \)

Si no me he equivocado, claro.

4
Álgebra / Re: Números complejos
« en: 12 Abril, 2013, 09:46 am »
Yo lo haría de otra forma.

Elevaría al cubo la ecuación.

\( \left(\cos{x}\right)^3=\left(\frac{1}{2}\right)^3 \)

Sustituyo la definición de coseno.

\( \frac{1}{8}\left(e^{ix}+e^{-ix}\right)^3=\frac{1}{8} \)

Desarrollando se llega a

\( e^{3ix}+e^{-3ix}+3e^{ix}+3e^{-ix}=1 \)

Deshaciendo la definición de coseno

\( 2\cos{3x}+6\cos{x}=1 \)

Como sabemos que \( \cos{x}=\frac{1}{2} \) al final lo que tenemos es

\( 2\cos{3x}+3=1 \)
\( 2\cos{3x}=-2 \)
\( \cos{3x}=-1=\cos(\pi+2\pi k) \)

Y de ahí:

\( 3x=\pm\pi+2\pi k \)
\( x=(2k\pm 1)\frac{\pi}{3} \)

Al haber elevado al cubo podemos haber introducido soluciones incorrectas, por lo que tenemos que comprobar que lo que hemos obtenido es cierto. Lo primero que voy a hacer es buscar el periodo \( 2\pi \) de las soluciones.

\( x_1=\frac{\pi}{3}+2\pi k \)
\( x_2=\pi+2\pi k \)
\( x_3=\frac{5\pi}{3}+2\pi k=-\frac{\pi}{3}+2\pi k \)

La solución \( x_2 \) no es correcta ya que \( \cos(x_2)=-1 \). Sólo nos quedan las soluciones \( x_1 \) y \( x_3 \).

5
El primer ejercicio parece ser \(  \tan\left({\displaystyle\frac{1}{i}\log{\sqrt{\displaystyle\frac{1+iz}{1-iz}}}}\right) \) y, si no tienes en cuenta las ramas de la raíz, el resultado parece ser \( z \).
En el segundo sólo te falta multiplicar arriba y abajo por el complejo conjugado.

6
Comentarios / Re: Comentarios a Lógica de primer orden
« en: 23 Marzo, 2013, 08:17 pm »
Todas las lógicas que citas (y todas las que se me ocurren) se pueden formalizar en la teoría de conjuntos. La teoría de conjuntos se formaliza con lógica de primer orden (con igualdad). Este hecho da a la lógica de primer orden una posición asimétrica respecto a las otras, a menos que me digas que las otras también sirven para fundar una teoría a partir de la cual se puedan construir todas las demás. Yo no conozco el caso. ¿Lo conoces tú? ¿Como rebates esta asimetría para justificar que la "lógica de primer orden es una lógica como cualquier otra"?

Quiero decir: la lógica de primer órden permite fundar una teoría (ZFC) dentro de la cual pueden construirse todas las demás lógicas ¿vale esto mismo para las demás lógicas?

Hola, Cristian C. He querido responderte antes, pero me ha sido imposible. Como ya he comentado, voy a responderte aquí y, si surge una conversación que pueda ensuciar el hilo, migraríamos a otro en el subforo de lógica.

La teoría de conjuntos se puede formalizar en cualquier lógica que sea suficientemente expresiva. La lógica de primer orden con igualdad es una de ellas y quizás no sea ni la más adecuada para eso. Por ejemplo, en la lógica de segundo orden, la teoría de ZFC tiene menos axiomas ya que algunos axiomas se pueden deducir de los otros. ¿Significa eso que esos axiomas extra son únicamente necesarios porque estamos trabajando en la lógica de primer orden con igualdad?

De hecho, es famosa una cita de Quine "la lógica de segundo orden es la teoría de conjuntos vestida de oveja" que indica cual adaptada está la lógica de segundo orden a la teoría de conjuntos, incluso implicando que son dos aspectos lo mismo.

Ojo. La cita de Quine es despectiva en el sentido de que la lógica de segundo orden tiene los mismos problemas (supongo que de completitud) que la teoría de conjuntos. Puedes buscar más en Google sobre este tema con la cita original "set theory in sheep's clothing" y la cita modificada "set theory in disguise". De hecho, Quine decía que la lógica de segundo orden no era lógica por ese mismo motivo.

Expuesto todo esto, queda por ver (y en esta cuestión no me meto ya que carezco de los conocimientos) cómo formalizar la lógica sin teoría de conjuntos. En todos mis estudios siempre he usado conjuntos para formalizar la lógica. Sin embargo, por lo que veo aquí y en otros sitios, se formaliza la lógica sin presuponer los conjuntos. Supongo que se puede hacer, pero personalmente me surgen muchas dudas sobre las propiedades de los "universos", "colecciones" y demás nombres que se usan en vez de "conjunto": ¿Podemos hablar del universo de todos los universos? ¿Se pueden definir por comprensión sin restricciones? ¿Existe la colección de colecciones que no son miembros de ellas mismas? Etc.


7
Prueba a hacer \( b=ka \). Este cambio no se puede hacer si \( a \) es cero. Comprueba que si \( a \) es cero se cumple la inecuación.

Si no me he equivocado, al final se reduce todo a \( 0\le (k-1)^2 (k^2+k+1) \). Debido a que el primer factor está al cuadrado, siempre será positivo y basta ver que \( 0\le k^2+k+1 \). Si sabes que un polinomio de grado dos es una parábola, verás con facilidad que el vértice está en \( k=-\frac{1}{2} \) y el mínimo que se alcanza en el mismo es \( \frac{3}{4} \) (que es mayor que cero).

Siento no tener tiempo para dejarlo todo más detallado. Espero que sea fácil rellenar los huecos.

8
Comentarios / Re: Comentarios a Lógica de primer orden
« en: 18 Marzo, 2013, 11:51 pm »
Yo veo que gdl viene con inquietudes interesantes y con ganas de conversar sobre las distintas lógicas y temas relacionados.
Por otra parte, se mezcla eso con una discusión sobre el artículo de Carlos y sobre qué es más apropiado o no en el modo de exponerlo.

gdl: Por un lado este hilo no se refiere a "otras lógicas", y además visiblemente Carlos no está interesado en discutir esas "otras lógicas". No sería éste un lugar apropiado para extenderse demasiado sobre eso.

A mí me interesan todas las lógicas alternativas, toda la discusión en torno a los fundamentos de la matemática, y problemas relacionados, pero es muy poco lo que podría aportar en un debate de ese tipo.
No sé si hay mucha gente hoy día en el foro con ganas de entrar profundamente en esos temas,
pero podrías hacer el intento de abrir un hilo en el foro de Lógica.

Tengo poco tiempo, pero no quería dejar pasar la oportunidad para decirte que tienes toda la razón. Creo que las posturas tanto de Carlos como la mía han quedado claras y continuar solo servirá para ensuciar el hilo. Ciertamente estoy deseoso de abrir ese hilo de otras lógicas, aunque, por educación, me gustaría responder (cuando pueda) la pregunta de Cristian C en este mismo hilo.

En cuanto a la discusión de cuál método es mejor para exponer la Lógica de 1er orden,
por un lado me asusta que el tono suba y se convierta en agresión.  :o

Quiero aclarar que, de ningún modo, mi intención ha sido subir el tono de la discusión. Bien es verdad que estaba y estoy apremiado por el tiempo por lo que mis respuestas podrían ser menos educadas de lo debido. Tengo que dejar claro que no me gusta criticar los trabajos de las personas que hacen algo que yo no hago. En este caso, escribir un artículo. Todo lo contrario, quisiera mostrar mi admiración por Carlos y la labor que hace. Precisamente por eso me duele no poder transmitirle mis ideas con la claridad y el convencimiento que requerirían.

Pero por otra parte la discusión misma me parece interesante, y me da la sensación de que Carlos está peleando contra una forma de hacer las cosas que, según él, causa en general más confusión que claridad.

Completamente de acuerdo. Es más, creo que entramos en el terreno de las opiniones personales. Estas opiniones no surgen de la nada. Están fundamentadas en el conocimiento y la experiencia. Creo que tanto la experiencia como el conocimiento de Carlos, por su trabajo, debe ser mucho mayor que los míos. Por otra parte, es posible que mi experiencia haya sido distinta, que mi conocimiento tenga otro enfoque y confrontar las ideas creo que ha sido provechoso hasta el punto en el cual han quedado claras.

Siento no poder seguir contestándote. Voy a ver rápidamente si aún tengo soltura con los polinomios y a dormir.

9
Comentarios / Re: Comentarios a Lógica de primer orden
« en: 18 Marzo, 2013, 12:33 am »
Esto es un aspecto muy sutil y me cuesta expresarme sin miedo a que se malinterprete lo que digo
...
En muchas ocasiones, la forma más "clara e impecable" de presentar un resultado o una teoría, oculta al mismo tiempo información relevante para entenderla cabalmente.

Creo que no hay peligro de malinterpretación, pero la forma de presentarlo influye en cómo el estudiante entiende el conocimiento. Es posible que este sea uno de los casos a los que te refieres de ocultar información... al menos hasta que encajan las piezas. Sin embargo, no ocultarla también causa tantos otros problemas como el de mezclar sintaxis y semántica.

... Lo único que digo es que algunas de esas cosas quedan inevitablemente disimuladas con las exposiciones usuales.

Hay que sopesar si una exposición no usual introduce nuevas dificultades al entendimiento. En este caso (y quizás por provenir de un entorno ortodoxo) creo que se introducen esas dificultades como ya he explicado. No voy a seguir hablando sobre este punto ya que cada uno sopesa los pros y los contras de manera distinta.

Ahí está la clave en el "y que usamos". Es que la lógica que usamos no me parece insulsa y tediosa. Al contrario, su estudio me parece fascinante. Pero ¿usamos realmente lenguajes con gramáticas arbitrarias, necesitamos para algo modelos de teorías extrañas, o lógicas distintas de la que realmente usamos, etc.?
...

Se usan. Por ejemplo, el demostrador automático Coq usa una lógica llamada Cálculo de Construcciones Inductivas.

¿Qué me aporta a mí saber qué se puede decir sobre lenguajes en general si lo único que necesito es manejar lenguajes de primer orden en particular? Hay muchas ocasiones en matemáticas en las que una visión general aporta luz sobre un caso particular, pero ¿es éste uno de esos casos? Yo creo que no. Yo creo que en este contexto el caso general sólo aporta información absolutamente inútil para el caso particular de interés.

No creo que sea información inútil cuando estructura el discurso, da nombre a las partes y demás ventajas que he mencionado antes. De nuevo, tenemos disparidad de criterios en este punto.

Bien, pues he aquí un ejemplo de lo que entiendo por una concepción errónea de la lógica. La sintaxis NO es arbitraria. Obviamente, si por arbitraria quieres decir que hay muchas alternativas raras, esto es cierto, pero digo que no es arbitraria porque NO es cierto que si se elige la que se elige frente a las demás no es de forma arbitraria, por capricho, o ni siquiera por una cuestión histórica. Y precisamente el presentar una teoría general de lenguajes formales con sintaxis arbitrarias fomenta la concepción (errónea a mi juicio) de que la lógica de primer orden es una de tantas lógicas posibles elegida caprichosamente o por cuestiones culturales.

Bueno. Realmente, la lógica de primer orden es una lógica como otra cualquiera. Tienes la lógica proposicional, la lógica de segundo orden, de orden superior, lógicas modales, temporales, dinámicas, etc. Si se elige la de primer orden es porque hay un compromiso entre su simplicidad y su potencia. Algo que es un consenso cultural e histórico. Probablemente, si se hubiera descubierto antes, ahora estaríamos hablando del cálculo de construcciones y no de la lógica clásica de primer orden.

Mi planteamiento es diferente: los seres humanos tenemos capacidad de razonar. Y no hay distintas formas de razonar (en el sentido de que unas lleven a unas conclusiones y otras lleven a otras)... pero la lógica (la lógica de verdad, no la lógica generalizada de los lógicos, en la que cualquier cosa rara puede ser un lenguaje digno de estudio) consiste en determinar qué consecuencias de unas premisas dadas podemos asegurar que serán verdaderas si tenemos la seguridad de que las premisas son verdaderas.

Esto es la lógica .... Otra cosa es que para realizar este programa, se empleen ciertas técnicas, consistentes en definir lenguajes formales susceptibles de formalizar las afirmaciones posibles de las que pretendemos extraer consecuencias lógicas, y que esas técnicas sean susceptibles de ser generalizadas para estudiar otros lenguajes formales que nada tienen que ver con nuestro propósito de formalizar la razón (la capacidad de extraer consecuencias necesariamente verdaderas de premisas verdaderas). ¿Es razonable seguir llamando "lógica" a este uso generalizado de las técnicas que en principio son útiles para desarrollar el programa de formalizar el razonamiento? No digo que no, pero si lo hacemos, debemos evitar caer en los juegos de palabras: si un libro de lógica presenta la lógica como el estudio de cualquier cosa que se pueda llamar "lenguaje formal" está ocultando a sus lectores que dentro de esa arbitrariedad hay una parte especial que no es arbitraria, sino que es la adecuada para formalizar el razonamiento lógico "de verdad".

Como ya comenté en una respuesta anterior, algunas de las lógicas que obtenemos son triviales o inconsistentes. En cualquier caso, inútiles. Eso no quita que sí existan otras lógicas como las que he enumerado anteriormente que sí respetan el razonamiento humano "la lógica" en mayúsculas. En definitiva, no todo el razonamiento humano acaba en la lógica de primer orden.

Debido a esto es meritorio buscar estructuras comunes en estas lógicas formales y destacarlas como partes orgánicas de cualquiera de ellas. Incluida la lógica de primer orden elegida en el artículo. Por sólo eso merece definir ordenadamente lenguaje formal, sintaxis, semántica, deducción, etc. ya que destacamos esas partes orgánicas comunes a todas las lógicas que aproximan "la lógica" del razonamiento humano.

Me parece "tramposo" tomar una exposición cuyo objeto (legítimo) es realizar el programa de formalizar el razonamiento en el sentido que acabo de indicar, generalizarla, y después decir: "tu forma de exponer no es adecuada porque no es suficientemente general ni es la adecuada para que se aprecie esa generalidad". La pregunta es ¿Qué objeto tiene esa generalidad? ¿Qué se gana con ella?
...
Pues eso son ejemplos de preguntas que tendrá claro alguien a quien le hayan presentado la lógica como el proyecto de formalizar el razonamiento, entendido este como la extracción de conclusiones necesariamente verdaderas a partir de premisas que sabemos o suponemos verdaderas, y que no sabrá responder alguien a quien le hayan dicho que la lógica es el estudio de una serie de lenguajes arbitrarios y reglas de inferencia arbitrarias.

No es "simplemente otra lógica" ... de modo que la particular no es "simplemente una más", se está perdiendo algo gordo, a mi juicio.

No es que se tome una lógica destacada (como la de primer orden) y se generalice. Más bien es que, según restrinjamos el tipo de razonamientos que queremos formalizar, obtenemos un tipo de lógica u otro.

Te propongo un razonamiento que probablemente hayas tenido:

El microondas no funciona.
Por tanto, el microondas está roto.

Ahora te propongo otro razonamiento con más información:

El microondas no funciona.
El televisor no funciona.
El ordenador no funciona.
Las luces no funcionan.
Por tanto, se han ido los fusibles.

Este tipo de razonamientos no monótonos son muy difícil de formalizar. Desde luego, no es posible formalizar con la lógica de primer orden, pero existe en la razón humana. Esa es la causa por la que se buscan lógicas que capturen ese y otros tipos de razonamientos que la lógica clásica no consigue capturar.

Exactamente, y ahí está la explicación de por qué los lenguajes formales que yo estoy introduciendo son los que realmente valen para su fin, y que todos los demás son artificios matemáticos ... Salvo que tú me puedas dar alguna utilidad en seguir el otro enfoque generalista. A mí no se me ocurre ninguna.

Ya te he dado algunas, comprendo que puedas no compartirlas.

Creo que ese razonamiento es capcioso. Es como si alguien quiere aprender geometría y consideras que, por enseñarle geometría y no álgebra y análisis...

Bueno, no saquemos las cosas de contexto. El álgebra y el análisis no son parte constituyente de la geometría (hablando de geometría en el sentido clásico de regla y compás, si hablamos de geometría diferencial la cosa cambia). Los lenguajes formales son parte constituyente de la lógica.

Creo que tus conocimientos de lógica son más que suficientes como para que no necesites mi libro para nada. Sólo quería decirte que yo también sé separar la sintaxis de la semántica.

Es que no se trata de introducir la semática antes, es decir, dedicar un capítulo a la semántica y luego otro a la sintaxis, sino de introducirlas a la vez (de modo que presentas la parte semántica de cada concepto antes que su parte sintáctica, pero después que la parte sintáctica del concepto anterior.

Aquí puede que me salga del aspecto filosófico y entre en el aspecto didáctico cuando digo que, si bien para alguien que sepa la distinción puede estar clara, para un estudiante el mezclar ambas creo que puede ser contraproducente. De nuevo, es una valoración subjetiva.

No lo veo dual. En el segundo caso dices que la sintaxis no es arbitraria, pero el que te escucha tiene que aceptar a ciegas varias convenciones sin que le proporciones su justificación hasta mucho después...

Las convenciones se pueden (y se suelen) justificar antes o durante, sin introducir la semántica hasta después.

Una de las malinterpretaciones que me llaman la atención es la que se da cuando veo a alguien preguntar "¿si tengo \( \alpha\rightarrow \beta \) y \( \lnot \beta \) puedo deducir \( \lnot \alpha \)? ¿Y si es así por qué?

Quien pregunta esto, probablemente (no tiene por qué ser así) no tiene claro que "puedo deducir" tiene dos sentidos distintos, el sintáctico y el semántico...
Quienes han aprendido la lógica sin semántica...
Presentar primero la semántica me va a poner en condiciones (espero)...

No he hablado en ningún momento de no introducir la semántica. Ni de introducir primero la deducción sintáctica (yo he llamado semántica operativa) y luego justificarla con la deducción semántica (que yo he llamado semántica denotacional). Si he dicho algo que te haya hecho pensar en ese sentido, disculpa mi poca capacidad comunicativa.


Discrepo completamente, aunque a la vez soy consciente de que discrepo por un problema de lenguaje. Me refiero a que usas la palabra "intuición" en un sentido que es el más extendido...

Podemos usar la palabra "idea preconcebida" si te parece bien. Lo que subyace es que la mente es falible y el sistema formal no puede ser inconsistente si queremos que sea útil.

Aclarado esto, no veo qué queda de sustancia en tu argumento de que es mejor presentar primero la sintaxis y luego la semántica para que el alumno se pueda formar concepciones erróneas y luego se sorprenda al darse cuenta... No le veo la ventaja.

El estudiante no debería formarse concepciones erróneas, pero si lo hace, existe un mecanismo de corrección.

Estoy totalmente de acuerdo con tu filosofía al respecto, pero no considero que sea aplicable al caso que nos ocupa. Yo he estudiado muchas matemáticas muy variadas, y jamás he tenido necesidad de usar el concepto de semigrupo...

Aquí estoy seguro de que sabes mucho más que yo. Así a bote pronto se me ocurre que la composición de funciones (con mismo dominio que codominio) es un semigrupo. Bien es cierto que el espacio de funciones del que se trate suele contener la función identidad (o se le añade y se convierte en monoide).

Pero, incluso al margen de los objetivos que me he planteado, ¿puedes ponerme un ejemplo concreto de alguna situación en tu vida en la que hayas tenido ocasión de aprovechar que en su día estudiaste lógica sin igualdad? ...

Estoy viciado por mi formación, pero ciertamente se usa. Un mecanismo de demostración automática de la satisfacibilidad de formulas de la lógica clásica de primer orden es el llamado resolución. Este mecanismo es Turing completo y se puede expresar con fórmulas de la lógica clásica de primer orden cualquier computación. No hace falta la igualdad. A partir de esto se definen sistemas de consulta basados en formulas lógicas que se ejecutan en, por ejemplo, bases de datos.

¿Por ejemplo? No sé a qué resultados bastante interesantes te referirás, pero para que te concediera que es mejor el enfoque abstracto tendrían que ser resultados que, conociéndolos, uno estuviera en condiciones de entender mejor el caso que interesa...

Por ejemplo, haciendo un análisis de la cardinalidad de los lenguajes se puede llegar a la conclusión de que son a lo sumo numerables. Cualquier lógica construida con ellos sólo podrá hacer referencia a un subconjunto numerable del universo que usemos para la semántica. Más que nada porque no tiene términos para referenciarlos a todos individualmente. Es decir, que aunque tengamos un universo no numerable, podemos ignorarlo y trabajar con un universo numerable. Concretamente, en la lógica de primer orden es el universo de Herbrand.

No, si, por "tontos" quería decir "tontamente abstractos". Me refiero a cosas como "encontrar una definición recursiva de un lenguaje cuyas palabras son éstas"...

Bueno, parecen ser ejercicios para coger soltura. Otra cosa es que cada uno tenga ya cierta práctica con las matemáticas y no necesite esos ejercicios.

Yo estudié teoría de categorías en cuarto curso de carrera. No le vi utilidad alguna y no me interesó lo más mínimo...

Cuidado. Hardy decía que le encantaba la teoría de números porque no tenía ninguna utilidad y luego apareció la criptografía de clave pública. Nunca se sabe.

Es que creo que la paleta es una falsa paleta...

Ya hemos hablado de esto y comprendo tu enfoque. Como ya he dicho antes, otra cosa es que introduzca dificultades.

Sobre esto habría mucho que matizar. No sé si te entiendo bien. Pareces hablar de los objetos matemáticos como si fueran algo que está ahí, dado, de modo que puedes decir con toda naturalidad "interpetamos este lenguaje tomando como universo el conjunto de los números reales". No creo que algo así tenga sentido si no es en el contexto de una teoría formal previa que nos permita hablar de números reales. O te malinterpreto, o hablas de esto con demasiada ligereza.

Quizás he abusado del sarcasmo en este párrafo. Estoy completamente de acuerdo contigo en que no es trivial hablar de objetos matemáticos sin una formalización detrás.

No, si lo que me confundía no es que dijeras "operacional", sino que dijeras "semántica". Una regla como el modus ponens (de \( \alpha\rightarrow \beta \) y \( \alpha \) se deduce \( \beta \)) no tiene nada de semántico. La versión semántica sería "si \( \alpha\rightarrow \beta \) y \( \alpha \) son verdaderas en un modelo, entonces \( \beta \) también lo es"...

Pues por eso, son transformaciones sintácticas, no semánticas. Pero luego vuelves a calificarlas de semántica. No logro ver coherencia en lo que dices.

Culpa mía. Tengo cierta deformación en el sentido de verlo todo como un lenguaje de programación. Una forma de dar significado a un lenguaje formal es especificando transformaciones sintácticas sobre él. De forma muy parecida a como la deducción sintáctica trabaja. Intentaré que no me bailen los nombres para mantener una nomenclatura rigurosa.

¿Ves? En esto que dices veo los efectos de alguien que se ha acostumbrado a admitir la sintaxis acríticamente como algo arbitrario, como una elección arbitraria en una paleta y que, en consecuencia, ha asimilado ese conformismo y se conforma con cualquier cosa...

Esto no es cierto. Sé que las transformaciones sintácticas están respaldadas por una semántica y en ningún caso he dicho que no se tenga que estudiar. A grandes rasgos el orden sería: la sintaxis (sin transformaciones de ningún tipo), luego la semántica, luego la deducción semántica y finalmente la deducción sintáctica.

Aunque ahora te hago una pregunta. Supón que tenemos esa deducción sintáctica. ¿Existe más de una semántica que permita que sea correcta y completa o sólo existe una?

Y para poder demostrar todo esto, para poder recibir esta enseñanza que la lógica pone a nuestra disposición, lo primero que tienes que aprender es que tu planteamiento es totalmente erróneo, que no puedes permitirte el lujo de tratar sólo con signos, prescindir de la semántica y sólo estudiar la semántica luego, cuando tengas la teoría de conjuntos a tu disposición, porque sucede que todo esto que te digo puede demostrarse, pero puede demostrarse estudiando la semántica del lenguaje formal que necesitas para definir la teoría de conjuntos, y asegurándote de que puedes hacerlo sin apoyarte en ninguna teoría de conjuntos, lo cual, aunque posible, no es trivial en absoluto, pues requiere meditar bastante sobre hasta dónde puede llegar nuestro conocimiento descansando únicamente en la razon (no formalizada) y en la intuición (como fuente de premisas para la razón), sin apoyarse en ninguna teoría axiomática.

¿No es más sencillo para el objetivo de fundar las matemáticas asumir que la deducción sintáctica es la semántica? De forma axiomática .Si quieres, justificada por la intuición. Estamos fundando, algo tiene que ser impuesto. En este caso, incluso, como bien dices, podemos demostrar a posteriori que nuestras reglas de inferencias eran correctas para una semántica descrita por conjuntos (una vez tengamos la teoría de conjuntos desarrollada).

En cualquier caso, en este asunto de los fundamentos de las matemáticas no soy en absoluto una persona informada del tema.

No entiendo a qué te refieres. Yo he definido los lenguajes formales (de primer orden que voy a usar). En cuanto a definir "sintaxis", confundes definir con definir un concepto más abstracto.

Ese concepto más abstracto es el que se puede reutilizar en otras lógicas y por eso es útil.

Ya, pero yo en toda mi vida no he usado nunca ningún lenguaje formal que no sea de la lógica de primer orden...

Has usado, al menos, dos más: Latex y BBCode. Probablemente muchos más.

En cualquier caso, rectificando mi afirmación falsa de antes: de todos los lenguajes formales que he tenido que tratar y que no caben en el esquema que presento en mi artículo, casi ninguno cabe en tu esquema general. Eso es lo malo de generalizar, que es como tratar de decir el número más grande. Nunca sabes si te encontrarás otro número mayor.

Ya indiqué en mi primer post que el esquema que ofrecía era uno reducido. En ningún caso es un esquema general, pero sí que es suficiente para la sintaxis de la lógica clásica de primer orden.

Tus ventajas me parecen cada vez menos serias. Ésta ya deja mucho que desear...

En cualquier caso, no deja de ser una ventaja tener todo el proceso debidamente ordenado y nominado. La nomenclatura es importante.

Eso es capcioso. Alguien que no entienda lo que es un término...

Es posible que el ejemplo no sea el más propio, lo que no quita que una separación en partes facilite la comprensión y la localización de errores.

Obviamente, cuanto menos breve seas, mejor te explicarás...

Lo siento. No creo que eso sea cierto. Incluso aunque la explicación sea buena, una longitud excesiva puede provocar cansancio o que una repetición de algo se interprete de manera distinta a la primera aparición provocando dudas.



Me alegra poder hablar de estos temas (tantos y tan variados). Mucho me temo que se acaba el fin de semana y no sé qué tiempo le podré dedicar durante la semana al foro. Lamento no poder seguir este ritmo ya que la conversación ahora fresca se hará pesada. Lo que está claro es que escribes mucho más deprisa que yo, Carlos.

10
Comentarios / Re: Comentarios a Lógica de primer orden
« en: 17 Marzo, 2013, 02:45 pm »
Ésa era justamente mi intención, escribir algo distinto, porque para escribir lo mismo que ya está escrito en los libros, para eso ya están los libros. Naturalmente, hacer algo distinto sólo por no hacer lo mismo sería una frivolidad por mi parte. Mi intención de hacer algo distinto está motivada a su vez porque tengo la sensación (generada en gran parte por consultas sobre lógica que he visto hacer en este foro) que quienes estudian lógica siguiendo los estándares que se ven en los libros acaban con una concepción de la lógica que, a mi juicio (siempre discutible) está bastante deformada, y mi intención era enfatizar los aspectos que los libros no enfatizan por su forma de exposición.

Completamente de acuerdo contigo en este punto. Sin embargo, por favor, distingamos claramente el aspecto docente del aspecto, digamos, filosófico o de perspectiva con el que se aborda el tema. Que tengan dudas sobre la lógica puede significar que el libro que usen no sea de la calidad suficiente, no que el punto de vista abordado sea malo (o el profesor que les enseñe no lo haga bien, pero mejor no sigo por aquí).

Por lo que he podido leerte, creo que tu juicio es de bastante peso, me gustaría saber los aspectos que has percibido como erróneos siguiendo el procedimiento habitual. Probablemente yo mismo sea uno de esos "deformados". Jejeje.

Te aclaro yo también la perspectiva desde la que estoy diseñando el hilo: mi intención es explicar la lógica como formalización del razonamiento matemático y exclusivamente con la finalidad de servir de fundamento a la matemática formal. Evidentemente, con la lógica se pueden hacer muchas más cosas que fundamentar las matemáticas, pero mi interés es exclusivamente explicar qué es y por qué es como es la lógica que sirve de fundamento a la matemática formal.
...
Yo tampoco. Como digo, la lógica "en sí misma" tampoco me ha interesado nunca. Me interesa como fundamento de la matemática y como herramienta auxiliar en el estudio de la teoría de conjuntos. La lógica "en sí misma" o "en abstracto", siempre me ha parecido bastante insulsa, pero eso es, por supuesto, un juicio personal y subjetivo que sólo pretende explicar que, de hecho, nunca he visto nada interesante en ella.

Es una aproximación muy correcta. Realmente la lógica es insulsa y hasta tediosa. No obstante, como herramienta que es y que usamos, hay que tenerla "engrasada". Por eso alabo tu dedicación al tema.


Sí, la razón por la que la lógica matemática sirve para algo es precisamente porque permite prescindir completamente de la semántica, y la forma más clara de ponerlo de manifiesto es describir la sintaxis sin mencionar para nada la semántica. Así lo hago en mi libro de lógica, pero precisamente en este hilo quería enfatizar lo que se pierde de vista al proceder de ese modo: aunque la sintaxis sea al final independiente de la semántica, es fundamental comprender que está completamente motivada por la semántica. Una de las "deformaciones" a las que, siempre a mi juicio, induce la presentación usual de la lógica (primero sintaxis sin referencia alguna a la semántica y luego semántica) es que uno se queda con la sensación de que todas las definiciones sintácticas son arbitrarias, que uno define el modus ponens como lo define, pero que nada hubiera impedido definirlo como que de \( \alpha\rightarrow \beta \) y \( \beta \) se deduce \( \alpha \), por ejemplo.
...
Lo que pretendo mostrar en el hilo que estoy escribiendo es que todas las definiciones sintácticas están motivadas por el significado pretendido de los lenguajes formales, que aunque podamos definir un relator como un signo que simplemente tiene la etiqueta de relator, lo cierto es que un relator es un signo que pretende ser interpretado como una relación y que no es necesario ocultar o posponer eso para dejar claro que no es necesario hablar de relaciones para definir los lenguajes formales.

En esto que dices llego a dos ideas que al final son la misma.

La primera es que la sintaxis SÍ es arbitraria. De hecho puedes definir algunas sintaxis muy, muy raras. Ponerlo todo en notación prefija, postfija o, como información que es, en una secuencia de unos y ceros. Ahora bien, ¿por qué elegimos una en concreto? Realmente por una evolución histórica. De hecho, las fórmulas lógicas estándar se pueden leer como frases del lenguaje natural.

\( \forall x (hombre(x) \rightarrow mortal(x)) \)
Para todo x se cumple que si x es hombre entonces x es mortal.

Desde ese punto de vista la sintaxis elegida es, simplemente, una abreviatura del lenguaje natural. Del estudio de estas abreviaturas se llega a los lenguajes formales y la sintaxis de la lógica es uno de esos lenguajes formales.

La segunda idea es que SÍ es posible definir el modus ponens de otra forma. Obtienes otra lógica. Quizás útil. Quizás inconsistente. Quizás trivial. Simplemente es otra lógica, con otra semántica. De nuevo estamos en lo mismo, ¿por qué elegimos de todas las definiciones posibles las que elegimos? Aquí habría que mencionar que estudiando las frases del lenguaje natural vemos que, cuando nos restringimos a la lógica de primer orden, podemos asignarles un valor de verdad y que ese valor depende de las partes constituyentes de la frase. Vamos. Que tenemos una lógica veritativo funcional. ¿Cómo mantener ese valor de verdad en el lenguaje abreviado? ¿Cómo calcularlo a partir de las partes constituyentes de la fórmula abreviada? Ahí está la explicación de hacer esas definiciones y no otras.

Estas dos ideas son realmente la misma: tenemos una paleta de posibilidades y elegimos la que más nos interesa para llegar a tal objetivo. De la forma en la que está abordado el artículo, según entiendo, se desecha la paleta porque vamos directo al objetivo. En ese proceso de ocultación de los caminos laterales, no estoy muy seguro si estamos ganando o perdiendo comprensión. Vamos como un burro con anteojeras.

Si quieres eso, sólo tienes que leer mi libro de lógica, pero no era mi intención copiar o resumir mi libro de lógica, lo que planteas era justo lo contrario de lo que quería hacer. En realidad no era mi intención exactamente "mezclar" la sintaxis con la semántica, sino presentarlas paralelamente, o más precisamente, con la semántica siempre un paso por delante de la sintaxis, cuidando de dejar claro que al final la sintaxis no se apoya en la semántica, pero incidiendo sobre todo en que toda definición sintáctica está motivada por un concepto semántico. Defino modelo antes que fórmula porque para entender qué es realmente una fórmula no basta asumir que es una cadena de signos que satisface ciertos principios sintácticos de construcción, sino que la idea de fondo es que una fórmula es una cadena de signos susceptible de tener un significado en un modelo. Las ideas de ese tipo son las que se difuminan con la exposición estándar que propones y son las que yo pretendo enfatizar.

Ojeé tu libro de lógica hace años. No sé si lo has actualizado. Realmente recuerdo poco de él.

Sobre la introducción de semántica antes que sintaxis, creo que es dual (chiste matemático malo) a introducir la sintaxis antes que la semántica. En el enfoque que has tomado al final debes decir que la sintaxis no se apoya en la semántica. En la exposición estándar debes decir que la sintaxis no es arbitraria y se busca para que se le pueda dotar de semántica luego.

Al no hacerlo así se hace de forma subconsciente e incontrolada lo que es mejor, siempre a mi juicio, hacer de forma consciente y controlada: aunque no se hable para nada de semántica al exponer la sintaxis, lo cierto es que todo aquel que ve una fórmula de acuerdo con la definición sintáctica correspondiente, se da cuenta de que puede "leerla" como una afirmación, aunque oficialmente se le asegura que no es más que una cadena de signos, pero cualquier reflexión sobre esto queda prohibida por la prohibición de mencionar la semántica. En las cuestiones que han aparecido hasta ahora esto no es especialmente grave, pero creo que en cuanto se entra en el concepto de deducción, el obstinarse en no motivarlo semánticamente introduce muchos malentendidos.

Eso es completamente cierto. Tendemos a darle semántica inconscientemente a la sintaxis y luego hay sorpresas cuando la semántica no se ajusta a nuestra intuición. Y, ahora es cuando me vas a matar, creo que eso es bueno. Por una sencilla razón: hace al estudiante desconfiar de su intuición. El caso paradigmático es la implicación material cuando "falso implica verdadero" es verdadero.

Cierto, pero eso es como cuando uno dice "número" refiriéndose a "número real" porque no va a tratar con números complejos. El hilo se titula Lógica de primer orden, y hay que entender que cuando digo "lenguaje formal", quiero decir "lenguaje de primer orden" y, más concretamente, un lenguaje formal del tipo que he definido, sin más pretensiones de generalidad.
...
No. Todo lo que has dicho hasta aquí es totalmente coherente y simplemente responde a un punto de vista distinto del que yo quiero seguir, pero en esto último hay un pequeño error conceptual. No puede hablar de "el lenguaje formal de la lógica de primer orden" ni mucho menos darle un nombre, porque no es un único lenguaje formal, sino que estoy tratando con infinitos lenguajes posibles, según las constantes, relatores o funtores que posean. No es uno solo.

Tienes toda la razón del mundo. Escribir de memoria tiene estas cosas.

Sí, distinguir entre lógica con o sin igualdad es totalmente estándar, pero yo pregunto ¿para qué sirve la lógica de primer orden sin igualdad? Podrás decirme que la distinción sirve para ver cuáles son los requisitos lógicos específicos para tratar con la igualdad, pero no estoy interesado en diseccionar la lógica de ese modo. Si los únicos lenguajes formales que voy a usar tienen igualdad, no veo el interés de estudiar primero lenguajes sin igualdad. Es como si antes de estudiar grupos se considerara conveniente estudiar semigrupos a pesar de que nunca vas a trabajar con un semigrupo que no sea un grupo. En ese contexto, yo trabajaría directamente con grupos, y no me importaría si algunas de las cosas que digo valieran también para semigrupos que no fueran grupos.

Ten piedad con el lector. Este lector luego, en otro contexto, se encuentra con un semigrupo y recordará algo de los grupos pero... ¿esto que leí también valía para los semigrupos o sólo era para los grupos? Hace poco empecé a leer un libro sobre análisis funcional y empezaron con los espacios métricos. El autor empezó con muchos teoremas sobre estos espacios que realmente sólo requerían que la topología fuera Hausdorff (ya sabes, cosas de límite de secuencias único y demás). Al final no sabía si cada teorema realmente necesitaba que el espacio fuera métrico o Hausdorff. Tuve que dejar el libro porque me estaba liando conocimientos que ya tenía. ¿Qué trabajo le habría costado definir un espacio de Hausdorff y decir que los espacios métricos son Hausdorff con su topología asociada?

Cada cosa debe estar en su estructura, aunque tampoco sin pasarse. ¿Cuándo es una estructura suficientemente importante para dejarla? Ahí, la verdad, está la opinión de cada uno. Si la definición es simple, creo que es mejor dejarlo. Si el lector está interesado en, no sé, semigrupos, ya explorará y descubrirá las relaciones de Green y esas cosas. En el caso que nos concierne, ¿es suficientemente importante hablar de los lenguajes formales aparte? La verdad, yo creo que sí. ¿Es suficientemente importante hablar de la lógica sin igualdad? Ahí ya tengo mis dudas dados los objetivos que te has planteado con el artículo.


Sí, esto que planteas es bastante estándar y propio de los libros de lógica, y aquí entramos en una mera cuestión de "gustos", y es que debo decirte que eso me parece "horripilante" (y no es una crítica hacia ti, naturalmente, que estás defendiendo la ortodoxia). ¿Realmente aporta a algo a alguien ese planteamiento abstracto que propones? Yo he visto a gente en este foro pregunta dudas sobre ejercicios en ese contexto, y he procurado resolverlas, pero en el fondo pienso ¿y a qué clase de profesores se les ocurrirá hacer perder el tiempo a esta gente con problemas tan tontos en lugar de ir directamente a lo que interesa, a lo que aporta algo? Insisto en que son apreciaciones subjetivas, pero mi impresión es que estar dándole vueltas a lenguajes formados por as bes y ces, es una pérdida de tiempo, cuando puedes ir directamente a los lenguajes formales que interesan. En todo caso sería al revés: sólo cuando alguien ha asimilado las ideas importantes sobre lenguajes formales "de verdad", de los que pueden usarse para formalizar razonamientos, uno puede interesarse en versiones abstractas de esos lenguajes. Es como si a alguien que no sabe nada de grupos, anillos y espacios vectoriales empiezas a hablarle de categorías. Es más sensato demostrarle a uno el teorema de isomorfía de grupos, y el de anillos, y el de espacios vectoriales y, a lo sumo, en un futuro, hacerle ver que todos son casos particulares de un teorema sobre categorías abelianas, si es que uno llega a estudiar algo en el que el punto de vista de las categorías abelianas le aporta realmente algo.

Personalmente creo que aporta mucho el enfoque abstracto. Más en este caso en el que son unas pocas líneas de definición y llegamos a resultados bastante interesantes.

Sobre los profesores que ponen problemas tontos, desconozco si es por torpeza propia o del alumnado. Si es en el primer caso, no tienen perdón. En el segundo, en fin. De cualquier modo, convendrás conmigo que la sintaxis de la lógica de primer orden puede resultar compleja a alguien que no esté muy curtido en matemáticas. Es habitual empezar con cosas simples y avanzar hacia las complejas.

Nota al margen: creo que las categorías son de las cosas más bellas que hay en matemáticas. El grado de abstracción y la dificultad de su comprensión son (desde mi punto de vista) recompensadas por los frutos que da. Por otra parte, es cierto que son un tema arduo y yo mismo estoy deseando encontrar un libro menos abstracto sobre el tema.

De hecho, si algo me deja insatisfecho de la forma en que presento la lógica es el no poder ser un poco menos abstracto de lo que estoy siendo. Me gustaría poder (o saber) presentar las cosas de una forma mucho más elemental, que no requiriera abstracciones innecesarias, pues lo que pretendo es explicar algo muy concreto y muy intuitivo, algo que no requiere tratar con lenguajes sin significado, y aun así cualquier intento de precisar lo que es una fórmula o un modelo puede "echar para atrás" a más de uno, a pesar de que la idea de fondo la tiene que entender todo el mundo.

Esto es contrario a mi punto de vista, pero sigue el camino de "no hay paleta" y somos "burros con anteojeras" por un camino ya pensado. Tiempo habrá de quitar las anteojeras y enseñar la paleta. Habla de frases del lenguaje natural. Trata la sintaxis como una abreviatura de las frases. Descubre cómo razonamos con el lenguaje natural e imita ese razonamiento con las reglas de inferencia sobre las abreviaturas.

Sí, conozco esta forma de hacer las cosas, y siempre he tratado de evitarla a toda costa. Hay un aspecto en todo esto del que no sé si eres consciente. No sé si cuando escribes todo lo que escribes estás pensando en ello como afirmaciones formales en una teoría de conjuntos que te permite hablar de uniones, intersecciones, conjuntos numerables, definiciones inductivas, etc. Si es así, tenemos un problema serio, porque una de las utilidades de la lógica de primer orden es construir la teoría de conjuntos que (tal vez, si acierto al interpretar cómo concibes lo que dices) es necesaria para que puedas desarrollar la lógica "a tu manera (estándar)".

Al margen de esa distinción (tú pareces hablar de conjuntos, yo tengo la necesidad de hablar de signos "de verdad" que pueden escribirse en un papel o meterse en un ordenador, sin apoyarme en ninguna teoría de conjuntos) insisto en que para que alguien entienda qué es una fórmula o un término no necesita entender todo el aparato algebraico que estás montando, como para entender el análisis en \( \mathbb R^n \) no es necesario saber geometría diferencial, y que de hecho es mejor saber análisis en \( \mathbb R^n \) antes de entrar en la geometría diferencial.

Sí. Yo hablo de conjuntos. Otra cosa es que, por ignorancia, no haya puesto condiciones más relajadas. Supongo que en la sintaxis podría hablar de "una colección no vacía bien definida de símbolos cualesquiera" signifique lo que quiera que eso signifique, ya que estamos hablando en un lenguaje natural y no en un lenguaje formal.

En la semántica, si queremos que sea denotacional, debemos relacionar cada fórmula con un objeto matemático (que casi siempre será un conjunto). Si queremos semántica operacional, sólo necesitamos transformar las fórmulas sintácticamente. Otra cosa es que esas transformaciones sean correctas y completas.

Eso es justo lo que quiero evitar. No hay nada de semántica, pero todo lo que dices tiene una razón de ser porque es "ajustable" a una semántica que has omitido deliberadamente. Lo que yo intento es poner de manifiesto desde el primer momento la existencia de esa semántica que explica realmente lo que estás haciendo. Cuidando de dejar claro que al final cada concepto sintáctico no depende de esa semántica, pero explicando minuciosamente su relación con ella.

Ya hemos hablado de esto. La dualidad de explicar antes sintaxis o semántica.

Ah, esto responde a algo que te preguntaba más arriba. Me confunde que llames semántica operacional a unas reglas de inferencia. Las reglas de inferencia también tienen su vertiente puramente sintáctica y su interpretación semántica, y ése es también uno de los puntos en los que quiero incidir al comparar ambas partes. Ahora que hablas ya claramente de isomorfismos con estructuras matemáticas ya no hay duda de que concibes todo lo que dices como una parte de la teoría de conjuntos, con lo que tendrás que admitir que tu planteamiento no sirve para fundamentar la teoría de conjuntos, que es casi la única razón por la que me interesa la lógica (aunque no tengo intención de llegar tan lejos en mi artículo).

No creo que sea estándar llamar "operacional" a las reglas de inferencia, pero desde un punto de vista computacional son precisamente eso: transformaciones sintácticas. Ojo que las reglas de inferencia podrían ser la única semántica necesaria para la lógica de primer orden. Sin embargo, es más común dotarla de una semántica denotacional (dándole un valor a cada fórmula) y luego comprobar que ambas aproximaciones son equivalentes mediante demostraciones formales de corrección y completitud.

Mi planteamiento no sirve para fundamentar la teoría de conjuntos a menos que (y esta es mi opinión nada experta)

1) Trates los lenguajes formales como formas de escribir símbolos sobre papel o pantalla. Creo que es posible hacerlo sin mencionar ningún concepto matemático y sólo usando los símbolos de manera informal, pero estricta.
2) Uses las reglas de inferencia como semántica. Olvídate de que \( \overline N \) sea Napoleón. \( \overline N \) son símbolos en papel. No hay interpretación de los símbolos. La semántica es cómo trabajes con esos símbolos.

En este caso sólo estaríamos hablando de cómo escribir las cosas de manera formal. No hay conceptos matemáticos. Sólo una normativa muy concreta de cómo escribir sobre el papel. El que esta normativa se corresponda a un tipo de pensamiento lógico es algo que veo difícil de demostrar, pero fácil de justificar.


Sí, claro que se corresponde, pero sigo sin entender cuál es la objeción que pones a mi definición de fórmula (que no es mía, también es bastante estándar): una fórmula es una cadena de signos tal que existe una sucesión de cadenas tales que cada cual es una fórmula atómica (concepto definible previamente) o bien se genera a partir de las anteriores mediante ciertas reglas. ¿Cuál es el problema? En el fondo es también una definición inductiva, pero al mismo tiempo es totalmente constructiva, es decir, no depende de un teorema de recursión no evidente por sí mismo y que requiere una demostración previa.

En este caso no estoy tan enfocado en la definición concreta de lenguaje definido inductivamente (que si mediante una construcción o usando un teorema de recursión) como en repetir una construcción similar en dos definiciones (la de término y fórmula). Creo, aunque esto ya es opinión personal, que sería más provechoso sacar de estas dos definiciones la idea de lenguaje definido inductivamente y usarla luego en cada una de esas definiciones.

Al final terminas con tres definiciones en vez de dos, pero haces ver al lector que estás usando el mismo mecanismo en ambas. Es más, puedes razonar sobre este mecanismo (por ejemplo, para realizar demostraciones por inducción estructural).

Sí, está claro. Lo que no veo es la ventaja de hacerlo así. La única ventaja de separar la sintaxis de la semántica es dejar claro que al final ningún concepto sintáctico depende de la semántica, pero creo que eso puede quedar claro sin necesidad de llevar a ciegas al lector hasta que finalmente decides abrirle los ojos y revelarle el sentido que tiene todo lo dicho hasta entonces. Y las herramientas para definir los lenguajes formales, mi opinión (siempre subjetiva) es que son cañones para matar moscas. No veo la ventaja de introducir una teoría abstracta para luego definir unos lenguajes concretos, de modo que lo único que consigues es oscurecer la definición. Además, esto resulta inviable si las herramientas en cuestión requieren teoría de conjuntos y no quieres caer en un círculo vicioso (la teoría de conjuntos se define a partir de un lenguaje formal, unos axiomas y unas reglas de inferencia que no puedes permitirte en lujo de definir en términos de la teoría de conjuntos).
...
Sí, entiendo perfectamente lo que propones, pero no me gusta nada nada ese planteamiento. De hecho, creo que no has explicado para nada cuáles son según tú las ventajas de hacerlo así? Yo he tratado de explicarte las ventajas de no hacerlo así, aunque tal vez no haya podido concretar todo lo que me hubiera gustado porque mi artículo aún no está muy avanzado, y todavía no puedo ponerte ejemplos auténticamente relevantes del interés que le veo a este enfoque. Éstos aparecerán realmente cuando entre en la definición de las deducciones formales.
...
En absoluto. Estás defendiendo la más pura ortodoxia sobre el asunto. Pero creo que lo que resultaría realmente enriquecedor es que argumentaras cuáles son a tu juicio las ventajas del planteamiento ortodoxo. En realidad no he pretendido criticar dicho planteamiento, sino que mi opinión es más bien que el planteamiento ortodoxo es un planteamiento técnico, que no responde a los intereses de quien meramente quiera conocer bien la lógica matemática. Volviendo a un ejemplo que te he puesto antes. Yo he estudiado teoría de categorías, y la he estudiado cuando he visto que era útil para tratar ciertos aspectos de la geometría algebraica y la geometría diferencial, y la recomendaré cuando se trate de tratar esos aspectos, pero me parecería un despropósito empezar por teoría de categorías para explicarle a alguien la teoría de grupos o de anillos.

Igualmente, no dudo de que el planteamiento que propones será el más adecuado para estudiar ciertas cuestiones técnicas en las que la lógica formal abstracta sea una herramienta a considerar, pero jamás me he encontrado en un contexto en el que ese punto de vista me haya sido de utilidad frente al estudio directo de los lenguajes formales necesarios en teoría de conjuntos (para fundamentarla y para abordar pruebas de consistencia). Por eso jamás lo recomendaría. Mi punto de vista a la hora de estudiar cualquier teoría matemática siempre ha sido el de no usar herramientas que no demuestren que aportan alguna ventaja frente a técnicas más elementales. Y siempre me ha ido bien así.

Separar la sintaxis de la semántica no implica que tengas que ocultarle la intencionalidad que hay detrás. Yo lo veo más como un asunto de organización. Dejando a un lado la necesidad de la teoría de conjuntos para las definiciones que he propuesto, algunas de las ventajas que me vienen a la mente son:

1) Definición. Basta con darle un nombre a las cosas para que podamos usarlas y estudiarla con mayor comodidad. Si estás usando un lenguaje formal, define lenguajes formales. Si estás usando una sintaxis, define la sintaxis. Dale nombre.

2) Reutilización. Los lenguajes formales que puedes definir no son únicamente los de la lógica de primer órden. Igualmente, una misma sintaxis puede tener varias semánticas. Por ejemplo, puedes usar una lógica intuicionista en vez de la lógica clásica con la misma sintaxis.

3) Guía. Una vez que le damos la pista al lector del nombre de una de las estructuras que usamos, el lector podrá investigar. Podrá buscar qué es una semántica operacional, o un lenguaje definido inductivamente, etc.

4) Referencia. Igualmente, al organizar el discurso y separarlo en partes, al hablar de un tema sólo hacemos referencia a la parte que corresponde. Que alguien no entienda qué es un término puede significar realmente que no entiende lo que es un lenguaje definido inductivamente.

5) Concreción. Hemos tardado un poco más en definir lo que es un lenguaje formal, pero luego definimos la sintaxis con mucha más brevedad. A menor brevedad, menos margen para ambigüedades, lapsus, errores de comprensión o de cualquier otro tipo.

¡Hombre! Yo creo que la auténtica complejidad innecesaria es todo el aparato algebraico que propones para definir unos míseros lenguajes formales ;D.  A mí me parece una simplificación el no tener que preocuparse para nada de los paréntesis a efectos teóricos, y que éstos queden relegados a meros auxiliares taquigráficos, pero, por supuesto, es cuestión de gustos.

Ciertamente es un asunto menor.





Todo lo que estamos hablando es un tema muy interesante. Me gustaría poder dedicarle algo de tiempo a definir lenguajes formales sin hacer referencia a otra cosa que símbolos escritos sobre el papel y frases como "escribir delante" o "escribir detrás". Luego, las reglas de inferencia de la misma manera. Vamos. Tener un sistema formal descrito sin usar objetos matemáticos.

11
Comentarios / Re: Comentarios a Lógica de primer orden
« en: 17 Marzo, 2013, 02:06 am »
Muy buenas, Carlos. He leído el artículo rápidamente y, seguramente será por mi formación en informática, lo encuentro algo distinto a lo que esperaría de la lógica de primer orden. Estoy seguro que hablamos de lo mismo, pero desde distintas perspectivas. Voy a intentar explicar mi punto de vista porque quizás te sea de utilidad y ambos podamos aprender.

Cuando hable de "nosotros" me refiero a cómo lo veíamos en nuestras clases de informática. Yo, la verdad, no soy nadie especialmente dedicado a la lógica.

Para empezar, nosotros hacíamos una gran distinción entre sintaxis y semántica. Más que nada porque luego teníamos distintas semánticas. En tu artículo lo veo todo muy mezclado (defines modelo antes de fórmula) y creo que quedaría mejor si dedicases o bien otro artículo o bien una sección inicial a la sintaxis. Luego, completamente separada, la semántica.

También veo que hablas de lenguaje formal cuando te refieres específicamente al lenguaje formal de la lógica de primer orden. Frases como "pero exigiremos que todo lenguaje formal tenga al menos un relator diádico que representaremos por \( = \)" creo que estarían mejor redactadas como "pero exigiremos que el lenguaje formal de la lógica de primer orden tenga al menos un relator diádico que representaremos por \( = \)". Mucho mejor aún si le dieras un nombre a tu lenguaje como \( L_1 \).

Además, veo que repites la idea de "un término es si hay una secuencia de cadenas..." y "una fórmula es si hay una secuencia de cadenas..." Los matemáticos buscáis la abstracción. Algo general que sirva para múltiples casos. ¿Por qué no lo has hecho aquí? Bueno. Voy a dar mi opinión y luego ya me criticas.

Por cierto, como nota al margen, nosotros separábamos la lógica de primer orden de la lógica de primer orden con igualdad. Esta última introducía ciertas complicaciones y se necesitaban otras técnicas de resolución (ver por ejemplo la regla de paramodulación).

A lo que voy. Estoy recordando sin consultar apuntes o libros algo puede "bailar" pero los conceptos son muy simiples. Como yo lo haría (como a mí me enseñaron) es algo tal que así.





Lenguajes formales.

Lo primero que hacíamos es definir un lenguaje formal y no específicamente el lenguaje formal de la lógica de primer orden. Esto lo hacíamos de la siguiente manera.

Tomábamos un conjunto \( \Sigma \) que llamábamos alfabeto. El alfabeto se compone de símbolos. Por ejemplo: \( \Sigma=\left\{a,b,c\right\} \). No trataremos ni con los alfabetos ni con los símbolos directamente. El alfabeto debe ser finito (aunque en algunos sitios recuerdo haber visto que puede ser numerable).

Del alfabeto se obtenía el conjunto de sus secuencias \( \Sigma^* \). Este operador es la estrella de Kleene (creo que en matemáticas es el monoide libremente generado). El elemento neutro (la secuencia vacía) la notábamos con \( \epsilon \). A las secuencias también las llamábamos cadenas o palabras.

Definimos un lenguaje como un subconjunto de este conjunto de secuencias \( L\subseteq\Sigma^* \).

Introducíamos los conjuntos unitarios y los notamos con el símbolo correspondiente. Es decir \( a \) es realmente el conjunto \( \left\{a\right\}\subseteq\Sigma^* \).

Introducimos operaciones sobre los lenguajes. En concreto:
- la concatenación (usando la operación del monoide) \( L_1L_2=\left\{w_1w_2\mid w_1 \in L_1, w_2\in L_2\right\} \). También usamos \( \epsilon \) para el conjunto \( \left\{\epsilon\right\} \).
- la unión (simple unión de conjuntos pero representada ahora por el símbolo \( \mid \) de forma que \( L_1\mid L_2=L_1\cup L_2 \))
- la potenciación basada en la concatenación \( L^0=\left\{\epsilon\right\} \) y \( L^{n+1}=L^nL \)
- la clausura de Kleene. No es más que la unión (notada como suma) de todas las potencias \( L^*=\sum_{n=0}^\infty{L^n} \)

Un lenguaje inductivamente generado por una ecuación basada en las anteriores operaciones es el menor lenguaje que cumple tal ecuación. Por ejemplo, \( t = a \mid tt  \) significa que el lenguaje \( t \) cumple que es el lenguaje \( a \) unión la concatenación de dos de sus elementos. Inductivamente aquí entraría \( aa \), \( aaa \) y así. Es importante aquí, aunque no recuerde el detalle de todo esto, que el lenguaje inductivamente generado tiene estructura en el sentido de que podemos realizar demostraciones por inducción sobre él.

Hasta aquí lenguajes formales (bastante restringidos ya que son de cierto tipo muy concreto, pero habría que definir gramáticas para poderlos caracterizar totalmente).

Sólo con esto hay una gran cantidad de teoría que se puede desarrollar. Que me venga a la mente: álgebra de términos, relaciones de subsunción o sistemas de reescritura. Seguro que más.




Sintaxis de la lógica de primer orden.

Ahora voy a la sintaxis del lenguaje que vamos a usar. La sintaxis de la lógica de primer orden (sin igualdad explícita) se definiría como:

Alfabeto: \( \Sigma=K \cup V \cup C \cup F \cup P \)
Con \( K \) símbolos de puntuación y conectivas \( ¬ \rightarrow \vee \wedge \leftrightarrow \top \bot \forall \exists ( ) , \)
Con \( V \) símbolos de variable (infinito numerable).
Con \( C \) símbolos de constante (numerable, posiblemente vacío).
Con \( F=F_1 \cup F_2 \cup \cdots \) símbolos de función (numerable, posiblemente vacío). (Tú los llamas functores)
Con \( P=P_1 \cup P_2 \cup \cdots \) símbolos de predicado (numerable, no vacío).  (Tú los llamas relatores e introduces en \( P_2 \) el igual)
Todos estos conjuntos de símbolos disjuntos entre sí.

Nota: en algunos textos he visto todas los símbolos de función (funtores) mezclados y luego una aplicación de aridad le da a cada uno de ellos un natural que es el número de argumentos que debe tomar. Idem para los símbolos de predicado (relatores).

El conjunto de términos \( T \) es el lenguaje inductivamente generado por la ecuación  \(  T = V \mid C \mid F_1(T) \mid F_2(T,T) \mid \cdots  \)
El conjunto de átomos \( A \) se define como \(  A = P_1(T) \mid P_2(T,T) \mid P_3(T,T,T) \mid \cdots  \).
El lenguaje de la lógica de primer orden es el lenguaje inductivamente generado por la ecuación \( L= \bot \mid \top \mid A \mid ¬L \mid (L\vee L) \mid (L\wedge L) \mid (L\rightarrow L) \mid (L\leftrightarrow L) \mid \forall V L \mid \exists V L \)







Y si no me he equivocado, esto basta.

Hasta aquí nada de semántica. Todo son símbolos puestos ordenadamente, pero sin significado. Ahora, según la semántica que queramos dotarle a la lógica, podremos introducir una función de interpretación (semántica denotacional), unas reglas de inferencia (semántica operacional) o introducir un isomorfismo con alguna otra estructura matemática (esta es la que más me gusta, espero que podamos hablar de ella más adelante).

Otra cosa: perdóname mi "ligereza" a la hora de introducir los conceptos. Comprendo que a un matemático le chirríe mucho mi falta de detalle y la completa ausencia de demostraciones en mis afirmaciones. Por ejemplo, mi lenguaje inductivamente generado seguramente que se corresponda al mecanismo de una sucesión de cadenas de signos que mencionas en tu definición de fórmula.

Sólo espero haber dejado claro mi punto de vista de separar la sintaxis de la semántica por un lado y de introducir unas herramientas para definir los lenguajes formales (independientemente de si vamos a usarlos para la lógica de primer orden o para otra cosa). Y que esa separación no es puntual en cada definición, sino estructural en el desarrollo del texto: primero lenguajes formales en general, luego sintaxis del lenguaje de la lógica de primer orden y finalmente las semánticas.

También me ha parecido que introduces una complejidad innecesaria al definir las conectivas formalmente en forma prefija \( \rightarrow \beta \gamma \) pero luego muestras en forma infija \( \beta \rightarrow \gamma \). ¿No crees que es mejor introducirlas de forma infija dejando los paréntesis? En todo caso decir la prioridad que tienen y omitir los paréntesis superfluos. En cualquier caso, esto es un detalle menor.

Bueno. Me voy a la cama que es tarde. Espero no haber dicho muchas tonterías.

12
Hola helenacaliope.

Es posible pasarlo. La "regla del 15" no es más que una escala logarítmica. Los logaritmos convierten las multiplicaciones en sumas. En este caso es "multiplicar por dos" cada vez que "sume 15 puntos".

La fórmula que buscas es \( T = A 2 ^ {\frac{Q}{15}} \) que no es más que una conversión de la escala logarítmica de la regla del quince (la \( Q \)) a una escala lineal que es tu sistema tradicional \( T \).

Verás que hay un parámetro adicional \( A \). Este parámetro sirve para tomar una base de puntos que sea igual en ambas escalas. En tu caso podría ser \( A=5 \) con lo que tendrías:

\( Q \)            \( T \)
15            10
30            20
45            40
60            80
75           160

Lo interesante es que la fórmula que te he puesto sirve también para valores intermedios como el 40. Si lo calculas, usando por ejemplo Wolfram Alpha, verás que le correspondería un valor en el sistema tradicional de 32 más o menos.

Cambiando en el enlace de Wolfram Alpha el 40 por otro número de la "regla del 15" podrás calcular el valor en tu sistema normal. Te podrás hacer una tabla y podrás evitar tener que estar 15 arriba y 15 abajo.

13
Hola a todos.

Estoy estudiando estas funciones y, en todos los lugares que miro, rápidamente entran en la teoría de funciones elípticas (doble periodo y meromorfa) abandonando la interpretación trigonométrica de estas funciones.

En primer lugar supuse que, como en trigonometría, el argumento de las funciones sn, cn, dn y demás estaría relacionado con la longitud del arco (que es el ángulo en la circunferencia). La longitud de arco se obtiene con la integral elíptica incompleta de segunda especie.

\( E(\phi,k) =\displaystyle\int_0^\phi \sqrt{1-k^2 \sin^2\theta}\, d\theta \)

El que esté interesado puede investigar en DLMF donde indica que la longitud de arco es

\( l=a E(\phi,k) \)

y se aclara que el parámetro \( k \) es el módulo elíptico (o excentricidad de la elipse).


Creía que Jacobi quería obtener funciones similares al seno y al coseno usando esta longitud de arco. De hecho, define las funciones sn y cn basándose en el seno y el coseno.

\( \mathrm{sn}(u)=\mathrm{sin}(\mathrm{am}(u)) \)
\( \mathrm{cn}(u)=\mathrm{cos}(\mathrm{am}(u)) \)

Nota: Hay una tercera función \( \mathrm{dn}(u) \) pero no es importante para lo que estamos hablando ahora.


Mi sorpresa viene cuando la amplitud de Jacobi \( \mathrm{am}(u) \) se define usando la integral elíptica incompleta de primera especie.

\( F(\phi,k) = \int_0^\phi \frac {d\theta} {\sqrt{1-k^2 \sin^2 \theta}} \)

Si no me equivoco la amplitud se define así

\( \mathrm{am}(u,k)=\phi \Leftrightarrow F(\phi,k)=u \)

y el resto de funciones elípticas de Jacobi usando esta amplitud (y, a través de ella, la integral elíptica de primera especie).

Para terminar de confirmar que la longitud de arco no es la que se usa en estas funciones elípticas de Jacobi, existe una función llamada la función épsilon de Jacobi que se usa para calcular la longitud del arco a partir de la amplitud de Jacobi.

\( \[\mathop{E\/}\nolimits\!\left(\mathop{\mathrm{am}\/}\nolimits\left(x,k\right),k\right)=\mathop{\epsilon\/}\nolimits\!\left(x,k\right),\] \)

Nota: Para los curiosos, la longitud de arco se calcula así \( \[l(u)=a\mathop{\epsilon\/}\nolimits\!\left(u,k\right),\] \). De nuevo, ver la DLFM.


En definitiva, no entiendo cuál es la interpretación geométrica que le debo dar al argumento de las funciones elípticas de Jacobi. Si tengo \( \mathrt{sn}(u) \), ¿qué es lo que significa la \( u \)? Visto que no es la longitud del arco. ¿Qué es?

Páginas: [1]