Mostrar Mensajes

Esta sección te permite ver todos los posts escritos por este usuario. Ten en cuenta que sólo puedes ver los posts escritos en zonas a las que tienes acceso en este momento.

Mensajes - Ser Humano

Páginas: [1] 2 3 4
1
 :o Definitivamente éste tema fue concurrido, en mi prolongada ausencia, más de lo que me había imaginado. Voy a procurar hacerme un rato para ponerme al tanto de lo que se comento, y volver a participar.

Saludos  ;)

2
Sintaxis por un lado y semántica por otro.
Pero para establecer la sintaxis (los algoritmos de resolución) ¿no implementan la semantica? porque los algoritmos desembocan en conclusiones definidas, lejos de ser asignadas arbitrariamente (sólo se imponen arbitrariamente los axiomas).

Hasta la proxima ;)

3
Hola argentinator

Citar
Suponte que escribo [a= b]  seguido de [b=c] .
¿Concluirías que [a=c] ?
Seguro que sí, aunque poco importa qué signifiquen las letras a, b, c.
Si previamente se a que hace referencia el símbolo = , sí, por el hecho de que se que los símbolos que se encuentran a ambos lados son formas equivalentes de mencionar la misma noción. Sin definir a que hace referencia = , podría no llegarse a esa conclusión (por ejemplo si = haría referencia a que se diferencian). En este caso, la nociones que representan \( a \) y \( b \) son muy generales, y son cumplidas por muchos entes particulares. De hecho, una vez que se sabe a que noción hace referencia el sigo = , es incluso necesario mencionar que los simbolos a y b hacen referencia a otra noción, ya que los símbolos en sí no cumplen que a=b, ni que b=c.

Citar
Una computadora no tiene que preocuparse de si x, y tienen sentido, ni siquiera de que = sea un signo de igualdad.
Hace las inferencias y listo. El significado se pierde, y a nivel de máquina es sólo una cuestión de "transformar una lista de caracteres en otra".
Pero las nociones a las que hacen referencia están implicitas en el algoritmo de resolución, en las nociones que se aceptan de antemano. De no ser así, parecería igual de util asignarle a cada conjunto de caracteres, otro de forma aleatoria.

En la implicación que mencionas, claramente se está haciendo referencia a la propiedad simétrica de la igualdad. No noto que sea un conjunto de caracteres que no hagan referencia a algo, porque noto, justamente, a que hacen referencia.

Citar
El "sentido" del símbolo introducido a la computadora solamente lo entiende un ser humano, el que la programó, pero una vez que has metido los caracteres en la máquina, la máquina no entiende nada, y a ella sólo le concierne con qué reglas debe transformar una cadena de caracteres en otra.
Claro, en ningún momento afirmo ello. Y si lo hice, fue un error  :D . Lo que sí digo es que para formular el algoritmo de resolución se tiene que tener en cuenta "a que hace referencia" cada símbolo, es decir, tener en cuenta cuales son las nociones que se manejan, más allá del símbolo que se implemente.

Citar
Si la máquina "reconoce" como p a algo como !/|a462, y como q a algo como SGDT!?, entonces la máquina obedientemente transforma la cadena [!/|a462 \wedge(!/|a462\Rightarrow{ SGDT!?})] en [SGDT!?] .
Claro que antes de que eso pase, los lógicos se asegurarán de que ese tipo de "sentencias" no pertenezcan al lenguaje formal.
Pero quiero dejar claro de qué se trata una "demostración".

Una demostración es una "operación" tal que, dada una cadena de caracteres, da como resultado otra.

Nada se dice de si es cierta o no.

Ahora bien, a una cadena de caracteres se le puede transformar en alguna otra cosa, tal como una "función" lo haría, por ejemplo, en un valor de verdad, V o F (verdadero o falso).
Como a ésta altura se notará, no me refería a ello al mencionar "demostración".
En el ejemplo que me das, al no definir, o decir a que hacen referencia cada uno de los símbolos, se está en el mismo caso inicial, en donde p y q podían ser cualquier cosa mencionada de esa manera (y en este caso esos símbolos son aquello a lo que haga referencia).

¿La verdad la conclusión no está asegurada por la verdad de las premisas? (en un razonamiento axiomaticamente válido como el que tratamos).

Citar
Sin embargo, Godel mostró como una proposición verdadera puede que no sea "demostrable".
Una conclusión así sólo es posible si hay una clara diferencia entre el procedimiento de "demostrar" y el hecho de "ser verdadero".
Seguramente que hay diferencias, de hecho yo noto a la demostración como un procedimiento, no como una cualidad. Pero si bien no son lo mismo, puede que exista una implicación entre ellos.
¿Pero como se "sabe" que esa proposición es verdadera si no se puede demostrar que lo es?

Citar
Aquí, la función tiene como "dominio" a ciertas cadenas de caracteres, y como imagen, los valores en un conjunto de dos elementos {V, F}.
Cuando uno menciona que una proposición es verdadera, no esta simplemente mencionando que es TRWEAS (o cualquier cosa), sino que esta haciendo referencia al preconcepto de la palabra.

Pero hay mucha razón en dudar de el valor de "verdad" de los axiomas de los que parte la lógica clasica, es decir, preguntarse por que no se puede establecer valores de verdad de forma aleatoria a otras proposiciones.

Citar
Sí, está bien, pero eso no quita el hecho de que uno nunca puede trabajar realmente con la "noción intuitiva" de infinito, porque justamente es intuitiva, y por lo tanto carece de objetividad.
Si, de eso no cabe duda (o tal vez pocas no más  ;D), pero es importante tener en cuenta que lo que se menciona como infinito, no es ese infinito, sino que otra cosa que se define de la manera expuesta.

Citar
Hay quienes dicen que sí funciona siempre. Lo estoy analizando, pero por ahora sigo opinando que no, que la lógica clásica es tan falible como cualquier otra cosa, aunque reconozco su poder de resistencia a la falibilidad.
Desde ya que no sé si es infalible, lo mio es una total incertidumbre al respecto. Hasta donde conozco, aun no hay respuesta definitiva sobre ello. Cualquier cosa que puedas averiguar sería magnifico que lo pongas en el hilo ;)

Citar
En cuanto a los axiomas, son elecciones de cada teoría.
El caso es que en la lógica misma se toman axiomas, y como resultado surgen muchas lógicas distintas, así como cambiando los axiomas de la geometría surgen muchas geometrías distintas.
A mi me parece que allí reside toda la problematica, en saber por que unos axiomas y no otros. Espero conocer la respuesta antes de morirme  :'( (sin intenciones de sonar fatalista :D)

Citar
En cada contexto una lógica será mejor que otra, según la "aplicación", pero en el caso de los fundamentos mismos de la lógica, ¿por qué usar aún la lógica clásica y no otra?
No solo me parece que no hay una forma de fundamentar eso, sino que encuentro una forma de refutar un planteo semejante; como habiamos hablado antes, el usar lógica clasica para fundamentar la propia lógica es aceptar (arbitrariamente) su validez para autofundamentarse (y si se acepta su validez para fundamentar de nada sirve demostrar, porque ya está aceptado).



El último párrafo no lo cito para no hacer muy extenso el mensaje; Nuevamente, el problema lo noto (como mencionaba más arriba) en la elección de axiomas, y el motivo por la preferencia de unos sobre otros.

Citar
Lo que dijiste del empirismo de la lógica clásica me gustó, pues yo también lo he pensado algunas veces, pero yo lo uso para argumentar contra su uso indiscriminado, y no para defenderla.
Me da la impresión de que te pareció que pretendía "justificar" la preferencia por el uso de esa lógica; Eso no es así, solo expuse lo que me parece que puede ser el motivo de su uso tan habitualmente, y de las "seguridades" que por lo general se sienten con respecto a ella.

Citar
Pero tampoco quiero hacer "escuela", porque no estoy demasiado seguro de nada.
jaja  :D ¿Podemos llamarla la "escuela Pitagórica" o ya usaron ese nombre?  ;D


La charla es tan amena que casi no me molesta pasar tanto tiempo escribiendo;

Saludos  ;)

4
Hola otra vez.
Perdón por tardar tanto en responder, no funciono si hay excesiva radiación solar presente :D .

Citar
Ahora bien, ese Teorema sigue siendo lógicamente válido aún si yo cambio esos símbolos que figuran ahí por otros, con tal de que la estructura lógica sea la misma.
Y eso es así porque las leyes de inferencia lógica son "meramente formales", o sea, se ocupan sólo de la forma de las expresiones, y no de su "contenido".
Si se cambian los símbolos implementados, pero permanecen las nociones a las que se hace referencia, la conclusión será la misma. Si permanecen los mismos símbolos pero éstos hacen referencia a nociones diferentes, entonces no necesariamente la conclusión es la misma. Me parece que no nos estamos entendiendo, y que nos estamos refiriendo a cosas diferentes :( . Voy a poner un ejemplo por las dudas; si el/los simbolo/s \( (\#A < \infty) \) representa/n una determinada proposición y \( {\forall{B\subset A}(\# B< \infty)} \) representa la negación de esa proposición, entonces no se puede concluir dicha implicación (o al menos es lo que noto ahora). Por eso es que decía que lo importante no es la simbología en sí, sino a que hace referencia ésta.

Citar
La lógica no se preocupa de si se hace referencia a "algo" externo, o con sentido para intuitivo para alguien.
Es mero cálculo, que transforma unas hileras de caracteres en otras. Eso es en definitiva una "demostración", y es algo que una computadora puede hacer, porque se trata de una actividad sistemática, sintáctica, sin significado.
No necesariamente ese "algo" debe ser "externo", basta con que ese algo tenga cualidades distintivas (tal vez imaginarias).
En las computadoras se programa el algoritmo, un algoritmo que se puede demostrar que es válido (lógicamente) como procedimiento para llegar a conclusiones a partir de nociones previas. El punto está que para formular el algoritmo se tienen en cuenta a que hace referencia con cada símbolo que puede ser introducido en el programa que lo ejecutará.

Citar
Hay unas expresiones que se forman mediante ciertas reglas sintácticas: algunas expresiones tienen sentido lógico y otras se tiran a la basura (algo como   [ \forall{\in{\in{\exists{\supset{xx\emptyset}}}}}]  no tiene sentido lógico, son signos puestos al azar).
Sí, totalmente; en un mensaje anterior había mencionado algo semejante, pero me parece que lo hice de forma poco clara. Era cuando me refería a que cierto conjunto de símbolos (que a su vez son un símbolo) o hacen referencia a una noción, o son inutiles.

Citar
A este nivel de cosas, no existen valores de verdad de esas proposiciones.
Pero ¿no son los axiomas premisas que se consideran ciertas a priori?

Citar
Pero aún así, que sean verdaderas o falsas esas proposiciones, no necesita hacer referencia a noción alguna.
Pero como se establece la verosimilitud de la proposición si no hace referencia a ninguna noción? (será que nos estamos refiriendo a diferentes cosas con el término "noción"?); Por ejemplo ¿se puede decir si **^¨_Ç es verdadera o falsa?

Citar
No es lo mismo la definición de "infinito" con una fórmula, que la intuición de infinito.
Pero entonces se está haciendo referencia a diferentes cosas con la misma palabra, y alli reside (al menos uno) de los problemas. Es decir, uno puede interpretar la formula, notar a que se refiere y compararla con la "noción intuitiva" de infinito; si no coinciden, entonces son nociones diferentes, y si son nociones diferentes poco útil es que se las llame de igual forma. Es decir, me parece que se puede trabajar con la formula porque no se está haciendo referencia a esa noción poco definida, sino que se está haciendo referencia a otra, que sí está bien clara.

Citar
No entiendo qué quisiste decir con "no-nociones".
Simbología que no hace referencia a algo; por ejemplo averiguar el valor de verdad de \( (P(x)\longrightarrow Q(x)) \longrightarrow |||| \)

Citar
Bueno, los entes perceptibles no los percibimos con precisión, y de lo poco que percibimos de ellos, descartamos muchas propiedades o cualidades complejas, y nos quedamos con algunas simples.
Luego las "representamos" matemáticamente, pero eso no es lo mismo que decir que "coinciden".
No me refiero para nada a ningún ente ontologico, sino que puramente lo que percibimos y llamamos entes. Por ejemplo, los colores y los sonidos se pueden trabajar con teoría de conjuntos, siendo que la generalización tratada en dicha teoría incluye a los casos de éstos.

Citar
Un tipico modelo de crecimiento de poblaciones es [P(t) = ce^{at}] , siendo a, c, unas constantes.
La población de un país dado podría modelarse con esa fórmula.
Pero supongamos que a = c = 1, para simplificar. En la mayoría de los instantes t, la población P(t) sería un número fraccionario. Por ejemplo, P(t) = 2.71.... si t = 1.
¿Acaso hay 2.71 personas tras t = 1 año?
No puede haber una cantidad fraccionaria de personas.
Claro, no. Alli el problema sería el decir que dicha situación es un caso paticular de la función tratada (la cual generaliza a muchas situaciones); debería decirse que la situación es semejante a uno de los casos particulares de la generalización tratada en la función, o lo que es lo mismo, a la función en sí.

Citar
En cuanto a los patrones que un ser humano puede distinguir quizá sean sólo los que "prefiere" distinguir.
Me refiero a que puede haber autolimitaciones psicológicas y culturales que orienten al ser humano a ver unos patrones y no otros.
Más aún si se trata de costumbres, o cosas enseñadas o inculcadas.
Probablemente, pero no dudo que si uno se lo propone, pueda saltear esas limitaciones.

Citar
Lo de la "relevancia" que has mencionado no tiene discusión.
Cada aplicación con su teoría...
Me refería a que si necesitamos resolver un problema de índole empirico, recurrimos a la lógica clásica, y no a otra, pues ella es la que nos da resultados "verificables" y útiles (si lo que queremos es resolver el problema).

Citar
Claro, eso es lo que hacen, y eso es lo que no logro aceptar.
??? realmente desconcertante.

Citar
Pero ahora yo me pregunto, ya que estamos razonando con la lógica PL (sin permiso de nadie) ¿pòr qué no usamos mejor IL?
¿O por qué no usamos incluso cualquier otra lógica mientras demostramos teoremas acerca de la lógica misma?
Eso sí es puro razonamiento inductivo; cuando queremos resolver un problema, como mencionaba antes, claramente recurrimos a la lógica clasica, y como por lo general nos da resultados "correctos", es decir, verificables de alguna otra forma (además del mismo razonamiento), inducimos que cada vez que tenemos un problema, si aplicamos la lógica clasica de forma efectiva, lo vamos a resolver. Claramente, no tendría por que ser así.
Pero acá de lo que se estaría dudando es de las nociones que se tienen en cuenta en un principio, y como "notar" si son ciertas o no. Es decir, que se están poniendo en duda los axiomas, y eso es un problema en el sentido que al ser axiomas no cabe la posibilidad de una demostración, a menos que la misma sea realizada a partir de otras reglas arbitrarias, es decir, más axiomas  >:( .

Citar
Ahora bien, se habla de cardinales como si fueran algo establecido en forma única, sin duda alguna ni ambigüedad.

Pero eso no puede tomarse a la ligera, porque se sabe que hay teorías de conjuntos en los que hay más cardinales o menos que en otras.
Así que la noción de "cardinal" no es clara, es ambigua.
Esto escapa totalmente a mis nociones, pero algo a tener en cuenta (en cualquier tema) es que si son nociones diferentes, poco importa si las llaman iguales, porque se están refiriendo a diferentes cosas; Si yo dentro de mi casa le digo a los "perros", "arboles", y fuera de mi casa le digo "perros", entonces tengo que tener en cuenta (y cualquiera que me escucha) que cuando me meto en mi casa estoy haciendo referencia a algo diferente con la misma palabra, con el mismo símbolo. Pero claro, siempre es preferible que no se llegue a una situación como esa, que solo presta a confusiones.

Citar
¿Cómo se los usa impunemente en etapas constructivas de la matemática, si encierran dilemas estructurales y teóricos que no son triviales en lo absoluto?
Creéme cuando digo que comprendo claramente lo inconcebible que probablemente te resulten, como a mi me resultan, que se hagan las cosas de esa forma.

Saludos ;)

5
Hola otra vez :) .

En principio, empiezo por aclarar algo que noto que no aclaré en el mensaje anterior; cuando digo "hacer referencia a algo", no me refiero a que "ese algo" sea perceptible, ni notable empíricamente, sino que sería suficiente con que se tenga una noción "sobre ese algo" (como por ejemplo, la forma en que se "relaciona" con otros entes).

Citar
Cuando uno demuestra teoremas o define objetos matemáticos, en realidad no hace más que manipulaciones de símbolos.
Pero justamente ésto es lo que no puedo notar; en el ejemplo de infinito, queda bastante claro "a que se hace referencia", exponiendo cuales son las cualidades del conjunto en cuestión. Por ejemplo, de nada serviría que defina a un conjunto infinito como \( (&%$·) \), si ese símbolo (o conjunto de símbolos) no hacen referencia a ninguna noción.

Citar
El "significado" o "sentido" que le damos es accesorio. Es quizá lo que en definitiva enriquece a la matemática y la hace bella.
Después de todo, poner ristras de símbolos sin significado no tiene nada de hermoso, claro está.
Pero resultaría de alguna forma útil definir algo a partir de símbolos sin que ellos conlleven ninguna noción? de que forma podríamos (justificadamente) relacionar esos símbolos sin sentido con las nociones que tenemos?. Esa justificación está (al menos como lo noto ahora) en la lógica cuando se trata de relacionar nociones, pero la misma no es útil para relacionar no-nociones con nociones.

Citar
Más aún, lo que critico es que esa frialdad en las fórmulas como la de arriba, no puede aplicarse directamente, sin previo aviso o consideración, a objetos concretos de la realidad.
Lo que puedo notar es que muchos entes que se definen de forma matemática, tienen cualidades que son compartidos por varios entes perceptibles (que además tienen otras cualidades, las cuales les permiten diferenciarse), y si esas cualidades implican algo, o se relacionan con otras de alguna forma, todo ente que presenta las mismas, incluso en la percepción, implicará o se relacionará de la misma forma. Claro que los casos que se pueden "explicar" de ésta forma son los menos. Tal vez no es que el "exterior" coincide con nuestra lógica, sino que nuestra lógica, como herramienta de adaptación al ambiente, coincide con éste (sí, se de la simetría de la igualdad :D, pero creo que se entiende a lo que me refiero) .

Citar
Lo mismo acontece con el uso de números y cardinales al hablar de símbolos escritos en un papel.
Pero lo grave del asunto es que esos mismos símbolos se usan después para formalizar el concepto de número y de cardinal... y la cabeza me da vueltas.
A mi parecer, se tiene, incluso antes de analizar el tema, las nociones de cardinal, numeros, y símbolos (valga la redundancia :D). Pero además se puede notar como éstas nociones están íntimamente relacionadas. Entonces, me parece que el error ésta en intentar definir una a partir de la otra, en cambio de establecer un símbolo que represente a cada una de las nociones y despues escribir la forma en que se relacionan entre ellas. Porque si para nosotros mismos dichas nociones son irreductibles a otras, no va a haber forma que simbolicamente se exprese eso.

Citar
Al interpretar símbolos como ciertas entidades matemáticas "ideales", se entra necesariamente en el "platonismo", que presupone que los objetos matemáticas existen realmente en algún lugar, y que la lógica sólo se ocupa de "expresar con un lenguaje limitado hechos de una realidad matemática superior".
No necesariamente, si se confía en la capacidad del ser humano de abstraer (en el sentido aristotelico), es decir del poder distinguir patrones, regularidades, cualidades generales.

Citar
¿por qué usamos los razonamientos que usamos? ¿Por qué los consideramos correctos? ¿Cómo ha de darse un razonamiento para que sea correcto?
Es que el punto estaría justamente ahí ¿a que consideramos "correcto"?. Por ejemplo, si yo se que existe \( a \), es correcto decir que es falso que \( a \) no existe ¿por que? porque se ajusta a las nociones previas que tenemos y a la forma en que "se relacionan" dichas nociones, lo que es objeto de estudio de la lógica. Las ramas de la matemática que pude leer, son lógica, aplicada a cierto tipo de nociones previas.
Por otro lado creo que la relevancia del tipo de razonamiento implementado está fundamentalmente en la utilidad de éste. Se que existen "lógicas" imposibles de aplicar, con axiomas diferentes a la lógica usual, pero mi conocimiento acerca de ello es practicamente total.

Citar
No sé respecto a qué, o en qué sentido se puede hablar de la validez de la lógica.
Fue un problema de expresión mío. No me refería a la validez en lógica formal, lo que ineludiblemente me hace recordar a las tablas de verdad :D , sino que me refería a la correspondencia entre lo implementado en la demostración y los resultados de la lógica. En el momento de realizar la demostración se tienen en cuanta las nociones previas y dicha correspondencia.

Citar
Pero la cuestión es que los lógicos mismos investigan esto, y hacen aseveraciones muy complejas "en el aire", y "razonan" como si todos estuviéramos de acuerdo en lo que se entiende por "cadena finita de signos", "número natural", entre otras cuestiones.
Pero ¿qué es lo que usan para razonar?¿la misma lógica que están evaluando? porque de ser así, a priori están aceptando la validez de la lógica para autoevaluarse (nuevamente, no me refiero a la logica formal, sino a la implementación de sus axiomas para concluir proposiciones nuevas).

Citar
Mas, sigue haciendo las mismas cosas que siempre me ponen nervioso: usa subíndices de números naturales, usa la idea de "numerable", efectúa modelos que son "conjuntos".
No es que pretenda insistir demasiado sobre lo mismo :D , sino que no estoy seguro de haber dejado bien en claro cual era mi perspectiva de éstas cosas (por el momento, claro); Más que definiciones circulares, yo noto una relación "íntima" entre dos (o más) nociones que nos son irreductibles. No sé si será el caso de lo que estas leyendo ahora, pero por ejemplo la noción de cardinal me parece que tiene ésta característica y tiene una íntima relación con la noción de conjunto.

Bueno, me voy a descansar.

+ Saludos,

6
Hola. Yo también siento cierta desesperación al notar lo poco solido que se vuelve lo que puedo notar acerca de algo cuando profundizo en él. Más aún en el campo de la matemática, de la cual tengo un preconcepto que se contrapone a situaciones como estas.

Estoy completamente de acuerdo con el hecho de que los temas tratados dentro de lo denominado como matemática precisan un previa aceptación de la "lógica", pero discrepo en el que ésta solo se trate de un conjunto de símbolos que no hacen referencia a algo.

Creo que en este contexto aceptamos, que el "ser humano" es un animal que posee la capacidad de "manipular las nociones que a priori posee y las adquiridas a través de la experiencia" (me disculpo por el exceso de comillas, sabrán entender) y de esa forma obtener nuevas nociones.

Entonces es de notar que la lógica no es solo un montón de lineas distribuidas de una determinada manera, sino que cada curva, cada símbolo "representa", "hace referencia", etc. a una de esas nociones que tenemos. Por otro lado también sabemos como interpretar símbolos compuestos de otros símbolos (las proposiciones) los cuales hacen referencia a la noción que tenemos de una cierta "situación"; la forma de interpretar éstos símbolos se reduce a la interpretación de los símbolos contenidos y a la "posición relativa" entre ellos. De esa forma, se puede notar que solo son "válidos" cierto conjunto de símbolos, porque hay limitadas y determinadas maneras en las que relacionamos las nociones que tenemos, y los símbolos hacen referencia a dichas nociones.
(notar que las nociones de "posición relativa", "composición" y demás, también son nociones previas, las cuales se manipulan en el uso e interpretación del lenguaje lógico pero no necesariamente se hace referencia a ellas con un símbolo de forma explicita).

Tal vez el problema radica en establecer solo axiomas iniciales emparentados con lo que uno cree que se trata la "rama" de la matemática que está tratando. En este contexto, donde hablamos de las bases, me parece claro que los axiomas son las nociones previas que tenemos, por lo que no tener en cuenta todos los axiomas, es no tener en cuenta todas las nociones que consideramos válidas a priori.

A mi me parece que "fundamentar la lógica" no tiene mucho sentido, porque cuando se intenta demostrar (por ejemplo) un teorema, es decir, fundamentarlo, se intenta notar que éste es lógicamente válido, por lo que "fundamentar la lógica" sería intentar notar que ésta es lógicamente válida, lo que es trivial.
Tal vez, así como se puede demostrar que un teorema es lógicamente válido, se podría demostrar que la lógica es válida con respecto a otra cosa (¿la realidad?), pero no creo que tenga mucho sentido intentar notar si es válida en el sentido usual que se le da al término.

Espero no desencadenar varios mensajes de insultos :D .

Saludos ;)

7
Hola nuevamente; Tal vez en el primer mensaje no me di a entender del todo, voy a probar con un ejemplo:

Si tengo una transformación lineal de polinomio característico \( P_t = (x-a)^4 (x-b)^3 \) y polinomio minimal \( m_t= (x-a)^{3} ( x-b)^{2} \) sé que la matriz de jordan tiene dos bloques que contienen a los bloques elementales, donde el primero tendrá 4 columnas, y el segundo 3 columnas, es decir que tendrá el formato (teniendo en cuenta el resto de datos implícitos que hay):

\( \begin{bmatrix}{a}&{0}&{0}&{0}&{0}&{0}&{0}\\{1}&{a}&{0}&{0}&{0}&{0}&{0}\\{0}&{1}&{a}&{0}&{0}&{0}&{0}\\{0}&{0}&{0}&{a}&{0}&{0}&{0}\\ {0}&{0}&{0}&{0}&{b}&{0}&{0} \\ {0}&{0}&{0}&{0}&{1}&{b}&{0}\\ {0}&{0}&{0}&{0}&{0}&{0}&{b}\end{bmatrix} \)

Ésta matriz, según lo que tengo entendido, sale de considerar en principio el teorema de la descomposición prima, y luego el teorema de la descomposición cíclica en el caso particular de operadores nilpotentes. Es decir, del teorema de la descomposición prima se sabe que la matriz de la transformación tiene dos bloques correspondientes a los subespacios invariantes \( Ker (T-Ia)^3 \) y \( Ker (T-Ib)^2 \). A partir de la matriz se puede notar que dichos espacios tienen una dimensión igual a la multiplicidad algebraica del factor en el polinomio característico; en éste ejemplo \( dim \ Ker (T-Ia)^3=4 \) y \( dim \ Ker (T-Ib)^2=3 \).

Estoy convencido de que esos son los bloques correspondientes a la implementación del teorema nombrado, porque si luego se aplica el teorema de la descomposición cíclica sobre ellos (que aún no tendrían esas entradas) sale "naturalmente" la forma de jordan.

Espero haberme explicado un poco mejor ;) .

Espero sus entusiastas respuestas :D.

Saludos

8
 ???

No tengo problemas de reconocer un error si noto que lo tengo. Nada cambia por ello.

La respuesta que te dejé fue para hacer notar que lo que interpretaste no era lo que yo había expuesto. Te invito a que vuelvas a revisar lo que escribí, que es lo siguiente:

\( < \vec a , \vec v > = 0 \rightarrow <\vec b - \vec c, \vec v> = 0 \) , es decir que si el vector a es ortogonal a otro, el vector b-c también es ortogonal a él (en el caso de ser paralelos entre ellos).

Lo que escribí está a la vista.

Por otro lado, poco amigo soy de las frases populares, menos aún si se fundamentan con nada.

Me desagrada la actitud de necedad, y por eso me desagradó notar que mencionabas que yo la practicaba. Si noto que estoy errado, bien por mi, ya que no vuelvo a errar de esa forma en ese aspecto.


9
Hola

Por ahí no, Ser Humano el producto escalar de dos vectores paralelos, no nulos,  es distinto de cero.


Lo se, pero lo que planteaba no era eso; Es decir, que no puse que \( <\vec a , \vec b -\vec c> = 0 \), porque de ser así serian ortogonales, y no paralelos.
Lo que proponía era notar que si dos vectores son paralelos, y uno de ellos es ortogonal a un vector \( \vec v \), entonces el otro vector también es ortogonal a \( \vec v \).
Espero haber clarificado las cosas :) .

Saludos

10
Sí, tenés toda la razón. Gracias ;).

Saludos

11
Cálculo 1 variable / Re: Límites
« en: 22 Julio, 2010, 01:10 am »
Hola. El elemento k-ésimo de la sucesión de 1) me parece que es \( \Pi_{i=1}^{k} \sqrt[2^{i} ]{2} \), ya que \( \{ \sqrt[ ]{2}, \sqrt[ ]{2 \sqrt[ ]{2}}, \sqrt[ ]{2\sqrt[ ]{2\sqrt[ ]{2}}}, ... \} = \{\sqrt[ ]{2}, \sqrt[ ]{2} \sqrt[4 ]{2}, \sqrt[ ]{2}\sqrt[ 4]{2}\sqrt[8 ]{2},... \} =\{ \sqrt[ ]{2}, \sqrt[ ]{2}\sqrt[2^2 ]{2}, \sqrt[ ]{2}\sqrt[ 2^2]{2}\sqrt[ 2^3]{2},... \} \).

 Por lo tanto, cuando \( k \) tiende a infinito, el elemento tiende a uno.

Saludos

12
Hola argentinator; se que muchas veces tal vez uno considere que una demostración que afirma como conclusión algo que por lo general no se considera cierto, no amerita el tiempo que llevaría leerla, por ser probablemente erronea. Posiblemente ese sea el caso de la demostración que acabo e exponer, pero de ser así, no puedo notar el error tras revisarla más de una vez. Por lo que, hasta notar lo contrario, no me puedo permitir aceptar algo diferente a lo que expone, incluso notando las incongruencias que ésto tiene con lo ejemplos de límites que se mostraron antes en éste mismo hilo. Me alienta un poco (muy poco  ;D ) el hecho de que en el mundo de los límites hay menos implicaciones directas, y más aceptaciones por conveniencia.
En la demostración se está intentando ver el valor de \( 0^0 \) no como cardinal de un conjunto, sino como el valor algebraico que toma esa operación.
Estaría muy agradecido si se pueden tomar el tiempo para indicarme donde está (en el caso de estar) el error.

Saludos ;)

13
Hola. Yo resolvería los determinantes de cada producto vectorial, luego notaría cuales son las equivalencias coordenada a coordenada. Otra cosa a tener en cuenta es que si los dos vectores son paralelos, \( < \vec a , \vec v > =0 \rightarrow <\vec b - \vec c , \vec v> = 0 \).

Saludos

14
Hola nuevamente a todos. Estuve pensando acerca de éste tema y me parece que tengo una demostración que expone que \( 0^0=1 \). Lo que no entiendo es como reconciliar éste hecho con los resultados de los límites.

Partamos del hecho de que todo polinomio \( p= \displaystyle\sum_{i=0}^n{\alpha_i (x-a)^{i}} \) centrado en \( a \) se puede escribir como \( p = \displaystyle\sum_{i=0}^n{\dfrac{p^{(i)} (a)}{i!} (x-a)^{i}} \) . Tengo una demostración por inducción que realice de ello pero es bastante larga, y si es un hecho conocido no creo que valga la pena exponerla. Dicha demostración, claramente, no implementa el hecho de que \( 0^0=1 \). Si consideran que es preferible que la exponga, solo me lo hacen saber ;) .

Continuemos; Como \( \{ z^{i} / i \in \mathbb{N} \} \) es la base canónica de los polinomios en los \( \mathbb{R} \), y podemos tomar \( z= x-a \), todo polinomio se puede escribir como combinación lineal de elementos de éste conjunto y además los coeficientes correspondientes a cada elemento en la combinación lineal serán únicos. Por lo tanto, de las expresiones de \(  p \) expuestas se nota que :

\( \alpha_i =\dfrac {p^{(i)} (a)}{i!}  \rightarrow \alpha_i \ i! = p^{(i)}(a) \)

Claramente \( p^{(k)} (x) = \displaystyle\sum_{i=k}^n{\alpha_i \dfrac {i!}{(i-k)!} (x-a)^{i-k} } \). Esto es notorio tanto teniendo en cuenta cuanto es la derivada de \( x^r \), como si (en el caso de querer ser un poco más estrictos) se aplica inducción sobre el orden de la derivada, calculándolo a partir del cociente incremental. Básicamente se trata de notar que cuando el grado del factor es menor al orden de la derivada, la función derivada de éste es cero, y cuando es mayor o igual, la función derivada tiene ese formato.
De estos hechos se llega a que:

\( \alpha_k k! = \displaystyle\sum_{i=k}^n{\alpha_i \dfrac {i!}{(i-k)!} (a -a)^{i-k} \)

Como para todo \( i>k \) \( 0^{i}=0 \):

\( \alpha_k k! = \alpha_k k! 0^0 \)

Sin perdida de generalidad, suponemos \( \alpha_k \neq 0 \), entonces :

\( 0^0 =1 \)

Bueno, ustedes me dirán. Lo miré varias veces y no le noto errores.

Saludos :)

15
Hola.
Estaba pensando acerca de la forma de Jordan de una matriz, y al notar que la cantidad de columnas de un bloque (no elemental), es decir, la dimensión de los subespacios correspondientes a la descomposición enunciada en el teorema de la descomposición prima, coincide con la multiplicidad algebraica en el polinomio característico del factor relacionado con el subespacio. Para ser mas claro:

Si el polinomio minimal de T es:
\( m=\displaystyle\sum_{i=1}^n{(x-a_i)^{k_i}} \)

y el polinomio característico es:
\( c=\displaystyle\sum_{i=1}^n{(x-a_i)^{j_i}} \)

Entonces

\( dim \ Ker (T-Ia_i)^{k_i} = j_i \)

Supongo que es un hecho general, que debe ser corolario del teorema de la descomposición prima.

Bueno, me gustaría saber como puedo notar (es decir, demostrar) este hecho. Estuve pensándolo un rato pero no se me ocurre una forma de notarlo, así que cualquier ayuda será agradecida.

Saludos ;)

16
Ahh, claro.

Gracias por la respuesta ;)

Saludos

17
Dejo este mensaje para agradecer los enlaces que dejo el_manco, muy buenos son  :)

Saludos

18
Hola, tengo éste problema que no puedo resolver:

Sea \( T \) endomorfismo sobre \( \mathbb{R}^3 \) representado en la base canónica por la matriz :
\(
\begin{bmatrix}{3}&{1}&{-1}\\{2}&{2}&{-1}\\{2}&{2}&{0}\end{bmatrix} \)

Hallar un \( D \) y un \( N \) tal que \( T=D+N \) con \( D \) diganolizable y \( N \) nilpotente.

Creo poder hacerlo en el caso de que el polinomio característico se pueda descomponer en factores lineales, pero éste no es el caso.
Y la verdad que no se como hacer  :(

Cualquier idea es bienvenida, y si es útil, mucho más :D .

Saludos

19
Foro general / Re: Significado de los exponentes Racionales
« en: 08 Julio, 2010, 06:08 am »
Sí, fue un error de cálculo. El indice de la raíz sería nuevamente 100, y no 49.
 De todas formas el objetivo era que se notara que se puede aplicar con facilidad las propiedades de la potenciación para resolver esos cálculos, y hacerlo como sea más conveniente sin necesidad de seguir de forma estricta un algoritmo, ni tener que recordar algo.

Saludos

20
Hola.
Citar
Hola. Precisamente, tú lo has dicho, si son distintos no se puede aplicar la regla... pero es que si son iguales la equivalencia es 1;
Que la equivalencia sea 1 es porque una magnitud es 1 vez ella misma. El problema con el cero es que el cero es una vez él mismo, pero también es 67 veces él mismo, y también media vez.

Citar
las matemáticas no entienden de eso, igual que no saben sin un número es primo por el hecho de poner "p", si las dos cosas son lo mismo la equivalencia es 1.
Creo que nadie aquí afirmo algo tan absurdo como lo que refutas :D

Citar
Por otra parte, otra cosa que he pensado al hilo desto: está prohibido dividir por cero. Sin embargo [\displaystyle\frac{0}{0}]  se utiliza para determinar formalmente un tipo de indeterminación
No solamente es un tipo de nomenclatura. Existen limites que no son determinados exclusivamente por sus factores, por ejemplo cuando se trata de un cociente en donde cada uno tiende a cero. Entonces se habla de una indeterminación (no está determinado por esos factores), ya que ambos dan cero. Eso no implica que el resultado se cero dividido cero, ni mucho menos. Solo se hace referencia a el motivo por el que la expresión no está deteminada directamente por sus factores.

Citar
¿es correcto usar algo que está prohibido, que está mal, para definir un concepto matemático y pretender que sea correcto?
Por lo general noto que para indicar que se trata de una indeterminación de este tipo se usan corchetes, es decir que se indica \( [\dfrac 0 0 ] \) , ya que no se trata de una cantidad, sino que del motivo de la indeterminación.

Citar
En fin, yo lo tengo claro, luego, unos autores dirán una cosa u otra, pero para mí es así. :sonrisa:
Cada uno puede establecerse dogmáticamente lo que quiera, pero eso no indica que sea correcto.

Saludos :)

Páginas: [1] 2 3 4