Autor Tema: Formas bilineales y espacios vectoriales

0 Usuarios y 1 Visitante están viendo este tema.

14 Noviembre, 2022, 05:02 am
Respuesta #10

athairdos

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 196
  • País: ar
  • Karma: +0/-0
  • Sexo: Masculino
Gracias; para tratar de aclarar algo de la notacion, he podido conseguir otra referencia distinta; hasta aqui, trata sobre matrices cuadradas como tensores de segundo orden segun la siguiente regla; dados dos vectores \( (u_{1}, u_{2}, u_{3}) \) y \( (v_{2}, v_{2}, v_{3} \)), espresa el tensor en cuestion como:

\( \begin{bmatrix}u_{1}v_{1}&u_{1}v_{2}&u_{1}v_{3}\\u_{2}v_{1}&u_{2}v_{2}&u_{2}v_{3}\\u_{3}v_{1}&u_{3}v_{2}&u_{3}v_{3}\end{bmatrix} \); luego explica la notacion ulterior en terminos de \( t_{ij} \); etc.

Una de las dudas es la siguiente: cada entrada en el tensor consta de 9 sumandos (en total habria 81 sumandos en el tensor); luego, la duda la podria experesar del siguiente modo; cual seria la relacion entre las entradas del tensor, ya sea tomadas individualmente o en su conjunto (todo el tensor), por un lado, y el simbolo \( u\otimes{v} \)? comprende este simbolo a todas las entradas del tensor?

El libro denomina a la matrizz en cuestion, por un lado "producto tensorial", y casi seguido, tambien "tensor" (en particular, de segundo orden); por otro lado, el simbolo que usa para ella es \( (u_{i}v_{j}) \) (en ningun momento se usa el simbolo \( u\otimes{v} \) ni \( U\otimes{V} \); respecto de este ultimo, atendiendo al hecho de que se llama regularmente "producto tensorial", entiendo que seria equivalente al simbolo  \( (u_{i}v_{j}) \) en terminos de la notacion del libro; luego, me imagino que el simbolo \( u\otimes{v} \) podria representar a las entradas individualmente (algo asi como un \( u_{i}\otimes{v_{j}} \) por cada entrada (?).

El hecho de que cada entrada implique 9 sumandos esta en concordancia con que la dimension del espacio vectorial asociado sea \( 3\times{3}=9 \) de modo tal que el conjunto de todas las entradas podria representar una base en algun sistema de coordenadas (esto de deduce en parte del desarrollo del libro). En todo caso, la duda es la del parrafo anterior, acerca de la relacion con el simbolo \( u\otimes{v} \) principalmente y, de paso, con el simbolo \( U\otimes{V} \)(?).

Gracias, saludos.



 

14 Noviembre, 2022, 10:08 am
Respuesta #11

geómetracat

  • Moderador Global
  • Mensajes: 3,328
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Esto del producto tensorial de espacios vectoriales es mucho más sencillo de lo que parece, pero como te pongas a mirar de varias fuentes que encima usan notaciones y convenios distintos, tienes todas las papeletas para hacerte un lío. En particular, en tu último mensaje la notación que usan es más bien la notación física, que evita la mención explícita de bases a cambio de ir poniendo subíndices en todas partes.

Primero, qué es el producto tensorial de dos espacios vectoriales \( V, W \). El producto tensorial es otro espacio vectorial, \( V \otimes W \), equipado con una aplicación bilineal \( \phi : V \times W \to V \otimes W \), que cumple una cierta propiedad universal: dado otro espacio vectorial cualquiera \( U \) y una aplicación bilineal cualquiera \( h:V \times W \to U \) existe una única aplicación lineal \( \tilde{h}:V \otimes W \to U \) que cumple que \( h = \tilde{h} \circ \phi \).
Esto puede parecer un galimatías, pero es la manera correcta de entender el producto tensorial, y todas sus propiedades salen de ahí. La intuición que hay detrás de esta definición es que el producto tensorial te permite cambiar una aplicación bilineal con dominio \( V \times W \) en una aplicación lineal con dominio un espacio vectorial (el producto tensorial \( V \otimes W \)). De manera que lo que hace el producto tensorial es reducir el álgebra multilineal al álgebra lineal de toda la vida.

Dicho esto, ¿cómo puede entender uno el producto tensorial en términos concretos? La clave está en la aplicación bilineal \( \phi: V \times W \to V \otimes W \), que forma parte de la definición de producto tensorial. La notación para la imagen de un par de vectores por esta aplicación es: \( \phi(v,w) =: v \otimes w \), y al vector \( v \otimes w \in V \otimes W \) se le llama "producto tensorial de \( v \) y \( w \)". Fíjate que estamos usando el símbolo \( \otimes \) para dos cosas muy distintas. Por un lado lo usamos para el producto tensorial de espacios vectoriales, que nos da otro espacio vectorial, y por otro lado lo usamos para el producto tensorial de dos vectores, que nos da un vector de \( V \otimes W \).

Ahora hay que tener en cuenta dos cosas. La primera, es que en general \( \phi \) no es exhaustiva, pero sí que su imagen genera \( V \otimes W \). Esto quiere decir que un vector de \( V \otimes W \) no se puede expresar en general como producto tensorial de dos vectores, \( v \otimes w \), pero siempre se puede expresar como combinación lineal de estos vectores. Es decir, un vector de \( V \otimes W \) siempre es de la forma \( \lambda_1 v_1 \otimes w_1 + \lambda_2 v_2 \otimes w_2 + \dots + \lambda_n v_n \otimes w_n \), con \( v_1, \dots, v_n \in V, w_1, \dots, w_n \in W \) y los \( \lambda_1, \dots, \lambda_n \) escalares.
La segunda cosa a tener en cuenta es que \( \phi \) es una aplicación bilineal, lo que en términos del producto escalar de vectores se traduce en lo siguiente:
\( (v_1+v_2) \otimes w = v_1 \otimes w + v_2 \otimes w \)
\( (\lambda v) \otimes w = \lambda (v \otimes w) \)
\( v \otimes (w_1 + w_2) = v \otimes w_1 + v \otimes w_2 \)
\( v \otimes (\lambda w) = \lambda (v \otimes w) \)
Y de hecho estas propiedades son las únicas que debes conocer del producto tensorial de dos vectores. Todo sale de ahí.

Ahora vamos a aprovechar estas dos observaciones para llegar a una descripción muy explícita de \( V \otimes W \). Fija una base \( e_1, \dots, e_n \) de \( V \) y una base \( u_1, \dots, u_m \) de \( W \). Si tenemos un vector de la forma \( v \otimes w \), siempre podemos expresar \( v = \lambda_1 e_1 + \dots + \lambda_n e_n \) y \( w = \mu_1 u_1 + \dots + \mu_m u_m \), por lo tanto, \( v \otimes w = (\lambda_1 e_1 + \dots + \lambda_n e_n) \otimes (\mu_1 u_1 + \dots + \mu_m u_m) = \lambda_1 \mu_1 (e_1 \otimes u_1) + \lambda_1 \mu_2 (e_1 \otimes u_2) + \dots + \lambda_n\mu_m (e_n \otimes \mu_m) = \sum_{i=1}^n \sum_{j=1}^m \lambda_i\mu_j (e_i \otimes u_j) \).
La consecuencia de este cálculo es que cualquier vector \( v \otimes w \) es combinación lineal de los productos tensoriales de vectores de las bases, \( e_i \otimes u_j \). Por la otra observación, cualquier elemento de \( V \otimes W \) es combinación lineal de vectores de la forma \( v \otimes w \). Por lo tanto, llegamos a que cualquier vector de \( V \otimes W \) se expresa como combinación lineal de los vectores \( e_i \otimes u_j \). Se puede demostrar además que estos \( e_i \otimes u_j \) son linealmente independientes, por lo que forman una base de \( V \otimes W \), y por tanto, \( dim(V \otimes W)=(dim V)(dim W) \).

Así pues, la descripción de \( V \otimes W \) es tan sencilla como esto. Tomas bases de \( V \) y de \( W \), formas todos los productos tensoriales de los elementos de esas dos bases, y eso te da una base de \( V \otimes W \). Y en términos de estas bases, el producto tensorial de dos vectores se expresa como dijimos antes: \( v \otimes w = (\lambda_1 e_1 + \dots + \lambda_n e_n) \otimes (\mu_1 u_1 + \dots + \mu_m u_m) = \sum_{i=1}^n \sum_{j=1}^m \lambda_i\mu_j (e_i \otimes u_j) \).

Si entiendes esto, todo lo demás ya sale solo. Por ejemplo, cuando en tu último mensaje dices:
hasta aqui, trata sobre matrices cuadradas como tensores de segundo orden segun la siguiente regla; dados dos vectores \( (u_{1}, u_{2}, u_{3}) \) y \( (v_{2}, v_{2}, v_{3} \)), espresa el tensor en cuestion como:

\( \begin{bmatrix}u_{1}v_{1}&u_{1}v_{2}&u_{1}v_{3}\\u_{2}v_{1}&u_{2}v_{2}&u_{2}v_{3}\\u_{3}v_{1}&u_{3}v_{2}&u_{3}v_{3}\end{bmatrix} \); luego explica la notacion ulterior en terminos de \( t_{ij} \); etc.
Lo que está haciendo aquí es trabajar en \( \Bbb R^3 \) con la base canónica \( e_1=(1,0,0), e_2=(0,1,0), e_3=(0,0,1) \), de manera que un vector de \( \Bbb R^3 \) cualquiera es \( (u_1,u_2,u_3)=u_1e_1+u_2e_2+u_3e_3 \). Entonces, el producto tensorial de dos vectores de \( \Bbb R^3 \) (que vive en \( \Bbb R^3 \otimes \Bbb R^3 \)) es \(
\begin{align*}
(u_1, u_2, u_3) \otimes (v_1, v_2, v_3) &= (u_1e_1+u_2e_2+u_3e_3) \otimes (v_1e_1+v_2e_2+v_3e_3) = \\
&= u_1v_1 e_1 \otimes e_1 + u_1v_2 e_1 \otimes e_2 + u_1v_3 e_1 \otimes e_3 + u_2v_1 e_2 \otimes e_1 + u_2v_2 e_2 \otimes e_2 + u_2v_3 e_2 \otimes e_3 + u_3v_1 e_3 \otimes e_1 + u_3v_2 e_3 \otimes e_2 + u_3 v_3 e_3 \otimes e_3
\end{align*}
 \).
Y lo que hace el libro este es identificar esto con una matriz \( 3 \times 3 \) donde en la fila \( i \) y la columna \( j \) aparece el coeficiente que acompaña a \( e_i \otimes e_j \), es decir, \( u_iv_j \).

Esto es muy habitual en física, donde normalmente siempre se trabaja en coordenadas (es decir, hay unas bases fijadas), y entonces puedes omitir las bases y trabajar exclusivamente con las componentes. Por eso ahí no te vas a encontrar los \( e_i \otimes e_j \), sino que estos quedan siempre implícitos.

Espero que este mensaje te haya aclarado algo. Si algo no queda claro vuelve a preguntar.
La ecuación más bonita de las matemáticas: \( d^2=0 \)

24 Noviembre, 2022, 02:54 am
Respuesta #12

athairdos

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 196
  • País: ar
  • Karma: +0/-0
  • Sexo: Masculino
Hola; muchas gracias por toda la ayuda y la gran paciencia; no he podido responder antes, en parte debido a mi falta de entendimiento sobre el tema; he encontrado en el interin una explicación alternativa, tal que parece incorporar algunos elementos generales que valdría conocer independientemente; y que apuntan al tema en cuestión.

La explicación se centra en la correspondencia bilineal \( U^{*}\times{V}\rightarrow{Hom(U, V)} \) dada por \( (\varphi, v)(u)\rightarrow{\varphi(u)v} \), siendo \( \varphi \) un elemento del Dual \( U^{*} \),

Tengo algunas dudas sobre la interpretación de esa correspondencia bilineal, que trato de explicar aquí:

El contexto sería: \( U^{*}=(\mathbb{R^{2}})^{*} \) y \( V=\mathbb{R^{3}} \).

La cuestión sería acerca del rango y la nulidad en las aplicaciones (lineales) que surgen de la correspondencia bilineal  \( (\varphi, v)(u)\rightarrow{\varphi(u)v} \), al fijar \( \varphi=\varphi_{0} \) y \( v=v_{0} \), respectivamente.

En el primer caso, se tendría la aplicación \( (\varphi_{0}, v):u\rightarrow{\varphi_{0}(u)v} \).

Aquí aparecen mis dudas; en relación al rango y la nulidad de esa aplicación, según el análisis que describo a continuación, llego a que el rango sería \( \leq{2} \) y la nulidad seria \( \geq{1} \); más allá de la respuesta en sí (y de si es correcta o no) el análisis por medio del cual llego a la misma involucra los conceptos de base de \( U \) y del dual \( U^{*} \) que serían de utilidad ya sea en este contexto o en otros.

Mi razonamiento es como sigue:

1-Por un lado \( dim(U)=dim(U^{*})=2 \)

2-Para elegir una funcional específica \( \varphi=\varphi_{0} \) se debe tener en cuenta que:

Dadas las bases \( \beta_{1}, \beta_{2} \) para \( U \) y \( f_{1}, f_{2} \) para \( U^{*} \), se tiene que la funcional elegida \( \varphi_{0} \) puede ser de 2 clases:

a) Puede ser un elemento de la base de \( U^{*} \) (o múltiplo escalar: digamos \( \varphi_{0}=c_{i}f_{1} \)), en cuyo caso, debido a la relación \( \beta_{i}f_{j}=1 \) o \( \beta_{i}f_{j}=0 \) según si \( i=j \) o \( i\neq{j} \), se podría tener que la imagen resultante sería de la forma \( \begin{bmatrix}c_{1}&0\end{bmatrix} \).

b) Puede ser un elemento de \( U^{*} \) dado por alguna combinación lineal de los elementos de su base; en este caso, la imagen resultante sería de la forma \( \begin{bmatrix}c_{1}&c_{2}\end{bmatrix} \), con \( c_{1}\neq{0} \) y \( c_{2}\neq{0} \).

3-Segun mi razonamiento, según si la funcional \( \varphi_{0} \) elegida sea de la clase a) o de la clase b), en forma respectiva sera el rango (y la nulidad) de la aplicación \( (\varphi_{0}, v):u\rightarrow{\varphi_{0}(u)v} \).

Es el punto 2 anterior, correcto?
Idem 3 (?)

Tengo otras dudas, en particular sobre la "implementación" concreta de aplicación en cuestión; me pregunto si se podría escribir, por ejemplo, lo siguiente:

Para un caso como el 2-b) anterior: \( \begin{bmatrix}c_{1}&c_{2}\end{bmatrix} \begin{bmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\end{bmatrix}= \begin{bmatrix}c_{1}a_{11}+c_{2}a_{21}&c_{1}a_{12}+c_{2}a_{22}&c_{1}a_{13}+c_{2}a_{23}\end{bmatrix} \in{S} \), con \( S\in{\mathbb{R^{3}}} \) y \( dim(S)=2 \); esto justificaría un rango en cuestión=2 y nulidad=1.

En el caso como el 2-a), se tendría un producto \( \begin{bmatrix}c_{1}&0\end{bmatrix} \begin{bmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\end{bmatrix} \) que implicaría, un rango=1 y nulidad=2.

El rango y la nulidad en la aplicación lineal anterior, serian lógicamente, en el contexto de la correspondencia lineal \( \mathbb{R^{2}}\rightarrow{\mathbb{R^{3}}} \).

Mi duda en este respecto (la adecuación de la expresión matricial anterior, etc.)  se origina en que en la imagen (\( \rightarrow{\varphi_{0}(u)v} \)) de la notación para la aplicación lineal, se tiene al elemento \( v\in{\mathbb{R^{3}}} \); esto es compatible con el elemento final obtenido en el 1er producto matricial precedente, por ej.; y todo esto coincide con que la aplicación total es de la forma \( \mathbb{R^{2}}\rightarrow{\mathbb{R^{3}}} \). Sin embargo, la notación "parece" sugerir un producto de un escalar y un vector; de manera que no me queda totalmente claro si el uso simultáneo de dos productos tales, implicito en el producto del tipo "vector fila x matriz 2x3", es correcto.

En resumen, mis dudas son acerca de la interpretación/implementación de la corresponencia dada \( (\varphi_{0}, v):u\rightarrow{\varphi_{0}(u)v} \) en tanto implica la interacción de las bases de \( V \) y \( V^{*} \), por un lado; y por otro, sobre como debe ser la composición de dicha interacción, con elementos \( v\in{V} \) (\( U\neq{V} \), etc.).

Saludos








24 Noviembre, 2022, 10:53 am
Respuesta #13

Luis Fuentes

  • el_manco
  • Administrador
  • Mensajes: 52,456
  • País: es
  • Karma: +0/-0
Hola

En el primer caso, se tendría la aplicación \( (\varphi_{0}, v):u\rightarrow{\varphi_{0}(u)v} \).

Si. No pierdas de vista que eso es una aplicación lineal: \( V\to Hom(U,V) \)

Citar
Aquí aparecen mis dudas; en relación al rango y la nulidad de esa aplicación, según el análisis que describo a continuación, llego a que el rango sería \( \leq{2} \) y la nulidad seria \( \geq{1} \); más allá de la respuesta en sí (y de si es correcta o no) el análisis por medio del cual llego a la misma involucra los conceptos de base de \( U \) y del dual \( U^{*} \) que serían de utilidad ya sea en este contexto o en otros.

Mi razonamiento es como sigue:

1-Por un lado \( dim(U)=dim(U^{*})=2 \)

Bien.

Citar
2-Para elegir una funcional específica \( \varphi=\varphi_{0} \) se debe tener en cuenta que:

Dadas las bases \( \beta_{1}, \beta_{2} \) para \( U \) y \( f_{1}, f_{2} \) para \( U^{*} \), se tiene que la funcional elegida \( \varphi_{0} \) puede ser de 2 clases:

a) Puede ser un elemento de la base de \( U^{*} \) (o múltiplo escalar: digamos \( \varphi_{0}=c_{i}f_{1} \)), en cuyo caso, debido a la relación \( \beta_{i}f_{j}=1 \) o \( \beta_{i}f_{j}=0 \) según si \( i=j \) o \( i\neq{j} \), se podría tener que la imagen resultante sería de la forma \( \begin{bmatrix}c_{1}&0\end{bmatrix} \).

b) Puede ser un elemento de \( U^{*} \) dado por alguna combinación lineal de los elementos de su base; en este caso, la imagen resultante sería de la forma \( \begin{bmatrix}c_{1}&c_{2}\end{bmatrix} \), con \( c_{1}\neq{0} \) y \( c_{2}\neq{0} \).

Esa distinción es innesaria y artificial. Al fin y al cabo sus coordenadas dependen de la base que se seleccione. No tiene trascendencia ninguna.

Citar
3-Segun mi razonamiento, según si la funcional \( \varphi_{0} \) elegida sea de la clase a) o de la clase b), en forma respectiva sera el rango (y la nulidad) de la aplicación \( (\varphi_{0}, v):u\rightarrow{\varphi_{0}(u)v} \).

Es el punto 2 anterior, correcto?
Idem 3 (?)

No. No tiene nada que ver. Sólo importa si \( \varphi_0  \)es la función nula o no.

El núcleo de la aplicación:  \( h:V\to Hom(U,V) \) definida como:

\( h(v)(u)=\varphi_0(u)\cdot v \)

Estará formado por aquellos vectores \( v\in V \) cuya imagen \( h(v)\in H(u,v) \) es el homomorfismo nulo, es decir,:

\( \varphi_0(u)v=0 \) para dodo \( u\in U \).

- Si \( \varphi_0 \) NO es el covector nulo, entonces existe un \( u\in U \) tal que \( \varphi_0(u)\neq 0 \) y por tanto \( \varphi_0(u)v=0 \) si y sólo si \( v=0 \). Es decir en ese caso el núcleo \( ker(h)=\{0\} \) (o la nulidad como le llamas tu). En ese caso además el rango tiene dimensión \( dim(V) \).

- Si \( \varphi_0 \) el covector nulo, entonces obviamente \( \varphi_0(u)v=0 \) para dodo \( u\in U \) y para todo \( v\in V \) y por tanto el núcleo \( ker(h)=V \) (o la nulidad como le llamas tu). En ese caso el rango es cero.

Citar
Tengo otras dudas, en particular sobre la "implementación" concreta de aplicación en cuestión; me pregunto si se podría escribir, por ejemplo, lo siguiente:

Para un caso como el 2-b) anterior: \( \begin{bmatrix}c_{1}&c_{2}\end{bmatrix} \begin{bmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\end{bmatrix}= \begin{bmatrix}c_{1}a_{11}+c_{2}a_{21}&c_{1}a_{12}+c_{2}a_{22}&c_{1}a_{13}+c_{2}a_{23}\end{bmatrix} \in{S} \), con \( S\in{\mathbb{R^{3}}} \) y \( dim(S)=2 \); esto justificaría un rango en cuestión=2 y nulidad=1.

En el caso como el 2-a), se tendría un producto \( \begin{bmatrix}c_{1}&0\end{bmatrix} \begin{bmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\end{bmatrix} \) que implicaría, un rango=1 y nulidad=2.

El rango y la nulidad en la aplicación lineal anterior, serian lógicamente, en el contexto de la correspondencia lineal \( \mathbb{R^{2}}\rightarrow{\mathbb{R^{3}}} \).

Mi duda en este respecto (la adecuación de la expresión matricial anterior, etc.)  se origina en que en la imagen (\( \rightarrow{\varphi_{0}(u)v} \)) de la notación para la aplicación lineal, se tiene al elemento \( v\in{\mathbb{R^{3}}} \); esto es compatible con el elemento final obtenido en el 1er producto matricial precedente, por ej.; y todo esto coincide con que la aplicación total es de la forma \( \mathbb{R^{2}}\rightarrow{\mathbb{R^{3}}} \). Sin embargo, la notación "parece" sugerir un producto de un escalar y un vector; de manera que no me queda totalmente claro si el uso simultáneo de dos productos tales, implicito en el producto del tipo "vector fila x matriz 2x3", es correcto.

Si \( U=\Bbb R^2 \) y \( V=\Bbb R^3 \) un elemento \( \varphi_0\in U^* \) es una aplicación lineal \( \varphi_0(x,y)=c_1x+c_2y \).

Ahora la aplicación \( h:\Bbb R^3\to Hom(\Bbb R^2,\Bbb R^3) \) sería:

\( h(p,q,r)(x,y)=\varphi_0(x,y)\cdot (p,q,r)=(c_1x+c_2y)(p,q,r) \)

Si quieres identificar las aplicaciones de \( Hom(\Bbb R^2,\Bbb R^3) \) con su matriz asociada respecto a las bases canónicas sería:

\( h(p,q,r)=\begin{pmatrix}{c_1p}&{c_2p}\\{c_1q}&{c_2q}\\{c_1r}&{c_2r}\\\end{pmatrix} \)

o también puedes escribirlo así:

\( h(p,q,r)=\begin{pmatrix}{p}\\{q}\\{r}\\\end{pmatrix}\cdot \begin{pmatrix}{c_1}&{c_2}\end{pmatrix} \)

Saludos.

25 Noviembre, 2022, 04:37 am
Respuesta #14

athairdos

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 196
  • País: ar
  • Karma: +0/-0
  • Sexo: Masculino
Gracias; la explicación deja en claro varias cuestiones; aún me queda la duda de si esta definición lleva implícita la noción de "acción"; si fuera así, buena.parte de mis dudas se resolverían; hago esta pregunta porque, por ejemplo en la última expresión queda claro que la operación entre el elemento columna \( (p\, q\, r)^{t} \) de \( \mathbb{R^{3}} \) y el elemento \( (c_{1}\,  c_{2}) \) de \( (\mathbb{R^{2}})^{*} \) no es "algebraica" ( ó "interna").

Por lo.pronto, me limito a preguntar algo que se desprende de la definición de \( V\rightarrow{Hom(U, V)} \) como aplicación lineal: las imágenes de los elementos \( (1\,0\, 0)^{t} \), \( (0\, 1\,0)^{t} \) y \( (0\,0\,1)^{t} \) serían las traspuestas de:

\( \begin{bmatrix}c_{2}&0&0\\c_{1}&0&0\end{bmatrix} \)

\( \begin{bmatrix}0&c_{2}&0\\0&c_{1}&0\end{bmatrix} \) y

\( \begin{bmatrix}0&0&c_{2}\\0&0&c_{1}\end{bmatrix} \)

(?).

Gracias

25 Noviembre, 2022, 10:56 am
Respuesta #15

Luis Fuentes

  • el_manco
  • Administrador
  • Mensajes: 52,456
  • País: es
  • Karma: +0/-0
Hola

Por lo.pronto, me limito a preguntar algo que se desprende de la definición de \( V\rightarrow{Hom(U, V)} \) como aplicación lineal: las imágenes de los elementos \( (1\,0\, 0)^{t} \), \( (0\, 1\,0)^{t} \) y \( (0\,0\,1)^{t} \) serían las traspuestas de:

\( \begin{bmatrix}c_{2}&0&0\\c_{1}&0&0\end{bmatrix} \)

\( \begin{bmatrix}0&c_{2}&0\\0&c_{1}&0\end{bmatrix} \) y

\( \begin{bmatrix}0&0&c_{2}\\0&0&c_{1}\end{bmatrix} \)

Si.

Saludos.

01 Diciembre, 2022, 09:58 pm
Respuesta #16

athairdos

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 196
  • País: ar
  • Karma: +0/-0
  • Sexo: Masculino