En el la demostración del teorema \( 5.38 \) empieza con lo siguiente: "Sea \( K \) el cuerpo de cocientes de \( A \). Entonces Mat\( _n(A) \) puede considerarse como un subanillo de Mat\( _n(K) \)".
¿Por qué \( A \) tiene que ser un dominio íntegro? Lo que he entendido respecto a lo anterior citado es que \( A \) tiene que ser un dominio integro para trabajar con Mat\( _n(A) \) visto como subanillo de Mat\( _n(K) \). Se puede considerar como subanillo pues todo elemento de Mat\( _n(A) \) está en Mat\( _n(K) \) ( y ambos tienen estructura de anillos), ya que todo elemento de \( A \) está en \( K \). Además, luego se utilizará \( K- \)módulos que en este caso al ser \( K \) un cuerpo de cocientes, entonces realmente se trabajará con \( K- \) espacios vectoriales (los cuales tienen definida la cardinalidad de su base).
Si \[ A \] no es un dominio íntegro no hay cuerpo de fracciones. El cuerpo de fracciones de un anillo conmutativo es el menor cuerpo \[ K \] que contiene a \[ A \] como subanillo. Pero si \[ A \] tiene divisores de cero, \[ K \] también los tiene y por tanto no puede ser cuerpo. Por eso la demostración que se da ahí no funciona si el anillo no es dominio íntegro.
Dicho esto, el enunciado del teorema (si \[ B, C \in Mat_n(A) \] cumplen \[ BC=I \] entonces son invertibles y \[ B=C^{-1} \]) diría que es cierto para cualquier anillo
conmutativo \[ A \], si no se me escapa nada. La idea es que de \[ BC=I \] tienes que \[ \det(B)\det(C)=1 \], luego \[ \det(B) \] es invertible en \[ A \], y puedes usar la fórmula típica para la inversa con la matriz de adjuntos.
Si \[ A \] no es conmutativo entonces ya no: puede pasar que una matriz tenga inversa por la izquierda pero no por la derecha, o tenga inversa por la derecha pero no por la izquierda.
Luego menciona :" Fijemos una base del espacio vectorial \( K^n \) y consideremos las aplicaciones lineales \( f, g : K^n \rightarrow K^n \) cuyas matrices en la base considerada sean \( B \) y \( C \) respectivamente"
Lo que he entendido respecto a lo anterior citado es que si fijamos una base \( D \) en el \( K- \)módulo \( K^n \), entonces del isomorfismo \( M_B^B:End_K(K^n)\rightarrow Mat_n(K^n) \) encontramos que \( (M_B^B)^{-1}[ \)Mat\( _n(A)] \) es un subanillo de \( End_K(K^n) \) y la imagen de cada elemento de este subanillo pertenece al subanillo Mat\( _n(A) \) (visto como subanillo de Mat\( _n(K) \)) . Entonces, las aplicaciones lineales \( f,g \) a las que hace referencia son elementos de \( (M_B^B)^{-1}[ \)Mat\( _n(A)] \).
Sí, en efecto (aunque \[ M_B^B \] debería ser \[ M_D^D \] con tu notación).
Para demostrar el enciso \( 2 \), ¿se puede considerar a Mat\( _{m\times n}(A) \)Mat\( _{n\times m}(A) \) como subanillo de Mat\( _n(A) \)?
Para 2, tienes que usar que \[ Mat_{m \times n}(A) \] es un subgrupo de \[ Mat_{m \times n}(K) \] y que la multiplicación de matrices \[ Mat_{m \times n}(A) \times Mat_{n \times m}(A) \to Mat_m(A) \] coincide con la restricción de la multiplicación con coeficientes en \[ K \], \[ Mat_{m \times n}(K) \times Mat_{n \times m}(K) \to Mat_m(K) \]. Esto es todo bastante obvio, pues las fórmula para multiplicar matrices siempre es la misma, independientemente del anillo de coeficientes, y como \[ A \] es un subanillo de \[ K \], la multiplicación de dos matrices con coeficientes en \[ A \] siempre va a dar otra matriz con coeficientes en \[ A \].