Mostrar Mensajes

Esta sección te permite ver todos los posts escritos por este usuario. Ten en cuenta que sólo puedes ver los posts escritos en zonas a las que tienes acceso en este momento.

Mensajes - FerOliMenNewton

Páginas: [1] 2 3 4 ... 20
1
No lo implica que \( \hat{G} \) no sea compacto, no está muy bien expresado.
Es un argumento de topología general. Primero, cualquier grupo topológico que sea \( T_0 \) es completamente regular (aquí hay que restringirse al caso de grupos \( T_0 \), en total generalidad no lo tengo claro). Por otro lado es localmente compacto, luego dado \( \gamma \in \hat{G} \), existe un entorno abierto \( U \) con clausura compacta. Como \( \hat{G} \) es completamente regular, existe una función continua \( f:\hat{G} \to [0,1] \) tal que \( f(\gamma)=1 \) y \( f \) se anula en \( \hat{G}\setminus \{0\} \). Esta función es la que buscas, pues está en \( L^1(\hat{G}) \), ya que se anula fuera de un compacto y la medida de Haar de cualquier compacto es finita.
¡Ah okay! Definitivamente lo estaba entendiendo mal :P, ¡muchísimas gracias por la explicación! Ahora lo entiendo :D

Saludos

2
Por lo tanto, si \( G \) no es discreto, \( \hat{G} \) no es compacto, por lo que para cada \( \gamma \in \hat{G} \) puedes tomar una función \( \hat{f} \in L^1(\hat{G}) \) continua que no se anule en \( \gamma \)
Hola, primero que nada muchas gracias por tu orientación :). Creo que ando un poco oxidado en lo que a la topología compacto-abierta se refiere: ¿por qué el hecho de que \( \hat{G} \) no sea compacto implica que para cada \( \gamma \in \hat{G} \) podemos encontrar \( \hat{f} \in L^1(\hat{G}) \) que no se anule en \( \gamma \)? No lo veo tan claro.

De antemano muchas gracias.

Saludos

3
Hola a todos,

Recientemente empecé a leer el libro An introduction to operator algebras por Kehe Zhu, en el capítulo 7 se habla de álgebras de Banach no unitarias, i.e., espacios de banach dotados además de un producto que satisface \( \left\|{xy}\right\| \leq \left\|{x}\right\| \left\|{y}\right\| \) para todos \( x,y \) en el álgebra. El punto es que uno de los ejemplos que se menciona es el de las funciones integrables \( L^1(G) \) de un grupo abeliano localmente compacto \( G \), donde la medida en cuestión es la medida de Haar. Hasta ahora no conocía la medida de Haar (de hecho el libro tampoco la incluye en ningún apéndice :P), brevemente: una medida izquierda (resp. derecha) de Haar \( \mu \) sobre un grupo localmente compacto \( G \) es una medida regular de Borel sobre \( G \) que es finita sobre conjuntos compactos y que es invariante bajo traslaciones izquierdas (resp. derechas), i.e., para todo conjunto boreliano \( S \) se tiene que \( \mu(gS)=\mu(S) \) para todo \( g \in G \).
Ahora supongamos que \( G \) es abeliano y localmente compacto, entonces, se puede definir un producto en \( L^1(G) \) como sigue: dadas \( f,g \in L^1(G) \) se define para todo \( x \in G \):
\( (f*g)(x):=\displaystyle\int_{G}^{}f(xy^{-1})g(y) d\mu(y) \)
Usando el teorema de Fubini se prueba que efectivamente \( \left\|{f*g}\right\| \leq \left\|{f}\right\| \left\|{g}\right\| \). A continuación, el libro menciona que esta álgebra no es unitaria. Bueno, si hay caso en el que lo es: cuando el grupo es discreto pero asumiendo que el grupo no es discreto lo que se me ocurrió fue lo siguiente. Para empezar, recordé lo que  uno hace en \( \mathbb{R} \), i.e., usar la transformada de Fourier. Así que me puse a buscar y resulta que en este caso también se puede definir una transformada de Fourier y se define como sigue: consideremos \( \Gamma:= \left\{{ \gamma: G \longrightarrow{S^1} | \gamma \textrm{ es un homomorfismo continuo}    }\right\} \), entonces para \( f \in L^1(G) \) se define \( \hat{f}: \Gamma \rightarrow \mathbb{C} \) como
\( \hat{f}(\gamma):=\displaystyle\int_{G}^{}{f(g) \overline{\gamma(g)} d \mu(g) } \)
Resulta que esta transformada también satisface que \( \hat{f*g}=\hat{f} \hat{g} \), por lo tanto, si existiera una unidad \( \epsilon \) debería tenerse que \( \hat{\epsilon}(\gamma) \hat{f}(\gamma)=\hat{f}(\gamma) \) para toda \( f \in L^1(G) \) y para toda \( \gamma \in \Gamma \). Luego, me puse a buscar nuevamente y resulta que se tiene la versión del lema de Riemann-Lebesgue: dada \( f \in L^1(G) \) la transformada \( \hat{f} \) es una función continua (se dota a \( \Gamma \) de la topología compacto-abierta) que tiende a cero en  el infinito, i.e., para todo \( \epsilon>0 \) existe un conjunto compacto \( K \subset \Gamma \) tal que si \( \gamma \in \Gamma-K \) entonces \( |\hat{f}(\gamma)| < \epsilon \). Este hecho SUGIERE que la igualdad \( \hat{\epsilon}(\gamma) \hat{f}(\gamma)=\hat{f}(\gamma) \) no puede ser cierta a menos que \( \hat{\epsilon} \equiv 1 \) la cual no tiende a cero en infinito pues es constante. Pero es precisamente este paso de asegurar que \( \hat{\epsilon} \equiv 1 \)   el que no me queda tan claro, i.e., a menos que pueda asegurar la existencia de una \( f \in L(G) \) cuya transformada no se anule en ningún \( \gamma \) no veo tan directo que pueda asegurar que \( \hat{\epsilon} \equiv 1 \). ¿Alguna sugerencia para justificar ese paso?

De antemano muchas gracias.

Saludos

4
Hola,

Consideremos una gráfica \( G=(V,E) \) con \( n \) vertices , i.e., \( V \) es un conjunto con \( n \) elementos y \( E \) es un conjunto cuyos elementos son pares no ordenados de elementos en \( V \). Asumamos además que \( G \) es conexa, i.e., para cualesquiera \( x,y \in V \) existen \( x_1,\ldots,x_k \in V \) tales que \( \left\{{x,x_1}\right\}, \left\{{x_1,x_2}\right\},\ldots,\left\{{x_{k},y}\right\} \) están todos en \( E \). En lo sucesivo, escribiré \( uv \) en vez de \( \left\{{u,v}\right\} \) para elementos en \( E \). Sea \( A \) la matriz de adyacencia de \( G \), i.e, si \( V=\left\{{v_1,\ldots,v_n}\right\} \) entonces \( A_{ij}=1 \) si \( v_i v_j \in E \) y \( A_{ij}=0 \) en otro caso. Dicho lo anterior, estoy leyendo unas notas que afirman que si \( d,r \in \mathbb{N_{+}}^{n} \) (para mí los naturales no incluyen al cero :P pero le pongo un signo + para evitar confusiones haha) son vectores con entradas positivas tales que:
\( (diag(d)-A)r=0 \)
entonces forzosamente las submatrices principales propias  tienen determinante positivo. Estoy de acuerdo en que dichos determinantes deben ser no negativos, pero no me queda claro por qué la conexidad implica que son positivos. La demostración que leí va como sigue:
Supongamos por el contrario que existe \( I \subset \left\{{1,\ldots,n}\right\} \) tal que el determinante de \( K'=K[I] \) es nulo, siendo \( K=(diag(d)-A)diag(r) \) y \( K' \) la matriz principal propia obtenida de quitar la \( k \)-ésima fila y la \( k \)-ésima columna para todo \( k \in \left\{{1,\ldots,n}\right\}-I \). Al ser \( K' \) una matriz entera singular existe \( t \in \mathbb{Z}^n \) no nulo tal que \( K't=0 \). Sea \( i \in I \) tal que \( |t_i|=max \left\{{|t_j|: j \in I}\right\} \). Como \( t \neq 0 \) tenemos que \( |t_i|>0 \), reescalando si es necesario podemos suponer que \( t_i=1 \) y que \( t_j \leq 1 \) para todo \( j \in I  \). Por lo tanto,
\( 0=\displaystyle\sum_{j \in I}^{}{K_{ij}t_j} \)
De aquí:
\( -K_{ii}=\displaystyle\sum_{j\in I-\left\{{i}\right\}}^{}{K_{ij}t_j} \)
Si \( \hat{1} \) denota el vector de puros \( 1 \) entonces también se tiene por hipótesis que \( K \hat{1}=0 \) y por tanto  también se tiene que:
\( -K_{ii}=\displaystyle\sum_{j \neq i}^{}{K_{ij}} \)
Consecuentemente:
\( \displaystyle\sum_{j \neq i}^{}{K_{ij}}=\displaystyle\sum_{j\in I-\left\{{i}\right\}}^{}{K_{ij}t_j} \)
Por consiguiente:
\( \displaystyle\sum_{j\in I-\left\{{i}\right\}}^{}{K_{ij}(t_j-1)}=\displaystyle\sum_{j \notin I}^{}{K_{ij}}{} \)
Como \( t_{j}-1 \leq 0 \) para todo \( j \in I-\left\{{i}\right\} \) y \( K_{ij}\leq 0 \) para todo \( j \neq i \), el lado izquierdo de la ecuación es no negativo; mientras que el lado derecho es no positivo y por tanto ambos términos son iguales a cero. Es decir:
\( \displaystyle\sum_{j\in I-\left\{{i}\right\}}^{}{K_{ij}(t_j-1)}=\displaystyle\sum_{j \notin I}^{}{K_{ij}}{}=0 \)
Se desprende entonces que \( K_{ij} = 0 \textrm{ } \forall j \notin J \) y que \( K_{ij}(1-t_j)=0 \) para todo \( j \in I-\left\{{i}\right\} \); y por ende se tiene que \( K_{ij}=0 \) para todo \( j \in I-\left\{{i}\right\} \) tal que \( t_j \neq 1 \).
Finalmente, el texto afirma que tomando \( J=\left\{{j \in I:t_j=1}\right\} \) se desprende que \( K_{ij}=0 \textrm{ } \forall j \in I-J \) y como \( \emptyset \subsetneq  J  \subsetneq I  \) esto contradice la conexidad de \( G \).Esto es lo que no entiendo: ¿por qué esto último contradice la conexidad? No lo veo claro.

De antemano muchas gracias.

5
¡Tienes toda la razón  :aplauso:!  Entonces, efectivamente se tiene que \( G_0=G \). ¡Muchísimas gracias! :)

Saludos

6
Hola a todos,
Sea \( D\subset{\mathbb{C}} \) la bola abierta de radio \( 1 \) centrada en el origen. Consideremos el siguiente espacio normado dotado de la norma del supremo:
 
\( H^{\infty}(D)=\left\{{f:D\longrightarrow \mathbb{C} : f \textrm{ es holomorfa y  acotada}}\right\} \)

Podemos considerar el subconjunto \( G=\left\{{f \in H^{\infty}(D): \exists \epsilon >0, |f(z)|\geq \epsilon \textrm{ } \forall z \in D   }\right\} \), el cual, tiene una estructura de grupo multiplicativo (con el producto usual de funciones) siendo la función constante \( 1 \) el neutro; de hecho \( G \) es un grupo topológico.

Me interesa hallar la componente conexa de \( G \) que contiene al neutro. Para ello, al ser \( G \) un subconjunto abierto de un espacio localmente conexo por caminos (todo abierto de un espacio normado lo es, ¿no?) tenemos que \( G \) también es localmente conexo por caminos. Por lo tanto, las componentes conexas coinciden con las componentes conexas por caminos. Así, si le llamamos \( G_0 \) a la componente conexa que contiene al neutro entonces \( f \in G_0 \) si y sólo si existe una función continua \( \gamma:[0,1] \longrightarrow G \) tal que \( \gamma(0)=f \) y \( \gamma(1)=1 \).

Mi intuición me dice que \( G_0=G \) ya que si \( f \in G \) entonces existe una función holomorfa \( g \in H^{\infty}(D) \) tal que \( f=exp(g) \). Así, uno podría pensar en la curva \( \gamma(t)=exp((1-t)f+t) \). Claro, esta curva tiene la falla de que \( \gamma(1)=exp(1) \) y no \( \gamma(1)=1 \) :P, casi. Parecía fácil de arreglar pero ya no lo veo tan claro, quizás no estoy muy lúcido. ¿Alguna idea para corregir esto?

De antemano muchas gracias.

Saludos

7

Piensa en \( f:B^n \to X \), y toma \( a_0 \) que está en la frontera del disco. Puedes considerar una homotopía \( H:B^n \times I \to X \) de manera que en tiempo \( 0 \) sea \( f \) y en tiempo \( 1 \) sea la aplicación constante \( x_0 \). En un tiempo \( t \) intermedio tomas un círculo que pasa por \( a_0 \) tangente a la frontera del disco y le asocias \( f \) al interior del círculo y para un punto \( p \) exterior, tomas la recta que pasa por \( a_0 \) y por \( p \) y le asocias el valor de f en la frontera del círculo interior. Es decir, dada una recta que sale de \( a_0 \), el valor de H_t coincide con el valor de f hasta que llega a la frontera del círculo interior y luego es constante. Conforme aumenta \( t \) vas tomando el círculo cada vez más pequeño, y así obtienes la homotopía deseada.

Ahora lo que sucede es que como tienes \( f \) tanto en el hemisferio superior como el inferior de \( S^n \), puedes considerar la homotopía \( H \) en cada hemisferio, y como es \( f \) en ambos hemisferios estas homotopías pegan bien para todo \( t \), dando lugar a una homotopía \( S^n \times I \to X \) que te lleva la composición de \( f \) con \( f\circ i \) a la aplicación constante \( x_0 \).

Ya lo entiendo. Efectivamente es más sencillo en los cubos, sobre todo la expresión explícita de la homotopía pero leyendo tu explicación la idea es parecida :); aunque no se me ocurrió cómo generalizarla a este caso :(. Espero ir entendiendo mejor estas ideas con el tiempo :) .


Espero que se entienda la descripción geométrica. Si no se entiende puedo intentar hacer un dibujo.
Ha quedado muy claro  :aplauso: , ¡muchas gracias! :D

8
Hola,
Pues siguiendo con el ejercicio de probar que el \( n \)-ésimo grupo de homotopía es efectivamente un grupo con la definición que pongo en este hilo, ahora lo que me interesa probar es la existencia de inversos. Usando la misma notación que en dicho mensaje del foro, i.e.,  \( i \) es la involución \( i(x_1,\ldots,x_n)=(-x_1,\ldots,x_n) \), entonces mi intuición me dice que para toda clase de homotopía \( [f] \), deberíamos tener que \( [f]^{-1}=[f \circ i] \), donde, de nuevo, también pensamos a \( f \) como un mapeo continuo \( (B^n,S^{n-1}) \longrightarrow (X,x_0) \). No obstante, a menos que se me esté pasando algo, no veo una homotopía clara entre el mapeo constante \( x_0 \) y \( f \circ i \).

¿Alguna sugerencia?

De antemano muchas gracias.

Saludos.

9
Hola,

Es más sencillo cuando se definen los elementos del grupo sobre \( [0,1]^n \) identificando la frontera a un punto.
Sí, en definitiva parece más entendible de esa forma. La mayoría de las referencias que he visto lo hacen de esa manera, el libro de Hatcher por ejemplo, el cual se puso muy de moda últimamente. De hecho, el libro de Vassiliev es el único que he visto que lo hace de esta manera, ¿quizás con la intención de ofrecer una perspectiva diferente? No lo sé.
Si consideramos \( f:B^n \to X \), como haces en el mensaje, puedes definir una homotopía explícita \( H:B^n \times I \to X \) mediante:
\[
H(p,t) =
\begin{cases}
{f \left(\frac{p}{1-\frac{t}{2}} \right)}&\text{si}& ||p||\leq 1 - \frac{t}{2}\\
x_0 & \text{si}& ||p|| > 1-\frac{t}{2}\end{cases}
 \]

Esta homotopía cumple que \( H(p,0) = f(p) \) y
\[ H(p,1) = f(x)=\begin{cases}{f(2p)}&\text{si}& ||p|| \leq \frac{1}{2}\\x_0 & \text{si}& ||p|| > \frac{1}{2}\end{cases} \].

Si ahora pasas al cociente por la frontera de \( B^n \), y usas el homeomorfismo \( B^n/S^{n-1} \cong S^n \) que te envía el anillo exterior \( \{p \in B^n : 1/2 \leq ||p|| \leq 1 \} \) a \( S^{n,-} \) y la frontera a \( (-1,0,0) \), obtienes la homotopía buscada \( \tilde{H}:S^n \times I \to X \).

De hecho, para facilitar la construcción de las homotopías, lo que sería muy conveniente es expresar \( (\phi\psi) \) como una función \( (\phi\psi):B^n \to X \) en lugar de como directamente \( S^n \to X \). Esto es así porque es mucho más sencillo trabajar en \( B^n \) y luego pasar al cociente y usar el homeomorfismo adecuado \( B^n/S^{n-1} \cong S^n \) que trabajar directamente en \( S^n \). De hecho por ahí va el comentario de Luis sobre los cubos. Ya si te gusta más trabajar con discos o con cubos es cosa tuya, pero lo cómodo es trabajar en un subconjunto de \( R^n \) convexo, donde puedes usar homotopías lineales, y luego bajar al cociente.

Okay, ¡creo que entiendo la idea! :) Como bien menciona Luis, está ese detalle de los puntos base; pero realizando una rotación si es necesario como dices después creo que puedo suponer para la prueba que \( a_0=(-1,0,\ldots,0) \), ¿no? :P

Muchas gracias a  ambos.

Saludos

10
Hola,
Recientemente empecé a leer el libro de Introduction to topology de V.A. Vassiliev, el cual, pretende introducir al lector  las nociones básicas de topología algebraica y diferencial. En dicho libro, con tal de dotar el \( n \)-ésimo grupo de homotopía de una estructura de grupo se define el producto de dos clases de homotopía como sigue:

Para empezar, fijemos un espacio topológico \( X \) y fijemos también un punto \( x_0 \in X \) así como un punto \( a_0 \) de la \( n \)-esfera \( S^n \). Entonces dadas dos funciones continuas \( \psi, \varphi: S^n \rightarrow{X} \) que mapeen \( a_0 \) a \( x_0 \), nos interesa definir el producto \( [\varphi]\cdot[\psi] \) de sus clases de homotopía \( [\varphi] \textrm{ y }[\psi] \). Para ello, el autor considera una función continua \( \varphi  \psi: S^n \rightarrow{X} \) definida de la siguiente manera. Sea \( B^n=\left\{{x \in \mathbb{R}^n : \left\|{x}\right\| \leq 1}\right\} \), como \( B^n/S^{n-1} \) es homeomorfo a \( S^n \) las funciones \( \varphi,\psi \) inducen funciones continuas de \( B^n \) en \( X \) que mapean \( S^{n-1} \) a \( x_0 \), que por simplicidad seguiremos denotando por \( \varphi \) y \( \psi \) respectivamente, con esto en mente, se define:
\( (\varphi  \psi)(y)= \left\{ \begin{array}{lcc} ( \varphi \circ p)(y)  & si & y \in S^{n,+} \\ \\ (\psi \circ i \circ p)(y) & si & y \in S^{n,-} \end{array} \right. \)
Donde \( S^{n,+}=\left\{{y \in S^n : y_0 \geq 0}\right\} \),  \( S^{n,-}=\left\{{y \in S^n : y_0 \leq 0}\right\} \); \( p,i \) son las funciones definidas por \( p(y_0,y_1,\ldots,y_n):=(y_1,\ldots,y_n) \), \( i(y_1,\ldots,y_n):=(-y_1,\ldots,y_n) \), i.e., \( p \) es una proyección e \( i \) una involución en \( \mathbb{R}^{n} \). En donde, hemos supuesto que \( a_0 \) está en el ecuador \( S^{n,+} \cap S^{n,-} \). Con esta nueva función en consideración se define ahora \( [\varphi]\cdot[\psi]:=[\varphi \psi] \).

Ahora bien, quiero probar que esto efectivamente define una estructura de grupo en las clases de homotopía, como bien sabemos el primer paso es probar la existencia del elemento neutro. El candidato natural es la clase asociada a la función constante \( e(y):=x_0 \), i.e.,  debo ver que para toda función continua \( f:(S^n,a_0)\rightarrow{(X,x_0)} \) se tiene que \( [f]\cdot[e]=[e]\cdot[f]=[f] \). En otras palabras, debo probar que existe una función continua \( F:S^n \times [0,1] \rightarrow{X} \) tal que:
  • \( F(y,0)=f(y) \);
  • \( F(y,1)=(fe)(y); \)
  • \( F(a_0,\lambda)=x_0 \) para todo \( \lambda \in [0,1] \)
No obstante, no me queda claro cómo debo definir a la función \( F \) para que esto ocurra así que en definitiva hay algo que no estoy viendo. ¿Alguna sugerencia?

De antemano muchas gracias.

Saludos

11
Hola otra vez,
Después de varios días de reflexión, creo que ya lo tengo:

Como \( f-g \) tiene un cero de multiplicidad \( m \geq 2 \) se tiene que \( f'(z_0)=g'(z_0) \neq 0 \) ya que \( g \) es inyectiva. Por tanto, si consideramos la función \( h=g^{-1} \circ f: D \rightarrow{D} \) entonces \( h \) es holomorfa y satisface que \( h(z_0)=z_0 \). Ahora, consideremos la transformación de Möbius definida por
\( T(z):= \displaystyle \frac{z-z_0}{- \bar{z_0}z+1} \)
Notemos que \( T \) es una biyección de \( D \) en si mismo y definamos \( F:D\rightarrow{D} \) mediante \( F:=T \circ h \circ T^{-1} \). Entonces \( F(0)=T(h(z_0))=T(z_0)=0 \). Más aún, tenemos que:
\( \begin{align}F'(0) &= (T \circ h)'(z_0) (T^{-1})'(0)  \\&= (1-|z_0|^2) \cdot (T \circ h)'(z_0)  \\&= T'(h(z_0)) h'(z_0) (1-|z_0|^2) \\&= T'(z_0)(1-|z_0|^2) \textrm{ ya que } h'(z_0)=1 \textrm{ pues }f'(z_0)=g'(z_0) \\&=\frac{1-|z_0|^2}{1-|z_0|^2}\\&=1 \end{align} 1 \)
Ahora bien, la condición \( |F'(0)|=1 \) implica (por el lema de Schwarz) que existe \( c \in \mathbb{C} \) tal que \( |c|=1 \) y \( F=c Id \) (siendo \( Id \) el mapeo identidad), pero se sigue de la ecuación anterior que \( c=1 \), i.e., \( F=Id \) y de aquí se sigue que \( h=g^{-1} \circ f=Id \) lo cual finalmente nos da que \( g=f \), como queríamos probar.
Lo que me sigue causando un poco de conflicto existencial es que no usé que \( U \) fuera simplemente conexo, ¿quizás eso simplifica la prueba? No lo sé, en cualquier caso, si ven algo raro/incorrecto no duden en decirme.

Saludos.

12
Creo que lo que falla en el contraejemplo es que \( g(D)=D \neq U=\mathbb{C} \), ¿no? Es decir, \( g \) no es biyectiva así que técnicamente no es invertible.

13
Ah caray, tienes toda la razón :P. Acabo de checar y el problema si está escrito con estas hipótesis. Quizás los autores tenían otra cosa en mente  ???. Quizás hay una forma de solucionarlo pero de momento no se me ocurre la hipótesis. ¡Muchas gracias geómetracat! :D

14
Hola, quiero probar lo siguiente:
Sea \(  D=\left\{{z \in \mathbb{C} : |z| < 1}\right\} \) y \( U \subset \mathbb{C} \) un conjunto simplemente conexo . Sean \( f,g: D \rightarrow{U} \) son dos funciones holomorfas tales que \( g \) es invertible y \( f-g \) tiene un cero de orden  \( m \geq 2 \) en \( z_0 \in D \), entonces \( f \equiv g \).
Lo que se me ocurrió fue lo siguiente:
Como \( z_0 \) es un cero de orden \( m \) existe una función holomorfa \( h: D \rightarrow \mathbb{C} \) tal que \( f(z)-g(z)=(z-z_0)^m h(z) \), por supuesto, hay que ver que \( h \) es nula.
De aquí, \( g'(z)=f'(z)-m(z-z_0)^{m-1}h(z)-(z-z_0)^mh'(z) \) por lo cual, usando que \( m>1 \) nos queda que \( f'(z_0)=g'(z_0) \neq 0 \) ya que \( g \) es inyectiva. Como \( f'(z_0) \) no es cero existe una vecindad de \( z_0 \) en la cual \( f \) es invertible, digamos en la bola \( B_{r}(z_0) \). Por lo tanto, si pudiera probar que existe \( \delta \in (0,r) \) para el cual \( g(B_{\delta}(z_0))=f(B_{\delta}(z_0)) \) tenemos entonces que:
  • \( g(B_{\delta}(z_0))=f(B_{\delta}(z_0)) \)
  • \(  f(z_0)=g(z_0) \) y \( f'(z_0)=g'(z_0) \)
  • \( f,g \) son inyectivas y holomorfas en \( B_{\delta}(z_0) \)
Estas tres condiciones implican que \( f=g \) en \( B_{\delta}(z_0) \) (usando el lema de Schwarz aplicado a la función \( f^{-1} \circ g \) por ejemplo, esta función mapea \( B_{\delta}(z_0) \) en si mismo) pero entonces son iguales en todo \( D \) por ser \( D \) conexo. Como pueden ver, mi problema es que no se me ocurre cómo garantizar la existencia de tal \( \delta \). Otra cosa que me preocupa es que no he usado que \( U \) es simplemente conexo :P. ¿Alguna sugerencia? De antemano muchas gracias.

Saludos.

15
Sí, ya veo. ¡Tienes toda la razón! Muchísimas gracias Masacroso. Otra forma de verlo:

\( \displaystyle \sum_{j=0}^{n} \sum_{k=0}^{m} a_{jk} \leq \displaystyle \sum_{j=0}^{n+m} \sum_{k=0}^{n+m} a_{jk} \leq L \)
Dejando \( n \) fija y viendo a \( \sum_{j=0}^{n+m} \sum_{k=0}^{n+m} a_{jk} \) como subsucesión de \( (s_{m})_{m \in \mathbb{N}} \), por ejemplo.
Pero bueno, esos son detalles de cada uno. De nuevo gracias por la orientación :).
Un saludo.

16
Hola Masacroso,

Primero que nada muchas gracias por tu orientación. De acuerdo, supongamos que todos los términos son no negativos para simplificar. Bajo esta definición de convergencia de la serie doble, tenemos que si \( s_n \rightarrow{L} \), siendo \( s_n \) como arriba, entonces para todo \( \epsilon >0  \) existe \( N \in \mathbb{N} \) tal que si \( n \geq N \), entonces:
\( L-\displaystyle\sum_{j=0}^{n} \sum_{k=0}^{n}  a_{jk} < \epsilon  \)

No obstante, no veo muy claro por qué de aquí podemos concluir que

\( \displaystyle\lim_{n \to{+}\infty}{    \sum_{j=0}^{n} \sum_{k=n+1}^{\infty} a_{jk}=0                      } \)
Lo que se me ocurre para probarlo, es lo siguiente: si tomamos \( N \) como arriba, entonces para \( n \geq N \) fija, tenemos:
\(  \sum_{j=0}^{n} \sum_{k=n+1}^{\infty} a_{jk}= \sum_{j=0}^{n} \left( \sum_{k=0}^{\infty}   a_{jk}- \sum_{k=0}^{n} a_{jk}   \right)= \sum_{j=0}^{n}  \left( \sum_{k=0}^{\infty} a_{jk}    \right) - \sum_{j=0}^{n} \sum_{k=0}^{n} a_{jk} \)
Así que, si pudiera probar que
\( \sum_{j=0}^{n}  \left( \sum_{k=0}^{\infty} a_{jk}    \right) \leq L \)
Habríamos terminado por la primera desigualdad que puse al inicio. Ojo, con que esta igualdad parece cierta pero no me parece evidente de la definición. Parece que me está faltando ver/usar algo.

17
Hola a todos,
Consideremos una sucesión doble de números complejos \( (a_{j,k})_{j,k \in \mathbb{N}} \subset \mathbb{C} \), decimos que la serie doble \( \sum_{j,k \geq 0}^{}{a_{j,k}} \) converge a \( L \in \mathbb{C} \) si la sucesión \( s_n=\sum_{j,k=0}^n{a_{j,k}} \) converge a \( L \). Dicho esto, quiero probar que si la serie converge absolutamente, i.e., \( s_n=\sum_{j,k=0}^n{|a_{j,k}|} \) converge, entonces la serie iterada
\( \displaystyle\sum_{j=0}^{\infty}{ \left(  \sum_{k=0}^{\infty}{a_{j,k}} \right) } \)
también converge y converge al mismo límite que la serie doble. Cabe señalar que personalmente nunca había visto esta definición en específico de convergencia de la serie doble pero bueno, lo que se me ocurre es lo siguiente:
Primero que nada, tenemos que para cada \( j \) fijo, la serie
\( \displaystyle\sum_{k=0}^{\infty}{a_{j,k}} \)
es absolutamente convergente ya que para nada \( n \):
\( \displaystyle\sum_{k=0}^{n}{ |a_{j,k}| \leq  \sum_{j,k=0}^n{|a_{j,k}|}} \)
y por hipótesis, la sucesión de la derecha converge asi que al ser \( \sum_{k=0}^{n}{|a_{j,k}|} \) una sucesión creciente de términos no negativos el límite existe. Por lo tanto, para cada \( n \geq 0 \), la expresión \( \displaystyle\sum_{j=0}^n{   \left(  \sum_{k=0}^{\infty}{a_{j,k}}   \right)} \) tiene sentido. 
Por tanto, si denotamos por \( L \) al límite de la serie doble entonces nos interesa acotar
\(    \left|L- \displaystyle\sum_{j=0}^n{   \left(  \sum_{k=0}^{\infty}{a_{j,k}}   \right)}    \right|  \)
Ahora se me ocurre sumar y restar el término \( \sum_{j=0}^n{\sum_{k=0}^n{}a_{j,k}} \) y usar la desigualdad triangular, con lo cual nos queda que:
\(    \left|L- \displaystyle\sum_{j=0}^n{   \left(  \sum_{k=0}^{\infty}{a_{j,k}}   \right)}    \right| \leq \left| L-  \sum_{j=0}^n{\sum_{k=0}^n{}a_{j,k}} \right| + \displaystyle\sum_{j=0}^{n}{ \sum_{k=n+1}^{\infty}{|a_{jk}} |  }  \)
Sobre el primer término de la desigualdad anterior tenemos control pero sobre el segundo no tanto, ya que aunque a uno se le ocurre hacer el término \( \sum_{k=n+1}^{\infty}|a_{jk}|   \)más pequeño que \( \epsilon/2^{j+1} \) digamos, eso sólo lo podemos garantizar  partir de  cierta \( k \geq K(j) \) de modo que para cada \( j \) obtenemos distintas \( K(j) \) y entonces no podemos garantizar que este segundo término sea tan pequeño como queremos a partir de cierta \( n \geq N \).
¿Alguna sugerencia?

De antemano gracias.

Saludos

18
¡Ya lo veo! Muchísimas gracias Luis  ;D.

Saludos.

19
Hola a todos,

Supongamos que \( (u_n) \) y \( (v_n) \) son dos sucesiones de números complejos. Decimos que las sucesiones son equivalentes y escribimos \( u_n \sim{} v_n \) si para todo \( \epsilon>0 \) existe una \( N \in \mathbb{N} \) tal que si \( n \geq N \) entonces
\( |u_n-v_n| \leq \epsilon |u_n| \)
para toda \( n \geq N \). El libro que estoy usando para estudiar (Analyse complexe pour la licence 3 de Patrice Tauvel) expresa esta condición como \( u_n-v_n=o(u_n) \), de ahí el título. El punto es que se afirma que si \( u_n-v_n=o(u_n) \) entonces también se tiene que \( v_n-u_n=o(v_n) \). Esta es la parte que no veo tan clara. A bote pronto, lo que se me ocurrió fue lo siguiente:
Asumamos que \( u_n-v_n=o(u_n) \). Dado \( \epsilon>0 \), sabemos que existe una \( N \in \mathbb{N} \) tal que si \( n \geq N \) entonces
\( |u_n-v_n| \leq \displaystyle \frac{ \epsilon}{1+ \epsilon} |u_n| \)
De aquí,
\(   |u_n|-|v_n| \leq \displaystyle \frac{\epsilon}{ \epsilon+1}|u_n|  \)
Por tanto,
\( \epsilon |u_n|- \epsilon |v_n|+|u_n|-|v_n| \leq \epsilon |u_n|  \)
Lo cual nos da que
\( |u_n|-|v_n| \leq \epsilon |v_n| \)
De manera similar encontraríamos que \(  |u_n|-|v_n|  \geq - \epsilon |v_n| \) con lo cual
\( \vert |u_n|-|v_n|  \vert \leq \epsilon |v_n|  \)
Pero claro, esto no es lo que se quiere. Se quiere \( \vert u_n-v_n  \vert \leq \epsilon |v_n|  \). Pero de momento no se me ocurre cómo llegar a eso. ¿Alguna sugerencia?

De antemano muchas gracias.

Saludos

20
Pues hoy he aprendido algo nuevo :) , no conocía ese resultado. ¡Muchas gracias por compartirlo así como la demostración!
Es un resultado bien conocido: todo cuerpo finito tiene cardinal \( p^n \) para algún primo \( p \) y algún natural \( n>0 \), y además existe exactamente un cuerpo salvo isomorfismo para cada cardinal \( p^n \).
Con respecto a la otra prueba, lo bueno es que como dices es más autocontenida, no se requiere mucha teoría de campos para entenderla :).
¡De nuevo muchas gracias geómetracat!
Saludos

Páginas: [1] 2 3 4 ... 20