Autor Tema: Demostrar que es un espacio métrico y que la sucesión converge

0 Usuarios y 1 Visitante están viendo este tema.

10 Abril, 2021, 09:25 pm
Leído 520 veces

cristianoceli

  • $$\Large \color{#c88359}\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 810
  • País: cl
  • Karma: +0/-0
  • Sexo: Masculino
Hola tengo problemas con este ejercicio

Sea \( M  \)el espacio de todas las sucesiones reales. Dados  \( x = (x_i)_i \; , y = (y_i)_i \in M \), defina

\( d(x,y) = \displaystyle\sum_{i=1}^\infty{\displaystyle\frac{1}{i^2} \; min \{ |x_i-y_i| , 1 \}}  \)

Pruebe que  \( (M, d) \) es un espacio métrico. Sea  \( \{ x^{(k)} \}_k  \)una sucesion \( M \). Pruebe que \( x^{(k)}  \rightarrow x \) para \( d \) si y solo si \( {x_i}^{(k)} \rightarrow x_i \; \forall{i}  \; \in \mathbb{N}. \)

Lo que he hecho:

\( (i) \; d(x,x)=0 \)

\( d(x,x)= \displaystyle\sum_{i=1}^\infty{\displaystyle\frac{1}{i^2} \; min \{ |x_i-x_i| , 1 \}} = \displaystyle\sum_{i=1}^\infty{\displaystyle\frac{1}{i^2} \; min \{ |0| , 1 \}} = \displaystyle\sum_{i=1}^\infty{\displaystyle\frac{1}{i^2}} \cdot 0 = 0  \)

\( (ii) \; If \; x \neq \) y  entonces \( d(x,y) > 0 \)

\( d(x,y) = \displaystyle\sum_{i=1}^\infty{\displaystyle\frac{1}{i^2} \; min \{ |x_i-y_i| , 1 \}}  \)(No se muy bien que argumento dar para decir que siempre la expresión es mayor que cero)

\( (iii) \; d(x,y)=d(y,x) \)

\( d(x,y) = \displaystyle\sum_{i=1}^\infty{\displaystyle\frac{1}{i^2} \; min \{ |x_i-y_i| , 1 \}} =  \displaystyle\sum_{i=1}^\infty{\displaystyle\frac{1}{i^2} \; min \{ |y_i-x_i| , 1 \}} = d(y,x) \)

\( (iv) \; d(x,z) \leq{} d(x,y) + d(y,z)  \)

Para cada \( i \in \mathbb{N} \) se cumple que:

\( \begin{align}\min\{|x_i-z_i|,1\}&\leqslant\min\{|x_i-y_i|+|y_i-z_i|,1\}\\&\leqslant\min\{|x_i-y_i|,1\}+\min\{|y_i-z_i|,1\};\end{align} \)

(Tendría que demostrarlo)


Para la segunda parte

Pruebe que \( x^{(k)}  \rightarrow x  \)para \( d \) si y solo si \( {x_i}^{(k)} \rightarrow x_i  \forall{i } \; \in \mathbb{N}. \)

Me han sugerido intentar lo siguiente pero no lo entiendo bien:

Si \( \lim_{k\to\infty}x^{(k)}=x \)  y \( i\in\Bbb N \), tomamos \( \varepsilon>0 \). Entonces si \( k \) es lo suficientemente grande \( d\left(x^{(k)},x\right)<\frac\varepsilon{i^2}. \) ( ¿Por que la distancia será menor que \( \frac\varepsilon{i^2} \) )

En particular, \( \frac1{i^2}\min\left\{\left|x_i^{(k)}-x_i\right|,1\right\}<\frac\varepsilon{i^2}, \) y por lo tanto \( \min\left\{\left|x_i^{(k)}-x_i\right|,1\right\}<\varepsilon, \) lo que implica \( \left|x_i^{(k)}-x_i\right|<\varepsilon \)

Finalmente, si \( \lim_{i\to\infty}x_i^{(k)}=x_i \) para cada \( i\in\Bbb N \) y si \( \varepsilon>0 \), tomamos  \( M\in\Bbb N  \)tal que \( \sum_{i=M+1}^\infty\frac1{i^2}<\frac\varepsilon2 \) (De aqui en adelante me perdi)

Para cada\(  i\leqslant M \), tomamos \( N_i\in\Bbb N \) tal que \( k\geqslant N_i\implies\frac1{i^2}\left|x_i^{(k)}-x_i\right|<\frac\varepsilon{2N}. \) Entonces \( k\geqslant\max\{N_1,N_2,\ldots,N_M\}\implies d\left(x^{(k)},x\right)<\frac\varepsilon2+\frac\varepsilon2=\varepsilon. \)

De antemano gracias.

Saludos

10 Abril, 2021, 11:38 pm
Respuesta #1

delmar

  • Moderador Global
  • Mensajes: 3,548
  • País: pe
  • Karma: +0/-0
  • Sexo: Masculino
Hola

Te ayudo con algunos puntos.

i) Correcto

ii) Si \( x\neq y\Rightarrow{\exists{j\in{N}} \ / \ x_j\neq y_j}\Rightarrow{\left |{x_j-y_j}\right |>0}\Rightarrow{min \left\{{\left |{x_j-y_j}\right |,1}\right\}>0}\Rightarrow{\displaystyle\frac{1}{j^2} \ min \left\{{\left |{x_j-y_j}\right |,1}\right\} >0} \)
La distancia d(x,y) es una serie de términos no negativos convergente, esto significa que constituye el extremo superior de las sumas parciales, en consecuencia ese extremo superior ha de ser mayor e igual que cualquier suma parcial y se deduce que \( d(x,y)\geq{\displaystyle\sum_{i=1}^j{\displaystyle\frac{1}{i^2} \ min\left\{{\left |{x_i-y_i}\right |,1}\right\}}}>0 \)

Por lo tanto se deduce \( d(x,y)>0 \) si \( x\neq y \)

iii) Correcto

iv) Se parte de la desigualdad triangular en los valores absolutos es decir :

\( \left |{x_i-z_i}\right |\leq{\left |{x_i-y_i}\right |+\left |{y_i-z_i}\right |} \) y se demuestra :

\( min \left\{{\left |{x_i-z_i}\right |,1}\right\}\leq{min\left\{{\left |{x_i-y_i}\right |,1}\right\}+min\left\{{\left |{y_i-z_i}\right |,1}\right\}} \)

Se puede hacer considerando las diversas alternativas :

A) \( min \left\{{\left |{x_i-z_i}\right |,1}\right\}=1 \)

B) \( min \left\{{\left |{x_i-z_i}\right |,1}\right\}=\left |{x_i-z_i}\right | \)

Saludos

11 Abril, 2021, 06:22 pm
Respuesta #2

cristianoceli

  • $$\Large \color{#c88359}\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 810
  • País: cl
  • Karma: +0/-0
  • Sexo: Masculino
Hola

Te ayudo con algunos puntos.

i) Correcto

ii) Si \( x\neq y\Rightarrow{\exists{j\in{N}} \ / \ x_j\neq y_j}\Rightarrow{\left |{x_j-y_j}\right |>0}\Rightarrow{min \left\{{\left |{x_j-y_j}\right |,1}\right\}>0}\Rightarrow{\displaystyle\frac{1}{j^2} \ min \left\{{\left |{x_j-y_j}\right |,1}\right\} >0} \)
La distancia d(x,y) es una serie de términos no negativos convergente, esto significa que constituye el extremo superior de las sumas parciales, en consecuencia ese extremo superior ha de ser mayor e igual que cualquier suma parcial y se deduce que \( d(x,y)\geq{\displaystyle\sum_{i=1}^j{\displaystyle\frac{1}{i^2} \ min\left\{{\left |{x_i-y_i}\right |,1}\right\}}}>0 \)

Por lo tanto se deduce \( d(x,y)>0 \) si \( x\neq y \)

iii) Correcto

iv) Se parte de la desigualdad triangular en los valores absolutos es decir :

\( \left |{x_i-z_i}\right |\leq{\left |{x_i-y_i}\right |+\left |{y_i-z_i}\right |} \) y se demuestra :

\( min \left\{{\left |{x_i-z_i}\right |,1}\right\}\leq{min\left\{{\left |{x_i-y_i}\right |,1}\right\}+min\left\{{\left |{y_i-z_i}\right |,1}\right\}} \)

Se puede hacer considerando las diversas alternativas :

A) \( min \left\{{\left |{x_i-z_i}\right |,1}\right\}=1 \)

B) \( min \left\{{\left |{x_i-z_i}\right |,1}\right\}=\left |{x_i-z_i}\right | \)

Saludos

Vale entiendo me quedó claro tu explicación.

Para la segunda parte no comprendo muchos puntos  :banghead: :banghead:

Saludos

12 Abril, 2021, 10:38 am
Respuesta #3

Luis Fuentes

  • el_manco
  • Administrador
  • Mensajes: 55,996
  • País: es
  • Karma: +0/-0
Hola

Para la segunda parte

Pruebe que \( x^{(k)}  \rightarrow x  \)para \( d \) si y solo si \( {x_i}^{(k)} \rightarrow x_i  \forall{i } \; \in \mathbb{N}. \)

Me han sugerido intentar lo siguiente pero no lo entiendo bien:

Si \( \lim_{k\to\infty}x^{(k)}=x \)  y \( i\in\Bbb N \), tomamos \( \varepsilon>0 \). Entonces si \( k \) es lo suficientemente grande \( d\left(x^{(k)},x\right)<\frac\varepsilon{i^2}. \) ( ¿Por que la distancia será menor que \( \frac\varepsilon{i^2} \) )

Tomas ese \( \epsilon'=\frac\varepsilon{i^2} \) porque te conviene. Es decir por definición si \( \lim_{k\to\infty}x^{(k)}=x \)  para cualquier \( \epsilon'>0 \), existe un \( k_0 \) tal que si \( k>k_0 \) entonces:

\( d\left(x^{(k)},x\right)<\epsilon'. \)

A partir de ahí, fijado un \( i \) vamos a probar que \( \displaystyle\lim_{k \to{+}\infty} {}x_i^{(k)}=x_i \); entonces dado \( \varepsilon>0 \) aplicamos lo anterior para  \( \epsilon'=\frac\varepsilon{i^2} \) y hacemos el seiguiente razonamiento:

Citar
En particular, \( \frac1{i^2}\min\left\{\left|x_i^{(k)}-x_i\right|,1\right\}<\frac\varepsilon{i^2}, \) y por lo tanto \( \min\left\{\left|x_i^{(k)}-x_i\right|,1\right\}<\varepsilon, \) lo que implica \( \left|x_i^{(k)}-x_i\right|<\varepsilon \)

Nota que ahí se usa que:

\( \frac1{i^2}\min\left\{\left|x_i^{(k)}-x_i\right|,1\right\}<d\left(x^{(k)},x\right) \)

Citar
Finalmente, si \( \lim_{i\to\infty}x_i^{(k)}=x_i \) para cada \( i\in\Bbb N \) y si \( \varepsilon>0 \), tomamos  \( M\in\Bbb N  \)tal que \( \sum_{i=M+1}^\infty\frac1{i^2}<\frac\varepsilon2 \) (De aqui en adelante me perdi)

Ahí quieres probar que la convergencia de cada término de la sucesión implica la convergencia de la sucesión completa. El problema es que para cada \( i \) vamos a tener un \( N_i \) a partir del cual podemos acotar \( |x_i^{k}-x_i| \). Necesitamos todas esas cotas a la vez; pero los \( N_i \) pudieran no estar acotados, y por tanto puediera ser que no fuera imposible \( k>N_i \) para todo \( i \).

Lo que usamos entonce es que como han definido la distancia y que la serie \( \displaystyle\sum_{i=1}^\infty{}\dfrac{1}{i^2} \) es convergente. Eso significa que los últimos infinitos sumandos a partir de un \( i_0 \) son tan pequeños como queramos.

De manera más precisa, dado \( \varepsilon>0 \) existe un \( M>0 \) tal que:

\( \sum_{i=M+1}^\infty\frac1{i^2}<\frac\varepsilon2 \)

Eso en la expresión:

\( d(x^{(k)},x)=\displaystyle\sum_{i=1}^\infty{\displaystyle\frac{1}{i^2} \; min \{ |x^{(k)}_i-x_i| , 1 \}} \)

nos va a permitir acotar TODA la suma a partir del \( M+1 \)-simo término por \( \varepsilon/2 \).

Nos queda acotar los \( M \) primer sumandos de la suma; pero para ello usamos la convergencia puntual para cada \( i=1,2,\ldots,M \) de las sucesiones \( x^{(k)}_i\to x_i \).

Eso es lo que hace aquí:

Citar
Para cada\(  i\leqslant M \), tomamos \( N_i\in\Bbb N \) tal que \( k\geqslant N_i\implies\frac1{i^2}\left|x_i^{(k)}-x_i\right|<\frac\varepsilon{2N}. \) Entonces \( k\geqslant\max\{N_1,N_2,\ldots,N_M\}\implies d\left(x^{(k)},x\right)<\frac\varepsilon2+\frac\varepsilon2=\varepsilon. \)

Con estas aclaraciones, vuelve a revisar la idea que te han dado y si fuese necesario pregunta aquí de nuevo las posibles dudas que te surjan.

Saludos.

12 Abril, 2021, 07:35 pm
Respuesta #4

cristianoceli

  • $$\Large \color{#c88359}\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 810
  • País: cl
  • Karma: +0/-0
  • Sexo: Masculino
Muchas gracias. Lo revisaré con calma.

Saludos