Mostrar Mensajes

Esta sección te permite ver todos los posts escritos por este usuario. Ten en cuenta que sólo puedes ver los posts escritos en zonas a las que tienes acceso en este momento.

Mensajes - sanmath

Páginas: [1] 2 3 4 ... 32
1
Álgebra / ejercicios sobre algebra abstracta, grupos y anillos.
« en: 21 Diciembre, 2021, 06:24 pm »
Hola, estoy estudiando para un examen de calificación, me ha costado mucho trabajo seguir el hilo a este curso pues es álgebra avanzada. Podrían darme una guía para resolver estos ejercicios que me cuestan mucho resolver? la verdad me ayudarían muchísimo con pues soy muy novato en esto.


He adjuntado las imagenes de los enunciados


saludos





2
Hola gracias por tu ayuda, podrías explicarme el literal c) no me ha quedado claro. por que multiplicas por P(D)

saludos

3
Probabilidad / Ejercicio de probabilidad distribución normal
« en: 03 Mayo, 2020, 02:51 am »
Hola necesito ayuda con el siguiente ejercicio que estoy un poco confundido:

Saludos

Se supone que la glucemia basal en individuos sanos,\( X_s \) sigue una distribución \( N(\mu=80,\sigma=10) \) , mientras que en los diabéticos \( X_d \), sigue una distribución \( N(\mu=160,\sigma=31.4) \)

a) Si se conviene en clasificar a los individuos como diabéticos por valores de la glucemia basal superiores a 100. ¿Qué porcentaje de la población se clasificaría incorrectamente como sano?
Para este ejercicio consideré esto:
\( P(X_s>100)=1-P(X_s\leq 100)=1-F_{X_s}(100)=0.022 \)
b) ¿Qué porcentaje se clasificaría como diabético y en realidad está sano.
\( P(X_d\leq100)=F_{X_d}(100)=0.028 \)
c) Se sabe que el 10% de la población es diabética.¿ Que probabilidad hay que un individuo con un valor superior a 100 sera realmente diabético?
Este inciso no estoy claro como realizar, podrían explicarme y corregirme lo que hice?

 Saludos





4
Teoría de la Medida - Fractales / Esperanza condicional
« en: 25 Marzo, 2020, 07:14 pm »
Hola necesito ayuda con el siguiente ejercicio:
Al menos necesito tener la idea de la demostración, no he estudiado teoría de probabilidad hace algún tiempo y no recuerdo bien los conceptos, si me dan pistas estoy seguro que lo podré hacer


Sea \( X \) una variable aleatoria y \( \mathcal{F} \) dos sub-álgebras tales que \( \mathcal{G}\subset\mathcal{F} \). Muestre que:

\( E[X|\mathcal{G}] = E[X|\mathcal{F}] \) si y solo si \( E[X|F] \) es \( \mathcal{G}−medible \)


He logrado revisando mis apuntes de universidad entender la implicación

\( \rightarrow \))

Simplemente  por definición de esperanza condicional tengo que:

\( E[X|\mathcal{F}]=E[X|\mathcal{G}] \) es \( \mathcal{G} \)-medible

5
Estadística / Re: Correlacion entre dos variables
« en: 03 Julio, 2018, 11:07 am »
Exactamente tengo la misma duda, sin embargo para este caso pienso utilizar un resultado que encontre, es un teorema  que dice basicamente
\( P(S_n>x)\sim n(1-F(x)) \)

Adjunto una imagen con el resultado que supongo puedo utilizar, necesito calcular dicho cociente pues en el articulo aparece un coeficiente b el cual me interesa ver como varia de acuerdo a los valores de u.

Es posible utilizar el resultado que senialo?

Saludos

6
Estadística / Correlacion entre dos variables
« en: 02 Julio, 2018, 08:11 pm »
Hola tengo el siguiente problema que no tengo muy claro como proceder.

Supongamos que tengo N variables aleatorias que siguen una distribucion de Weibull con parametros a>0(escala) y 0<b<1 (forma)
N es un numero que sigue una distribucion geometrica de parametro p.


Considero \( A=I_{\{S_N>u\}} \) y \( B=I_{\{\max_{i\geq i}(X_i)>u\}} \). Necesito calcular la correlacion entre ambas variables aleatorias

Es decir \( Cov(A,B)/Var(B) \)

Basicamente lo que estoy tratando de calcular lo he tomado de este articulo
http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=CA8890489E8C1EEFB43971E74FB8B183?doi=10.1.1.482.5380&rep=rep1&type=pdf page 6. Pero no logro calcular el valor de b. Me parece que entra en alguna parte el criterio de subexponencialidad. Sin embargo no tengo muy claro eso. Espero puedan ayudarme con esto


Saludos

Disculpas por las tildes, estoy en un teclado en aleman y no estoy familiarizado con las tildes en espaniol.


7
Hola el manco, gracias por tu respuesta, la primera pregunta que no entiendo es que significa que \( P \ \ on \ \ \mathbb{R^p} \) ?

8
Hola,  estoy siguiendo un curso de estadística multivariante. En el capítulo acerca de estimation of location and scatter (ubicación y dispersión) el capitulo empieza diciendo esto:
Se considera variables aleatorias i.i.d \( X_1,X_2,...,X_n \) con distribución desconocida \( P on R^p \) (esto no estoy claro que significa, quiere decir que la medida P toma valores en \( R^p \) y a cada valor le asigna una probabilidad?)., donde \( p\geq 2 \). El objetivo es estimatar la locación (\( \mu=\mu(P) \)) y matriz dispersión (location and scatter) \( \Sigma=\Sigma(P) \).

No tengo claro si es que las variables \( X_1,X_2,... \) son variables aleatorias independientes, por que se considera la matriz de dispersión sigma como una matriz? pues si son independientes la covarianza es \( 0 \) entonces las entradas de la matriz de dispersión son \( \Sigma_{ij}=Var(X_i) \ \ i=j \) y las entradas  \( \Sigma_{ij}=Cov(X_i,X_j) \ \ i\neq j \).


Saludos


9
Estadística / Esperanza caso multivariable
« en: 30 Enero, 2018, 02:17 am »
Hola necesito una explicación de la siguiente demostración:

Debo probar lo siguiente:
La media muestral y la varianza satisfacen las siguientes igualdades:
\( E[\hat{\mu}]=\mu \) y \( Var(\hat{\mu})=\frac{1}{n}\Sigma \)

En particular: \( E \left\|{\hat{\mu}-\mu}\right\|^2=\frac{tr(\Sigma)}{n} \)

Las dos pequeñas igualdades, las he podido demostrar con facilidad. La tercera igualdad, tengo la demostración pero tengo una duda en lo siguiente: (adjunto la solución como imagen)

No entiendo en la solución por qué se hace los siguientes paso:
\( \frac{1}{n^2}E(\displaystyle\sum_{i=1}^n(X_i-\mu)^T)(\displaystyle\sum_{j=1}^n(X_j-\mu)) \)
\( =\frac{1}{n^2}\displaystyle\sum_{i,j=1}^nE(X_i-\mu)^T(X_j-\mu) \)
\( =\frac{1}{n^2}\displaystyle\sum_{i=1}^nE(X_i-\mu)^T(X_i-\mu) \)

mi duda, en la segunda linea se saca un sumatorio afuera, y se pone después en la tercera linea un sumatorio solo con un índice, es decir solo se consideran los productos cruzados de las variables con mismo índice por ejemplo \( X_k^TX_k \) que pasa con los que no son iguales que aparecerían desarrollando la primera linea? \( X_i^TX_j \)?

por ejemplo si tendría algo como \( E(X_1+X_2+X_3)^T(X_1+X_2+X_3)=E\displaystyle\sum_{i=1}^n\displaystyle\sum_{j=1}^nX_i^TX_j \)
Si hago algo como en los pasos anteriores, tendría:

\( E\displaystyle\sum_{i=1}^nX_i^TX_i \) pero desaparecen los productos cruzados por ejemplo \( X_1^TX_2 \) por que desaparecen?


Saludos

10
Números complejos / Igualdad de Función compleja
« en: 07 Enero, 2018, 03:28 am »
Hola, estoy revisando una demostración en un libro. Y no entiendo una parte en la que se define la siguiente función compleja:

\( f_n(v)=\frac{1}{2\pi n}\sum_{j=1}^n\sum_{k=1}^n e^{-ijv}g(j-k)e^{ikv} \)

Luego el autor sin dar muchos detalles concluye que la función anterior es igual a esto:

\( f_n(v)=\frac{1}{2\pi n}\sum_{j=-(n-1)}^{n-1}(n-|j|)e^{ijv}g(j) \)
\( g \) es una función que se llama en no definida negativa.

Podrían explicarme algunos detalles de por que se tiene tal igualdad ? no la tengo nada clara.

Saludos

11
Estadística / Cadena de Markov de acuerdo al valor de p
« en: 30 Noviembre, 2017, 12:14 am »
Hola, este ejercicio no tengo claro como resolverlo:
Sea \( Y_0, Y_1, . . . \) variables aleatorias i.i.d. con \( P(Y_0 = 1) = p, P(Y_0 = −1) = q =
1 − p. \)  Defina \( X_n = Y_nY_{n+1}, n ≥ 0 \). Calcule \( \lim_{n→∞} P(X_n = −1). \), Para que valor de p \( X_n,b\geq
 0 \) es una cadena de Markov?.

Cómo puedo resolverlo?, he tratado con la definición pero no llego a nada concluyente.


Saludos

12
Estadística / Cadena de Markov irreducible y recurrente.
« en: 30 Noviembre, 2017, 12:09 am »
Hola tengo el siguiente problema:

Mostrar que la cadena de Markov, definida en el espacio de estados \( S=\{1,2,3,4\} \) con matriz de transición:
\( \begin{bmatrix}{0}&{1}&{0}&{0}\\{1/2}&{0}&{1/4}&{1/4}\\{1/2}&{1/2}&{0}&{0}\\{0}&{0}&{1}&{0}\end{bmatrix} \)

a)Mostrar que la cadena es irreducible y recurrente.

Esto no lo tengo muy claro, para mostrar que es irreducible he hecho un diagrama, donde puedo observar que todos los estados se conectan con los otros estados. No entiendo com hacerlo más formal. Para mostrar que es recurrente, he leído que debo probar que todos los estados son recurrentes, es decir que la probabilidad que de un estado se regrese al mismo estado debe ser igual a \( 1 \), pero esto no lo tengo muy claro, ya que  en el diagrama que tengo no lo puedo observar, y tampoco entiendo como escribirlo de manera mas formal.

b) Cual es su medida de probabilidad invariante?

Este ejercicio no lo tengo claro que es lo que debo hallar.


Saludos





13
Estadística / Cadena de Markov contraejemplo
« en: 29 Noviembre, 2017, 01:09 pm »
Es verdad que para una cadena de Markov \( (X_n)_{n≥0} \) la sucesión \( (X_n+X_{n+1})_{n≥0} \)
es también una cadena de Markov?

He empezado con la definición, usando lo siguiente:
Donde  \( Y_n=X_n+X_{n+1} \)

Aqui, he usado la definición de probabilidad condicional, según lo que entiendo la notación.
\( P(Y_{n+1}=y_{n+1}|Y_0=y_0,...,Y_n=y_n)=\frac{P(Y_{n+1}=y_{n+1},Y_0=y_0,...,Y_n=y_n)}{P(Y_0=y_0,....,Y_n=y_n)} \)

Reemplazo nuevamente con lo inicial: \( Y_n=X_n+X_{n+1} \)
\(
\frac{P(X_{n+1}+X_{n+2}=y_{n+1},X_0+X_1=y_0,...,X_n+X_{n+1}=y_n)}{P(X_0+X_1=y_0,...,X_n+X_{n+1}=y_n)}
 \)

Pero no logró concluir, al parecer no sería una cadena de Markov, pero no se como mostrar en efecto que no lo es.


Saludos

14
Estadística / Divisibilidad y variables aleatorias
« en: 28 Noviembre, 2017, 04:23 pm »
Hola, necesito ayuda con el siguiente problema, no tengo claro como resolverlo.


Sea \( X_1, X_2, . . . \) variables aleatorias i.i.d con \( P(Xn = j) = 1/k \) para \( j \in {1, 2, . . . , k} \).
Se define \( S_n = X_1 +· · ·+X_n \) y sea \( N \) el entero mas pequeño, tal que \( S_N \) es divisible
por \( k \). Calcular \( E(N) \)

Saludos

15
Cálculo 1 variable / Aproximación punto de silla.
« en: 19 Noviembre, 2017, 02:14 am »
Hola, estoy utilizando lo siguiente:
Tengo la función generadora de momentos de una variable aleatoria \( S \) dada por:
\( M_S(t)=\frac{\beta\mu t}{1+(1+\beta)\mu t-M_X(t)} \)

De acuerdo al texto  que estoy estudiando, me dice que debo considerar la aproximación  punto de silla (saddlepoint) es decir debo hallar \( \theta=\theta(x) \) tal que \( k_S(\theta)=x \), donde \( k_X(t) \) es la función generadora acumulada, es decir \( k_S(\theta)=ln(M_S(\theta)) \).

Ahora bien, considerando lo anterior tengo lo siguiente
\( k_S(\theta)=ln\frac{\beta\mu\theta}{1+(1+\beta)\mu\theta-M_X(\theta)} \)
para este caso \( X \) es una variable aleatoria que sigue una distribución de Weibull.
debo hallar \( k_s'(\theta) \), para ello calculo la derivada (lo cual estoy teniendo problemas)

\( k_S'(\theta)=\frac{1+(1+\beta)\mu\theta-M_X(\theta)}{\beta\mu\theta}\frac{\beta\mu(1+(1+\beta)\mu\theta-M_X(\theta))-((1+\beta)\mu-M_X'(\theta))\beta\mu\theta}{(1+(1+\beta)\mu\theta-M_X(\theta))^2} \)

Aqui simplemente utilice la derivada del logaritmo natural y la regla de la derivada del cociente, (espero estar en lo correcto). Luego haciendo las operaciones de la expresión anterior.

\( k_S'(\theta)=\frac{1}{\beta\mu\theta}\frac{\beta\mu(1+\mu\theta+\beta\mu\theta-M_X(\theta))-(\mu+\beta\mu-M_X'(\theta))\beta\mu\theta}{(1+(1+\beta)\mu\theta-M_X'(\theta))} \)
Aqui, lo que hice solo fue simplicar el numerador con el denominador del segundo factor, y resolver las operaciones.

\( k_S'(\theta)=\frac{\beta\mu+\beta\mu^2\theta+\beta^2\mu^2\theta-\beta\mu M_X(\theta)-\beta\mu^2\theta-\beta^2\mu^2\theta+\beta\mu\theta M _X(\theta)}{\beta\mu\theta(1+(1+\beta)\mu\theta-M_X(\theta))} \)

a continuación reduzco términos semejantes, con lo que se obtiene:
\( k_S'(\theta)=\frac{\beta\mu-\beta\mu M_X(\theta)+\beta\mu\theta M_X'(\theta)}{\beta\mu\theta((1+(1+\beta)\mu\theta-M_X(\theta))} \)
de aqui obtengo que \( k_S'(\theta)=\frac{1-M_X(\theta)+\theta M_X'(\theta)}{1+(1+\beta)\mu\theta-M_X(\theta)} \)


Ahora bien, se tiene que la función generadora de momentos para una distribución de tipo Weibull es \( M_X(\theta)=\sum_{n=0}^{\infty}\frac{\lambda^n\theta^n}{n!}\Gamma(1+\frac{n}{k}) \)

además se tiene que \( \theta M'_X(\theta)=\theta\sum_{n=0}^{\infty}\frac{\lambda^nn\theta^{n-1}}{n(n-1)!}\Gamma(1+\frac{n}{k})=\sum_{n=1}^{\infty}\frac{\lambda^n\theta^n}{(n-1)!}\Gamma(1+\frac{n}{k}) \)

Con tales consideraciones, no tengo claro como puedo concluir, es decir llegar a la expresión \( \theta=\theta(x) \) tal que \( k_S'(\theta)=x \), espero su ayuda,



saludos

16
Hola necesito ayuda ccon el siguiente ejercicio:

Sean \( X_0,X_1,\ldots  \) variables aleatorias i.i.d. Probar que \( (X_n)_{n\geq 0} \) es una cadena de Markov y encontrar su matriz de transición.

Lo que no tengo claro es como probar lo solicitado, ya que no conozco nada acerca de las variables aleatorias, por lo que no entiendo como hallaría la matriz de transición y de acuerdo a lo que he revisado necesito considerar las probabilidades para ver si es una cadena de Markov, pero no conozco nada acerca de las probabilidades de las variables aleatorias.


Saludos

17
hola tengo un problema con lo siguiente.

Estoy estudiando Teoría del Riesgo, donde uno de los conceptos que deseo utilizar es el de coeficiente de ajuste (adjustment coefficient) el cual es definido como la solución positiva de \( E[e^{tL_1}]=1 \)
\( L_t=Z_t-ct \) (\( Z_t   \) es un proceso de Poisson compuesto, es decir \( \sum_{i=0}^{N_t}X_i \) donde \( X_i \) siguen una distribución de Weibull.)
en este caso yo dispongo en particular del valor de \( L_1 \), pero no se cómo calcular dicha esperanza y hallar la solución de la ecuación anterior, pues  sé que la esperanza \( E[X]=\int_0^{\infty}xf(x)dx \) donde \( f(x) \) es la densidad de \( x \). 

Usando otra equivalencia dada (adjunto), yo debo considerar la funcion generadora de momentos de \( X \) en este caso la distribución de Weibull con lo que tendría la siguiente expresión, la cual no tengo idea como resolverla e implementarla en R.
debo analizar ambos metodos y obtener la misma respusta, pero no se cómo hacerlo.
\(
\displaystyle\sum_{n=0}^{\infty}\frac{t^n\lambda^n}{n!}\Gamma(1+\frac{n}{k})=1+t(1+\beta)\mu \)

18
Estadística / Independencia lineal casi segura
« en: 30 Octubre, 2017, 12:39 am »
Hola necesito ayuda con este ejercicio:

Sean \( X_1,X_2,...,X_n\in\mathbb{R}^p \) vectores aleatorios estocásticamente independientes, tal que \( P(X_i\in\mathcal{W})=0 \) para \( 1\leq i\leq n \) y subespacios vectoriales arbitrarios \( \mathcal{W} \) en \( \mathbb{R}^p \) con dimensión \( dim(\mathcal{W})<p \)
Probar que \( X_1,...,X_{min(n,p)} \) son linealmente independientes casi seguramente. Concluir luego que \( rank(\sum_{i=1}^nX_iX_i^T)=min(n,p) \) casi seguramente.
 
No tengo idea como desarrollar este ejercicio. Conozco que: \( P(X_1,X_2,...,X_n)=P(X_1)P(X_2)..P(X_n) \) pues los vectores son independientes, pero no entiendo que más puedo argumentar para demostrar lo solicitado.


Saludos

19
Hola, necesito ayuda con el siguiente ejercicio:
Sea \( (\sigma,\mathcal{F},(\mathcal{F}_n)_{n\geq 0},P) \) un espacio de probabilidad filtrado $(M_n)_{n\geq 0}$ que es uniformemente acotado en \( L^2 \) y $(c_n)_{n\geq 1}$ una sucesión previsible que es uniformemente acotada, casi seguramente, es decir existen constantes \( L,K \) tal que:
\(  \sup_{n\geq 0} E(M_n^2)\leq L,\ \ \ \ \sup_{n\geq 1}|c_n|\leq K \ \ \ \ a.s  \), Se define la sucesión \( (M_n)_{n\geq 0} \) via:
\( Y_n=\displaystyle\sum_{i=1}^nc_i(M_i-M_{i-1}) \)
Mostrar que la sucesión \( (Y_n)_{n\geq 0} \) convege casi seguramente y en \( L^2 \) a una variable aleatoria de cuadrado integrable \( Y_{\infty} \). Para ello el profesor me ha sugerido lo siguiente:

a)Probar que \( (Y_n)_{n\geq 0} \) es una martingale:

Aquí he procedido de la siguiente manera:
Quiero probar que:
\( E|Y_n|\leq\infty \)
Ahora bien, tengo que \( E|Y_n|= E|\displaystyle\sum_{i=1}^nc_i(M_i-M_{i-1})| \) utilizando la desigualdad de Cauchy Schwarz varias veces tengo que:
\( \leq E\displaystyle\sum_{i=1}^n|c_i(M_i-M_{i-1})| \)
\( \leq E\displaystyle\sum_{i=1}^n|c_i||(M_i-M_{i-1})| \)
\( \leq E\displaystyle\sum_{i=1}^n|c_i||(M_i|-|M_{i-1})| \)
Aplicando la definición de linearidad de la Esperanza condicional:
\( \leq \displaystyle\sum_{i=1}^nE|c_i|E|(M_i|-|M_{i-1})| \)
\( \leq \displaystyle\sum_{i=1}^nE|c_i|E|(M_i|-E|M_{i-1})|\leq\infty \)

para finalizar esto necesito probar

\( Y_n \) is \( \mathcal{F}_n \)-measurable, no esoy claro como realizar las dos partes que me faltan para probar que en efecto \( Y_n \) es una martingale, es decir faltaría esta: \( E[Y_{n+1}|\mathcal{F_n}]=E[Y_n] \)

b) Mostrar que \( (Y_n)_{n\geq 1} \) es uniformemente acotada en \( L^2 \)

c)Probar que \(  Y_n \) es martingala: Usando una adaptación del siguiente teorema: (imagen adjunta)
Gracias por su ayuda.

20
Estadística / Estimador consistente.
« en: 22 Octubre, 2017, 10:15 pm »
Hola, necesito ayuda con esto:

Asuma que \( \Sigma \) es una matriz no singular y que \( E||X_i||^4<\infty \), Como puede estimar \( E||\Sigma^{-1/2}\hat\Sigma\Sigma^{-1/2}-I_p||^2_F \) consistentemente de los datos? Justifique que el estimador es consistente.

Ahora bien, estuve revisando en mis notas de clase y tengo un corolario que dice lo siguiente:

Sea \( \Sigma \) es una matriz no singular y que \( E||X_i||^4<\infty \), entonces
\( E||\Sigma^{-1/2}\hat\Sigma\Sigma^{-1/2}-I_p||^2_F=\frac{E||Z_i||^4-p}{n}+\frac{p(p+1)}{n(n-1)} \) con \( Z_1=\Sigma^{-1/2}(X_1-\mu) \)

Quiere entender, supongo que tengo un cojunto de datos \( X_1,X_2,...,X_n \) en este capítulo ha sido de central importancia el estudio de la matrix de localización \( \mu \) y la matriz de dispersión (scatter) \( \Sigma \), dado que no cuento con eso en mi conjunto de datos lo que supongo que debería hacer es considerar la estimación \( \hat\Sigma=\frac{1}{n-1}\sum_{i=1}^n(X_i-\mu)(X_i-\mu)^T \), además dado que \( \Sigma\in\mathbb{R}^{p\times p} \) tengo \( p \) y \( n \) adicionalmente usaría la estimación usual de \( \mu \) \( \hat{\mu}=\frac{1}{n}\sum_{i=1}^nX_i \) ahora lo que me faltaría es probar la consistencia, he leído que debo probar que se cumple que el estimador converge en probabilidad al valor real (en este caso al valor a la derecha dado en el corolario) pero no tengo claro como probar que se cumple tal consistencia.


Saludos

Páginas: [1] 2 3 4 ... 32