Estadística matemática con aplicaciones 5.130

del libro estadística matemáticas con aplicaciones...

Respuesta
1

5.130)

Pongamos el producto de las variables U1 y U2 como un sumatorio

$$\begin{align}&Cov (U_1,U_2)= E(U_1·U_2)- E(U_1)E(U_2)\\ &\\ &E(U_1·U_2) = E\left(\sum_{i,j=1}^n a_ib_jX_iX_j\right)=\sum_{i,j=1}^n a_ib_jE(X_iX_j)=\\ &\\ &\\ &\text {Como \Xi y Xj son independientes si i }\ne j\; tendremos\\ &\\ &E(X_iX_j)= E(X_i)E(X_j) \;para\; i \ne j\\ &\\ &\text{Por otro lado}\\ &\\ &E(U_1)E(U_2) = \sum_{i,j=1}^n a_ib_jE(X_i)E(X_j)\\ &\\ &\text {Y la covariaznza que  simplificada a esto}\\ &\\ &\\ &Cov(U_1,U_2)=\sum_{i=1}^n a_ib_iE(X_iX_i)- \sum_{i=1}^n a_ib_iE(X_i)E(X_i)\\ &\\ &\end{align}$$

Por otro lado tenémos algunos resultados que podemos utilizar como

V(X) = E[X^2] - [E(X)]^2

E[X^2] = V(X) + [E(X)]^2

Aplicado esto a nuestras variables Xi tendremos

$$\begin{align}&E(X_i^2)=\sigma^2+\mu^2\\ &E(X_i)E(X_i)=\mu^2\\ &\\ &\text{Aplicando esto a la covarianza tenemos}\\ &\\ &Cov(U_1,U_2)=\sum_{i=1}^n a_ib_iE(X_iX_i)- \sum_{i=1}^n a_ib_iE(X_i)E(X_i)\\ &\\ &\\ &Cov(U_1,U_2)=\sum_{i=1}^n a_ib_i(\sigma^2+\mu^2)-\sum_{i=1}^n a_ib_i \mu^2=\\ &\\ &\sum_{i=1}^n a_ib_i \sigma^2= \sigma^2\sum_{i=1}^n a_ib_i=0\\ &\end{align}$$

La última igualdad a cero es por la hipótesis que nos dicen de ortogonalidad. No nos han dicho que la varianza sea distinta de cero, se les habrá olvidado. Bueno, teniendo eso en cuenta, de la última linea se deduce que el sumatorio de los ai·bi del enunciado es cero.

Hemos expresado la covarianza como un sumatorio sin necesidad de aplicar que eran ortogonales para nada solo al final cuando hemos añadido ese cero.

Y si el sumatorio del los ai·bi es cero se deduce que la covarianza es cero con lo cual U1 y U2 son ortogonales, luego queda demostrado el si y solo si en los dos sentidos.

b) Es demasiado, no puedo ella. Aun estoy temblando desde cuando vi la definición de una normal bivariante.

Y eso es todo.

Añade tu respuesta

Haz clic para o

Más respuestas relacionadas