8.17)
a) El sesgo es la esperanza del estimador menos el el valor que se estima. No funciona el editor de ecuaciones, llamare P al estimador p con gorro sub 2
B(P) = E(P) - p = E[(Y+1)/(n+2)] - p = [E(Y) +1]/(n+2) - p = (np+1)/(n+2) - p =
(np+1)/(n+2) - p = (np+1-np-2p)/(n+2) = (1-2p) / (n+2)
b) Ahora llamaré Q al estimador p con gorro sub 1 = Y/n
B(Q) = E(Q) - p = E(Y) / n - p = np/n - p = p - p = 0
MSE(Q) = V(Q) + [B(Q)]^2 = V(Y/n) + 0 = V(Y) / n^2 = n(p)(1-p)/n^2 = p(1-p)/n
MSE(P) = V(P) + [B(P)]^2 = V[(Y+1)/(n+2)] + [(1-2p)/(n+2)]^2 =
Calculamos aparte la varianza
V(Y+1) = E[(Y+1)^2] - [E(Y+1)]^2 = E(Y^2) + 2E(Y) + 1 - [E(Y)]^2 - 2E(Y) - 1 =
E(Y^2) - [E(Y)]^2 = V(Y) = np(1-p)
MSE(P) = np(1-p)/(n+2)^2 + [(1-2p)/(n+2)]^2 =
[np(1-p) + (1-2p)^2] / (n+2)^2
c) Cuando p es proximo a 0.5 desparece el segundo sumando de p con gorro 2 los factores de p(1-p) son 1/n y n/(n+2)^2 el segundo es clareamente menor luego el MSE de pg2 es menor. Asi que no estoy de acuerdo con la respuesta del libro.
Y eso es todo.