Voy a presentarte una demostración, partiendo de la aceptación de la premisa, es decir si es cierto que el valor de tu expresión es cero.
<h6>En un analisis de regresion estadistica, se debe tomar cierto modelo, aqui empleare un modelo lineal de dos variables (x, y) y el modelo sera y^ =mx + b. Se sabe que : b = Y_ + m x_ , </h6>
De tu expresión Suma [(y - mx - b) .
m ( por - por _ ) ], Expresión
ALFAObservaras que he cambiado tu segundo
factor ( y^ - y_)Esto se puede hacer, por la equivalencia respectiva : En las ecuaciones del modelo de regresion lineal y^ =mx + b. Se sabe que : b = Y_ + m x_ , en la expresion de y^ =mx + b. reemplaza el termino b de la derecha por : b = Y_ + m x_ y al transponer Y y factorizar m , tienes ( y^ - y_) = m ( x - x _ )Ahora trabajemos tu primer factor ( Y - Y^) = ( Y - mx - b)( Y - Y^) = , { Y - y_ - m ( x - x _ )}Escribimos Suma ({Y - y_ - m ( x - x _ )} {m ( x - x _ )})Podemos sacar el factor m fuera de la sumatoriam . Suma ({(Y - y_ ) - m ( x - x _ )} {( x - x _ )})el parentesis interno de la sumatoria puede trabajarse asi :{( x - x _ ) (Y - y_ ) - m ( x - x _ )( x - x _ ) }, pero el valor de la pendiente m esta dado por la expresion : m = suma {( x - x _ ) (Y - y_ )} / suma{ ( x - x _ )( x - x _ ) },queda como resultado cero, que es lo que querias demostrar.Ademas, te indico esta adicional si hemos considerado el modelo de regresionY^ = mx + b, se cumple que el modelo pasa por el mundo medio de la dataes decir Y_ = m X_ + b , y Y = mx + b en general, (por considerarse un modelo teorico ideal)Eliminando de estas dos ecuaciones el parametro b, tenemos0 = (Y_ Y) - m ( X_ - X) y al multiplicar por ( X_ - X) y despejar m se obtiene la expresión que se uso como reemplazo. Espero que te haya servido de utilidad. En todo caso mi email es [email protected] Mucho animo en tus estudios