Raptorista ha scritto:L'errore in un punto è il modulo della differenza tra il valore esatto ed il valore interpolato. L'errore totale è la somma dell'errore nei singoli punti.
Per quanto essa sia una possibile misura della dispersione, in questo caso violerebbe l'idea stessa del metodo che è quello di minimizzare i quadrati delle distanze (proprio per evitare di dover usare le differenze in modulo).
Nel metodo dei minimi quadrati la varianza totale della variabile dipendente viene scomposta nella somma fra la varianza spiegata dal modello + la varianza dovuta alla dispersione (l'errore). Da qua si definisce anche l'indice di correlazione lineare.
Quindi l'errore è la radice della varianza di dispersione, ovvero la radice della media della somma dei quadrati delle distanza fra i valori campionati e quelli interpolati.