da Nidhogg » 20/02/2006, 10:16
La varianza misura il grado di variabilità di una distribuzione. Essa è il valor medio del quadrato degli scarti dei valori dalla media. La varianza è sempre positiva e vale zero nel caso in cui i valori sono tutti uguali fra loro, e quindi la variabilità non esiste! Quindi se la varianza aumenta, aumenta la variabilità della distribuzione, e aumenta la dispersione dei valori. Se la varianza diminuisce, diminuisce la variabilità e diminuisce la dispersione dei valori. Con dispersione quindi si indica la distanza fra valori e valor medio della distribuzione. Per fare questa stima si utilizza la varianza.
Spero di essere stato chiaro
Ciao Piera!
"Una delle principali cause della caduta dell'Impero Romano fu che, privi dello zero, non avevano un modo per indicare la corretta terminazione dei loro programmi C." - Robert Firth