Correlazione (statistica)

Revision as of 21:43, 12 March 2025 by imported>FrescoBot (Bot: numeri di pagina nei template citazione)
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
File:Correlation examples.png
Diversi insiemi di punti di due variabili (X;Y) con relativo coefficiente di correlazione Pearson. Il coefficiente di correlazione rispecchia la rumorosità e la direzione di un rapporto lineare (riga in alto), ma non la pendenza di tale relazione (in centro), ne eventuali altri aspetti di correlazione non lineare (in basso). N.B.: la figura in centro ha coefficiente di correlazione indefinito dato che ha pendenza uguale a 0, a causa della varianza della variabile Y uguale a 0.

In statistica, una correlazione è una relazione tra due variabili tale che a ciascun valore della prima corrisponda un valore della seconda, seguendo una certa regolarità.<ref>Template:Cita web</ref><ref>Template:Cita web</ref> La correlazione non dipende da un rapporto di causa-effetto quanto dalla tendenza di una variabile a cambiare in funzione di un'altra.

Detto altrimenti correlazione non significa causazione<ref>https://www.tylervigen.com/spurious-correlations</ref>.

Storia

Il termine apparve per la prima volta in un'opera di Francis Galton, Hereditary Genius (1869).<ref>Template:Cita web</ref> Non fu definita in modo più approfondito (la moralità di un individuo e la sua instabilità morale sono non correlate)<ref>Template:Cita web</ref>.

Otto anni dopo, nel 1877, lo stesso Galton scoprì che i coefficienti di regressione lineare tra X e Y sono gli stessi se a entrambe le variabili viene applicata la deviazione standard σx e σy: Galton utilizzò in realtà lo scarto interquartile, definendo il parametro "coefficiente di co-relazione" e abbreviando "regressione" in r<ref>Template:Cita web</ref>.

Descrizione

In base alle caratteristiche presentate, la correlazione può definirsi:

  • diretta (o positiva): la variazione di un elemento interessa - in via diretta - anche l'altro. Per esempio, alle stature alte dei padri corrispondono stature alte dei figli;
  • indiretta (anche inversa o negativa): alla variazione di un elemento corrisponde, in senso contrario, quella dell'altro. Ad esempio, a una maggior produzione di grano corrisponde un prezzo minore.

Inoltre, le correlazioni possono essere:

  • semplici: mettono in relazione due fenomeni, per esempio il numero di matrimoni e la quantità di nascite;
  • doppie: se i fenomeni posti in relazione sono tre, come la circolazione monetaria, i prezzi e il risparmio;
  • triple: quando pongono in relazione tra loro quattro elementi.

Il grado di correlazione tra due variabili viene espresso tramite l'indice di correlazione.<ref>Template:Cita web</ref> Il valore che esso assume è compreso tra −1 (correlazione inversa) e 1 (correlazione diretta e assoluta), con un indice pari a 0 che comporta l'assenza di correlazione; il valore nullo dell'indice non implica, tuttavia, che le variabili siano indipendenti.

I coefficienti di correlazione sono derivati dagli indici, tenendo presenti le grandezze degli scostamenti dalla media. In particolare, l'indice di correlazione di Pearson è calcolato come rapporto tra la covarianza delle due variabili e il prodotto delle loro deviazioni standard:<ref>Dove si semplificano i fattori <math>\frac{1}{n}</math> a numeratore e denominatore.</ref>

<math>-1\le\rho_{xy}=\frac{\sigma_{xy}}{\sigma_x\sigma_y}=\frac{\sum_{i=1}^n(x_i-\mu_x)(y_i-\mu_y)}{\sqrt{\sum_{i=1}^n(x_i-\mu_x)^2}\sqrt{\sum_{i=1}^n(y_i-\mu_y)^2}}\le+1</math>

Va comunque notato che gli indici e i coefficienti di correlazione siano da ritenersi sempre approssimativi, a causa dell'arbitrarietà con cui sono scelti gli elementi: ciò è vero, in particolare, nei casi di correlazioni multiple.

Contrariamente a quanto si potrebbe intuire, la correlazione non dipende da un rapporto di causa-effetto quanto dalla tendenza di una variabile a cambiare in funzione di un'altra.<ref>Template:Cita web</ref> Le variabili possono essere tra loro dipendenti (per esempio la relazione tra stature dei padri e dei figli) oppure comuni (relazione tra altezza e peso di una persona).<ref>Template:Cita web</ref>

Nel cercare una correlazione statistica tra due grandezze, per determinare un possibile rapporto di causa-effetto, essa non deve risultare una correlazione spuria.<ref>Template:Cita web</ref>

Errore standard

Se <math>x</math> e <math>y</math> sono variabili aleatorie, l'errore standard associato al coefficiente di correlazione è:

<math>SE_r =\sqrt{\frac{1-r^2}{n-2}},</math><ref>Template:Cita web</ref>

dove <math>r</math> è il coefficiente di correlazione e <math>n</math> è la numerosità campionaria.<ref>Template:Cita pubblicazione</ref><ref>Template:Cita web</ref>

Note

<references />

Voci correlate

Altri progetti

Template:Interprogetto

Collegamenti esterni

Template:Statistica Template:Controllo di autorità Template:Portale

Categoria:Indici di correlazione Categoria:Psicometria Categoria:Econometria Categoria:Teoria della probabilità Categoria:Analisi della varianza