<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://jardin.cscsp.ch/index.php?action=history&amp;feed=atom&amp;title=Covarianza_%28probabilit%C3%A0%29</id>
	<title>Covarianza (probabilità) - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://jardin.cscsp.ch/index.php?action=history&amp;feed=atom&amp;title=Covarianza_%28probabilit%C3%A0%29"/>
	<link rel="alternate" type="text/html" href="https://jardin.cscsp.ch/index.php?title=Covarianza_(probabilit%C3%A0)&amp;action=history"/>
	<updated>2026-04-11T20:49:05Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.44.0</generator>
	<entry>
		<id>https://jardin.cscsp.ch/index.php?title=Covarianza_(probabilit%C3%A0)&amp;diff=466&amp;oldid=prev</id>
		<title>150.217.8.137: /* Definizione */ è presente un solo prodotto nella formula</title>
		<link rel="alternate" type="text/html" href="https://jardin.cscsp.ch/index.php?title=Covarianza_(probabilit%C3%A0)&amp;diff=466&amp;oldid=prev"/>
		<updated>2023-10-18T08:38:21Z</updated>

		<summary type="html">&lt;p&gt;&lt;span class=&quot;autocomment&quot;&gt;Definizione: &lt;/span&gt; è presente un solo prodotto nella formula&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{NN|statistica|agosto 2021}}&lt;br /&gt;
In [[statistica]] e in [[teoria della probabilità]], la &amp;#039;&amp;#039;&amp;#039;covarianza&amp;#039;&amp;#039;&amp;#039; di due [[Variabile (statistica)|variabili statistiche]] o [[variabile aleatoria|variabili aleatorie]] è un valore numerico che fornisce una misura di quanto le due varino assieme.&lt;br /&gt;
&lt;br /&gt;
== Probabilità ==&lt;br /&gt;
=== Definizione ===&lt;br /&gt;
La covarianza di due variabili aleatorie &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; è il [[valore atteso]] del prodotto delle loro distanze dalla media:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathrm{Cov}(X,Y)=\mathbb{E}\Big[\big(X-\mathbb{E}[X]\big)(Y-\mathbb{E}[Y]\big)\Big].&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La covarianza di &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; può anche essere espressa come la differenza tra il [[valore atteso]] del loro prodotto e il prodotto dei loro valori attesi:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathrm{Cov}(X,Y)=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y].&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infatti per la [[trasformazione lineare|linearità]] del valore atteso risulta&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbb{E}\Big[XY-X\mathbb{E}[Y]-\mathbb{E}[X]Y+\mathbb{E}[X]\mathbb{E}[Y]\Big]=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y]-\mathbb{E}[X]\mathbb{E}[Y]+\mathbb{E}[X]\mathbb{E}[Y]=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y]. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Proprietà ===&lt;br /&gt;
La covarianza rispetta le seguenti proprietà, per variabili aleatorie &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Z&amp;lt;/math&amp;gt;, e costanti &amp;lt;math&amp;gt;a&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt;:&lt;br /&gt;
* &amp;lt;math&amp;gt;\text{Cov}(X,Y)=\text{Cov}(Y,X)\ &amp;lt;/math&amp;gt;&lt;br /&gt;
* &amp;lt;math&amp;gt;\text{Cov}(aX+b,Y)=a\text{Cov}(X,Y)\ &amp;lt;/math&amp;gt;&lt;br /&gt;
* &amp;lt;math&amp;gt;\text{Cov}(X+Y,Z)=\text{Cov}(X,Z)+\text{Cov}(Y,Z)\ &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Due variabili aleatorie [[variabili indipendenti|indipendenti]] hanno covarianza nulla, poiché dalla loro indipendenza segue&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y].&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Due variabili aleatorie che hanno covarianza nulla sono [[Correlazione (statistica)|incorrelate]].&lt;br /&gt;
&lt;br /&gt;
Due variabili aleatorie dipendenti possono essere incorrelate. Ad esempio, se &amp;lt;math&amp;gt;X&amp;lt;/math&amp;gt; è una variabile aleatoria di [[variabile casuale uniforme continua|legge uniforme]] sull&amp;#039;intervallo &amp;lt;math&amp;gt;[-1,1]&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y=X^2&amp;lt;/math&amp;gt;, allora&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\textstyle \text{Cov}(X,Y)=\text{Cov}(X,X^2)=\mathbb{E}[X^3]-\mathbb{E}[X]\mathbb{E}[X^2]=0-0 \mathbb{E}[X^2]=0.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=== Varianza ===&lt;br /&gt;
La covarianza può essere considerata una generalizzazione della [[varianza]]&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\text{Var}(X)=\text{Cov}(X,X)\ &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
e compare come termine di &amp;#039;&amp;#039;correzione&amp;#039;&amp;#039; nella relazione&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\text{Var}(X+Y)=\text{Var}(X)+\text{Var}(Y)+2\text{Cov}(X,Y).&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Più in generale, per variabili aleatorie &amp;lt;math&amp;gt;X_1,\ldots,X_n&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y_1,\ldots,Y_m&amp;lt;/math&amp;gt; vale&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\textstyle \text{Var}(\sum_iX_i)=\text{Cov}(\sum_iX_i,\sum_jX_j)=\sum_{i,j}\text{Cov}(X_i,X_j)=\sum_i\text{Var}(X_i)+2\sum_{i&amp;gt;j}\text{Cov}(X_i,X_j),&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
come caso particolare di&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\textstyle \text{Cov}\left(\sum_i X_i, \sum_j Y_j\right)=\sum_{i,j}\text{Cov}(X_i,Y_j).&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Statistica ==&lt;br /&gt;
In [[statistica]] la covarianza di due [[Variabile (statistica)|variabili statistiche]] &amp;lt;math&amp;gt; X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;Y&amp;lt;/math&amp;gt;, indicata come &amp;lt;math&amp;gt;\textstyle \sigma_{X,Y}=\text{Cov}(X,Y)&amp;lt;/math&amp;gt;, è un [[Indice (statistica)|indice]] di variabilità congiunta.&lt;br /&gt;
&lt;br /&gt;
Su una [[Popolazione (statistica)|popolazione]] di &amp;lt;math&amp;gt;N&amp;lt;/math&amp;gt; osservazioni congiunte &amp;lt;math&amp;gt;(x_i,y_i)&amp;lt;/math&amp;gt;, di rispettive [[Media (statistica)|medie]] &amp;lt;math&amp;gt;\bar{x}&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;\bar{y}&amp;lt;/math&amp;gt;, la covarianza osservata è&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\sigma_{X,Y}=\frac{1}{N}\sum_{i=1}^N(x_i-\bar{x})(y_i-\bar{y})=\frac{1}{N}\sum_{i=1}^N x_iy_i-\left(\frac{1}{N}\sum_{i=1}^N x_i\right)\left(\frac{1}{N}\sum_{i=1}^N y_i\right).&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Uno [[stimatore]] della covarianza di &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; osservazioni congiunte &amp;lt;math&amp;gt;(x_i,y_i)&amp;lt;/math&amp;gt; può essere ottenuto correggendo la formula della covarianza, dividendo per il numero di gradi di libertà. In questo caso il numero di gradi di libertà è dato dal numero delle osservazioni, &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt;, a cui va sottratto il numero di stimatori utilizzati nel computo della covarianza. Nella covarianza entrano le medie campionarie delle &amp;lt;math&amp;gt;x_i, y_i&amp;lt;/math&amp;gt;, e si può dimostrare che il computo di queste medie corrisponde alla sottrazione di 1 solo grado di libertà (non due, come ci si potrebbe aspettare). Perciò lo stimatore della covarianza è dato da &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;s_{X,Y}=\frac{\sum_{i=1}^n x_i y_i}{n-1}-\frac{\sum_{i=1}^n x_i}{n-1}\frac{\sum_{i=1}^n y_i}{n}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Lo stimatore della covarianza è anche detto covarianza campionaria.&lt;br /&gt;
&lt;br /&gt;
La [[varianza]] e la covarianza intervengono per definire l&amp;#039;[[indice di correlazione di Bravais-Pearson]]&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\rho_{X,Y}=\frac{\sum_i(x_i-\bar{x})(y_i-\bar{y})}{\sqrt{\sum_j(x_j-\bar{x})^2 \sum_k(y_k-\bar{y})^2}} =\frac{\text{Cov}(X,Y)}{\sqrt{\text{Var}(X)\text{Var}(Y)}}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La covarianza è limitata dalla [[disuguaglianza di Cauchy-Schwarz]], infatti siano &amp;lt;math&amp;gt;U = (x_1-\bar{x},\ldots, x_n-\bar{x})&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;V = (y_1-\bar{y},\ldots, y_n-\bar{y})&amp;lt;/math&amp;gt; i vettori degli scarti degli &amp;lt;math&amp;gt;x_i&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;y_i&amp;lt;/math&amp;gt; rispetto alle relative medie, si può applicare la diseguaglianza ottenendo&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;|\langle U,V\rangle| \le \sqrt{\langle U,U\rangle\langle V,V\rangle}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
che equivale a scrivere&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\left|\sum_{i=1}^n(x_i-\bar{x})(y_i-\bar{y})\right| \leq \sqrt{\sum_{i=1}^n(x_i-\bar{x})^2\sum_{i=1}^n(y_i-\bar{y})^2}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Moltiplicando per Un fattore &amp;lt;math&amp;gt;1/n&amp;lt;/math&amp;gt; entrambi i lati si ottiene la relazione&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;|\sigma_{X,Y}|\leq \sigma_X\sigma_Y,&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dove &amp;lt;math&amp;gt;\sigma_X&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;\sigma_Y&amp;lt;/math&amp;gt; sono le deviazioni standard per le due variabili. &lt;br /&gt;
&lt;br /&gt;
Nel caso in cui &amp;lt;math&amp;gt;z = f(x,y)&amp;lt;/math&amp;gt; possiamo dire che la covarianza è limitata nell&amp;#039;intervallo&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;|\sigma_{Z}| \leq |\partial_x f(x,y)|\sigma_X + |\partial_y f(x,y)|\sigma_Y.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Infatti, l&amp;#039;espressione generale per la deviazione standard di &amp;lt;math&amp;gt;z&amp;lt;/math&amp;gt; è&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\sigma_Z = \sqrt{|\partial_x f(x,y)|^2\sigma_X^2 + |\partial_y f(x,y)|^2\sigma_Y^2 + 2|\partial_x f(x,y)||\partial_y f(x,y)|\sigma_{X,Y}}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Il valore massimo (minimo), per monotonia delle funzioni, sarà ottenuto in corrispondenza di &amp;lt;math&amp;gt;\sigma_{X,Y} = \sigma_X\sigma_Y&amp;lt;/math&amp;gt; (&amp;lt;math&amp;gt;\sigma_{X,Y} =- \sigma_X\sigma_Y&amp;lt;/math&amp;gt;), quindi il valore corrispondente di &amp;lt;math&amp;gt;\sigma_{Z}&amp;lt;/math&amp;gt; massimo sarà&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\sigma_Z = \sqrt{|\partial_x f(x,y)|^2\sigma_X^2 + |\partial_y f(x,y)|^2\sigma_Y^2 + 2|\partial_x f(x,y)||\partial_y f(x,y)|\sigma_{X}\sigma_{Y}} = |\partial_x f(x,y)|\sigma_X + |\partial_y f(x,y)|\sigma_Y.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Osserviamo che il valore massimo è dato dalla somma diretta dei contributi delle incertezze tipo moltiplicate per i relativi coefficienti ottenuti linearizzando la relazione. Si dimostra anche che tale formula è generalizzabile al caso di una funzione dipendente da &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; variabili.&lt;br /&gt;
&lt;br /&gt;
== Voci correlate ==&lt;br /&gt;
* [[Valore atteso]]&lt;br /&gt;
* [[Variabili dipendenti e indipendenti]]&lt;br /&gt;
* [[Varianza]]&lt;br /&gt;
* [[Matrice delle covarianze]]&lt;br /&gt;
&lt;br /&gt;
== Collegamenti esterni ==&lt;br /&gt;
* {{Collegamenti esterni}}&lt;br /&gt;
&lt;br /&gt;
{{Statistica}}&lt;br /&gt;
{{Concetti base di metrologia, statistica e metodologia della ricerca}}&lt;br /&gt;
{{Controllo di autorità}}&lt;br /&gt;
{{portale|matematica|scienza e tecnica|statistica}}&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Statistica matematica]]&lt;br /&gt;
[[Categoria:Analisi della varianza]]&lt;br /&gt;
[[Categoria:Indici di correlazione]]&lt;/div&gt;</summary>
		<author><name>150.217.8.137</name></author>
	</entry>
</feed>