<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://jardin.cscsp.ch/index.php?action=history&amp;feed=atom&amp;title=Analisi_della_varianza</id>
	<title>Analisi della varianza - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://jardin.cscsp.ch/index.php?action=history&amp;feed=atom&amp;title=Analisi_della_varianza"/>
	<link rel="alternate" type="text/html" href="https://jardin.cscsp.ch/index.php?title=Analisi_della_varianza&amp;action=history"/>
	<updated>2026-04-11T20:45:51Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.44.0</generator>
	<entry>
		<id>https://jardin.cscsp.ch/index.php?title=Analisi_della_varianza&amp;diff=230&amp;oldid=prev</id>
		<title>imported&gt;Capagira: + 2 rif. bibliografici</title>
		<link rel="alternate" type="text/html" href="https://jardin.cscsp.ch/index.php?title=Analisi_della_varianza&amp;diff=230&amp;oldid=prev"/>
		<updated>2025-08-23T08:20:24Z</updated>

		<summary type="html">&lt;p&gt;+ 2 rif. bibliografici&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{NN|matematica|gennaio 2018|}}&lt;br /&gt;
L&amp;#039;&amp;#039;&amp;#039;&amp;#039;analisi della varianza&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;ANOVA&amp;#039;&amp;#039;, dall&amp;#039;[[Lingua inglese|inglese]] &amp;#039;&amp;#039;Analysis of Variance&amp;#039;&amp;#039;) è un insieme di tecniche [[statistica|statistiche]] facenti parte della [[statistica inferenziale]] che permettono di confrontare due o più gruppi di dati calcolando e confrontando la variabilità &amp;#039;&amp;#039;interna&amp;#039;&amp;#039; a questi gruppi con la variabilità &amp;#039;&amp;#039;tra&amp;#039;&amp;#039; i gruppi.&amp;lt;ref&amp;gt;{{Cita libro|autore=Sheldon M. Ross|titolo=Probabilità e statistica per l&amp;#039;ingegneria e le scienze|edizione=4^ ed.|anno=2023|editore=Maggioli Editore|capitolo=cap. 10: Analisi della Varianza|isbn=978-8891663351}}&amp;lt;/ref&amp;gt;&amp;lt;ref&amp;gt;{{Cita libro|autore=Steven Bernstein , Ruth Bernstein|titolo=Statistica inferenziale|anno=2003|editore=McGraw-Hill Education|capitolo=Cap. 7|ISBN=9788838650727}}&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L&amp;#039;analisi della varianza prevede una verifica di validità dell&amp;#039;[[ipotesi nulla]], che prescrive che i dati di tutti i gruppi abbiano la stessa origine, ovvero la stessa [[variabile casuale|distribuzione stocastica]], e le differenze osservate tra i gruppi siano dovute solo al caso.&lt;br /&gt;
&lt;br /&gt;
Si tratta di tecniche usate soprattutto quando le variabili esplicative sono di tipo nominale (discreto); nulla impedisce di usarle anche in presenza di variabili esplicative di tipo ordinale o continuo, ma in questo caso si ha un&amp;#039;efficienza minore rispetto a tecniche alternative (ad esempio la [[regressione lineare]]).&lt;br /&gt;
&lt;br /&gt;
== Ipotesi di base ==&lt;br /&gt;
L&amp;#039;ipotesi alla base dell&amp;#039;analisi della varianza è che dati &amp;lt;math&amp;gt;G&amp;lt;/math&amp;gt; gruppi, sia possibile scomporre la [[varianza]] in due componenti: &amp;#039;&amp;#039;Varianza interna ai gruppi&amp;#039;&amp;#039; (anche detta &amp;#039;&amp;#039;Varianza Within&amp;#039;&amp;#039;) e &amp;#039;&amp;#039;Varianza tra i gruppi&amp;#039;&amp;#039; (&amp;#039;&amp;#039;Varianza Between&amp;#039;&amp;#039;). La ragione che spinge a compiere tale distinzione è la convinzione, da parte del ricercatore, che determinati fenomeni trovino spiegazione in caratteristiche proprie del gruppo di appartenenza. Un esempio tipico, ripreso dalle analisi [[sociologia|sociologiche]], si trova nello studio dei gruppi di tossicodipendenti. In questo caso l&amp;#039;analisi della varianza si usa per determinare se più gruppi possono essere in qualche modo significativamente diversi tra loro (è la varianza &amp;#039;&amp;#039;between&amp;#039;&amp;#039; a contribuire più significativamente alla varianza totale - il fenomeno è legato a caratteristiche proprie di ciascun gruppo, come la zona di residenza) o, viceversa, risultano omogenei (è la varianza &amp;#039;&amp;#039;within&amp;#039;&amp;#039; a contribuire più significativamente alla varianza totale - il fenomeno è legato a caratteristiche proprie di tutti i gruppi). In altre parole, il confronto si basa sull&amp;#039;idea che se la variabilità interna ai gruppi è relativamente elevata rispetto alla variabilità tra i gruppi, allora probabilmente la differenza tra questi gruppi è soltanto il risultato della variabilità interna.&lt;br /&gt;
&lt;br /&gt;
Il più noto insieme di tecniche si basa sul confronto della [[varianza]] e usa variabili di test distribuite come la [[Variabile casuale F di Snedecor|variabile casuale F di Fisher-Snedecor]].&lt;br /&gt;
&lt;br /&gt;
Le diverse tecniche vengono suddivise a seconda del fatto che il modello preveda:&lt;br /&gt;
* una sola causa: ad esempio, il gradimento di un cibo dipende dal colore del medesimo;&lt;br /&gt;
* più di una causa: ad esempio il successo scolastico dipende sia dal grado di interesse individuale nei confronti dello studio e dell&amp;#039;ottenimento di buoni voti, sia dal grado di istruzione dei genitori;&lt;br /&gt;
* interazione tra più cause: ad esempio, la velocità di effetto di una cura medica dipende dall&amp;#039;azione di due farmaci, i quali però si annullano (o rinforzano) a vicenda.&lt;br /&gt;
&lt;br /&gt;
== Discussione analitica ==&lt;br /&gt;
La relazione tra varianza totale &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt; riferita alle &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; unità e varianze calcolate sui singoli gruppi &amp;lt;math&amp;gt;\sigma^2_g&amp;lt;/math&amp;gt; (con &amp;lt;math&amp;gt;g=1,2,\ldots,G&amp;lt;/math&amp;gt;) risulta essere:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\sigma^2=\sum_{g=1}^G \sigma^2_g {{n_g-1} \over {n-1}} + \sum_{g=1}^G (m_g - m)^2 {n_g \over {n-1}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dove &amp;lt;math&amp;gt;m&amp;lt;/math&amp;gt; è la &amp;#039;&amp;#039;[[Media (statistica)|media]] totale&amp;#039;&amp;#039; delle &amp;lt;math&amp;gt;n&amp;lt;/math&amp;gt; unità, uguale alle &amp;#039;&amp;#039;medie parziali&amp;#039;&amp;#039; di ciascun gruppo  &amp;lt;math&amp;gt;m_g&amp;lt;/math&amp;gt; con pesi uguali alle rispettive frequenze relative di gruppo &amp;lt;math&amp;gt;{n_g \over n}&amp;lt;/math&amp;gt;.&lt;br /&gt;
La prima [[sommatoria]] è la varianza within mentre la seconda è la varianza between; equivalentemente si può scrivere:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\sigma^2 = \sigma^2_W + \sigma^2_B. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
A loro volta, le medie parziali &amp;lt;math&amp;gt;m_g&amp;lt;/math&amp;gt; dei valori &amp;lt;math&amp;gt;x_{gj}&amp;lt;/math&amp;gt; del &amp;lt;math&amp;gt;g&amp;lt;/math&amp;gt;-esimo gruppo sono date da:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;m_g=\sum_{j=1}^{n_g}{x_{gj} \over n_g}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Inoltre si ha che:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\sigma^2_g={\sum_{j=1}^{n_g} [x_{gj}-m_g]^2 \over {n_g - 1}}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La varianza &amp;#039;&amp;#039;within&amp;#039;&amp;#039; è uguale alla [[media ponderata]] delle varianze parziali, calcolate in ogni gruppo. I pesi sono uguali alle loro [[Frequenza relativa|frequenze relative]].&lt;br /&gt;
&lt;br /&gt;
La varianza &amp;#039;&amp;#039;between&amp;#039;&amp;#039; è uguale alla varianza ponderata delle medie parziali. I pesi sono uguali alle frequenze relative di gruppo.&lt;br /&gt;
&lt;br /&gt;
== Esempio di analisi della varianza semplice ==&lt;br /&gt;
In questo esempio abbiamo &amp;lt;math&amp;gt;G=4&amp;lt;/math&amp;gt; gruppi di uguale numerosità &amp;lt;math&amp;gt;n_g=5&amp;lt;/math&amp;gt; (per semplificare l&amp;#039;esempio), con &amp;lt;math&amp;gt;g=1,2,3,4&amp;lt;/math&amp;gt;, indicati con &amp;lt;math&amp;gt;A,B,C,D&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;n=20&amp;lt;/math&amp;gt; unità statistiche (cioè il numero di osservazioni sperimentali totali).&lt;br /&gt;
&lt;br /&gt;
Il modello prevede che&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;x_{gj}= \mu+\alpha_{g}+\varepsilon_{gj},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
con &amp;lt;math&amp;gt;g=1,2,3,4&amp;lt;/math&amp;gt; che indica il gruppo e &amp;lt;math&amp;gt;j=1,2,3,4,5&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
L&amp;#039;ipotesi nulla prevede che:&lt;br /&gt;
* i valori osservati derivino da una [[Variabile casuale normale|distribuzione gaussiana]];&lt;br /&gt;
* con stessa media &amp;lt;math&amp;gt;\mu&amp;lt;/math&amp;gt; e stessa [[varianza]] &amp;lt;math&amp;gt;\sigma^2&amp;lt;/math&amp;gt;;&lt;br /&gt;
* &amp;lt;math&amp;gt;\alpha_{g}&amp;lt;/math&amp;gt; sia uguale per tutti i gruppi (e pertanto nullo).&lt;br /&gt;
&lt;br /&gt;
I dati osservati nei quattro gruppi sono:&lt;br /&gt;
{| border=1&lt;br /&gt;
|-----&lt;br /&gt;
! j&lt;br /&gt;
! A&lt;br /&gt;
! B&lt;br /&gt;
! C&lt;br /&gt;
! D&lt;br /&gt;
|-----&lt;br /&gt;
| 1 || 0,72 || 0,75 || 0,68 || 0,78&lt;br /&gt;
|-----&lt;br /&gt;
| 2 || 0,69 || 0,85 || 0,70 || 0,86&lt;br /&gt;
|-----&lt;br /&gt;
| 3 || 0,71 || 0,82 || 0,67 || 0,87&lt;br /&gt;
|-----&lt;br /&gt;
| 4 || 0,70 || 0,80 || 0,65 || 0,84&lt;br /&gt;
|-----&lt;br /&gt;
| 5 || 0,68 || 0,88 || 0,70 || 0,85&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
Siano adesso:&lt;br /&gt;
* &amp;lt;math&amp;gt;SSQ_a&amp;lt;/math&amp;gt;: la somma degli scarti quadratici delle medie dei singoli gruppi (&amp;lt;math&amp;gt;m_g&amp;lt;/math&amp;gt;) dalla media generale &amp;lt;math&amp;gt;m&amp;lt;/math&amp;gt;;&lt;br /&gt;
* &amp;lt;math&amp;gt;SSQ_e&amp;lt;/math&amp;gt;: la somma degli scarti quadratici dei singoli valori &amp;lt;math&amp;gt;x_{gj}&amp;lt;/math&amp;gt; rispetto alla media &amp;lt;math&amp;gt;m_g&amp;lt;/math&amp;gt; del gruppo a cui appartengono;&lt;br /&gt;
* &amp;lt;math&amp;gt;SSQ_{tot}&amp;lt;/math&amp;gt;: la somma degli scarti quadratici di tutti singoli valori rispetto alla media generale &amp;lt;math&amp;gt;m&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Ovvero:&lt;br /&gt;
: &amp;lt;math&amp;gt;m = \frac{1}{n} \sum_{g=1}^G \sum_{j=1}^{n_g} x_{gj}&amp;lt;/math&amp;gt;&lt;br /&gt;
: &amp;lt;math&amp;gt;m_g = \frac{1}{n_g} \sum_{j=1}^{n_g} x_{gj}&amp;lt;/math&amp;gt;&lt;br /&gt;
: &amp;lt;math&amp;gt;SSQ_a = \sum_{g=1}^G n_g (m_g - m)^2&amp;lt;/math&amp;gt;&lt;br /&gt;
: &amp;lt;math&amp;gt;SSQ_e = \sum_{g=1}^G \sum_{j=1}^{n_g} (x_{gj} - m_g)^2&amp;lt;/math&amp;gt;&lt;br /&gt;
: &amp;lt;math&amp;gt;SSQ_{tot} = \sum_{g=1}^G \sum_{j=1}^{n_g} (x_{gj} - m)^2 = SSQ_e + SSQ_a&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La [[variabile test]] diventa:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; T = \frac{SSQ_a / (G - 1)}{SSQ_e / (n - G)}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dove:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;G&amp;lt;/math&amp;gt; è il numero di gruppi (nel nostro esempio: &amp;lt;math&amp;gt;G = 4&amp;lt;/math&amp;gt;);&lt;br /&gt;
:&amp;lt;math&amp;gt;n_g&amp;lt;/math&amp;gt; la numerosità dei singoli gruppi (nel nostro caso &amp;lt;math&amp;gt;n_g = 5&amp;lt;/math&amp;gt; per ogni gruppo);&lt;br /&gt;
:&amp;lt;math&amp;gt;n = \sum_{g=1}^G n_g&amp;lt;/math&amp;gt;, ovvero il numero complessivo di casi osservati (nel nostro caso &amp;lt;math&amp;gt;n = 20&amp;lt;/math&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
Nell&amp;#039;esempio si ottiene che:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;SSQ_{tot} = 0,1176&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;SSQ_a = 0,1000&amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;SSQ_e = 0,0176&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
e pertanto&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;T = \frac{0,1000 / (4 - 1)}{0.0176 / (20 - 4)} = \frac{0,1000 \cdot 16}{0,0176 \cdot 3} = 30,30.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Tale valore viene confrontato con i valori di una [[Distribuzione di Fisher-Snedecor|variabile casuale F di Snedecor]] con &amp;lt;math&amp;gt;G-1=3&amp;lt;/math&amp;gt; e &amp;lt;math&amp;gt;n-G=16&amp;lt;/math&amp;gt; [[Grado di libertà (statistica)|gradi di libertà]]. Se si accetta una percentuale di [[falsi positivi]] del &amp;lt;math&amp;gt;5\% = (100 - 95)\%&amp;lt;/math&amp;gt; tale valore è:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;F(0,95; 3; 16) = 3,24.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Pertanto, essendo &amp;lt;math&amp;gt;30,3 \gg 3,24&amp;lt;/math&amp;gt; si rigetta l&amp;#039;[[ipotesi nulla]] che prevedeva l&amp;#039;assenza di effetti e si afferma che molto probabilmente almeno uno dei quattro gruppi è diverso dagli altri. Forse tutti i gruppi sono diversi uno dall&amp;#039;altro, forse solo uno di loro.&lt;br /&gt;
&lt;br /&gt;
Un test (proposto per la prima volta da [[Ronald Fisher]]) permette di determinare la più piccola differenza significativa tra la media di due gruppi, confrontandoli uno a uno.&lt;br /&gt;
&lt;br /&gt;
Tale differenza è:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;t \left ( \frac{0,05}{2}; n - G \right ) \cdot \sqrt{\left ( SSQ_e \left ( \frac{1}{n_p} + \frac{1}{n_q} \right ) \right ) }.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Software statistico R ==&lt;br /&gt;
Il calcolo dell&amp;#039;ANOVA con il [[R (software)|software R]] si esegue in diversi modi: a seconda dei dati da analizzare.&lt;br /&gt;
Prima di procedere nel calcolo vero e proprio è necessario verificare i seguenti assunti: &lt;br /&gt;
# Indipendenza dei punteggi osservati (se i soggetti sono tra loro indipendenti ci troviamo nell&amp;#039;opzione &amp;#039;TRA CASI&amp;#039;; se l&amp;#039;assunto non è rispettato (ovvero si fanno più misurazioni agli stessi soggetti) siamo nell&amp;#039;opzione &amp;#039;ENTRO CASI&amp;#039; che segue modalità di calcolo proprie);&lt;br /&gt;
# normalità della distribuzione;&lt;br /&gt;
# [[omoschedasticità]] (o omogeneità delle varianze);&lt;br /&gt;
&lt;br /&gt;
Il secondo assunto può essere valutato in due modi:&lt;br /&gt;
* test di normalità di Kolmogorov-Smirnov:&lt;br /&gt;
  &amp;gt;ks.test(x, pnorm, mean(x), sd(x))&lt;br /&gt;
dove: &lt;br /&gt;
* x è la variabile di cui si vuole valutare la normalità;&lt;br /&gt;
* mean(x) calcola la media di tale distribuzione;&lt;br /&gt;
* sd(x) calcola la deviazione standard di tale distribuzione;&lt;br /&gt;
* pnorm esegue il confronto tra la distribuzione e una distribuzione normale teorica con media=mean(x) e deviazione standard=sd(x).&lt;br /&gt;
&lt;br /&gt;
Dell&amp;#039;output restituito si legge solo il p-value: deve essere maggiore o uguale a 0.05 (o ad un alpha prefissato). &lt;br /&gt;
L&amp;#039;ipotesi nulla sostiene infatti che la distribuzione è normale; &lt;br /&gt;
* test di normalità di Shapiro-Wilk:&lt;br /&gt;
  &amp;gt;shapiro.test(x)&lt;br /&gt;
questo comando richiede solo la variabile da analizzare. &lt;br /&gt;
Stesso discorso di prima per l&amp;#039;output e le ipotesi del test.&lt;br /&gt;
&lt;br /&gt;
Il terzo assunto, omogeneità delle varianze (ossia delle diverse varianze considerate suddivise in funzione dei livelli del fattore), viene così calcolato:&lt;br /&gt;
  &amp;gt;bartlett.test (y~A)&lt;br /&gt;
dove:&lt;br /&gt;
* y è la variabile dipendente;&lt;br /&gt;
* A è il fattore;&lt;br /&gt;
&lt;br /&gt;
per quanto riguarda l&amp;#039;output è sufficiente leggere il [[Valore p|p-value]] e assicurarsi che sia maggiore o uguale ad un livello alpha prefissato (di default è 0.05). L&amp;#039;ipotesi nulla sostiene infatti che tutte le varianze sono tra loro omogenee. &lt;br /&gt;
Nel caso questo assunto non sia rispettato è necessario eseguire il calcolo dell&amp;#039;ANOVA con la correzione di Welch.&lt;br /&gt;
&lt;br /&gt;
Verificati gli assunti si può procedere con l&amp;#039;ANOVA vera e propria.&lt;br /&gt;
&lt;br /&gt;
=== Modello tra casi ===&lt;br /&gt;
In questo caso è sufficiente utilizzare il seguente comando:&lt;br /&gt;
  &amp;gt;anova(lm(y~A))&lt;br /&gt;
la cui ipotesi nulla è che le diverse medie dei gruppi del fattore sono uguali.&lt;br /&gt;
&lt;br /&gt;
Si noti che l&amp;#039;ipotesi alternativa sostiene che almeno una è diversa dalle altre, non necessariamente tutte diverse tra loro.&lt;br /&gt;
&lt;br /&gt;
nel caso avessimo più fattori possiamo scrivere:&lt;br /&gt;
 &amp;gt;anova(lm(y~A*B)) se vogliamo tenere conto delle interazioni tra diversi fattori &lt;br /&gt;
 &amp;gt;anova(lm(y~A+B)) se non vogliamo considerare l&amp;#039;interazione;&lt;br /&gt;
&lt;br /&gt;
===Modello entro casi===&lt;br /&gt;
In questo caso dobbiamo verificare i 3 assunti di prima più un quarto: l&amp;#039;assunto di sfericità (che sostiene che le covarianze siano omogenee).&lt;br /&gt;
Per tale verifica:&lt;br /&gt;
  &amp;gt;mauchly.test(lm(y~x)~1, X=~1)&lt;br /&gt;
e si valuta il p-value: deve essere maggiore o uguale al livello di significatività imposto: l&amp;#039;ipotesi nulla è quella che sostiene la sfericità.&lt;br /&gt;
nel caso non sia verificato si esegue il calcolo con la correzione di Greenhouse-Geisser&lt;br /&gt;
&lt;br /&gt;
nel caso in cui tale assunto è verificato basta inserire il comando:&lt;br /&gt;
  &amp;gt;summary(aov(y~A))&lt;br /&gt;
e si osserva il p-value: anche qui l&amp;#039;ipotesi nulla depone a favore dell&amp;#039;uguaglianza tra le medie.&lt;br /&gt;
&lt;br /&gt;
== Note ==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bibliografia ==&lt;br /&gt;
* Zani S.; Analisi dei dati statistici, vol. I; 1994; Giuffrè editore; Milano&lt;br /&gt;
* Gili A., Frosini B.V., Zanardi G. e Zenga M.; Variability and concentration, in: Italian contribution to the metodology of statistic; 1987; Cleup; Padova&lt;br /&gt;
* Brasini S., Tassinari F., Tassinari G.; Marketing e pubblicità; 1993; Il Mulino; Bologna&lt;br /&gt;
* Rao C.R.; Diversity: its measurement, decomposition, apportionment and analysis; 1982; Sankhya vol. 44 serie A pagg 1-12&lt;br /&gt;
&lt;br /&gt;
== Voci correlate ==&lt;br /&gt;
* [[Analisi della correlazione canonica]], della quale l&amp;#039;analisi della varianza può essere vista come un caso particolare&lt;br /&gt;
* [[George W. Snedecor]]&lt;br /&gt;
* [[Regressione lineare]]&lt;br /&gt;
* [[Ronald Fisher]]&lt;br /&gt;
* [[Statistica]]&lt;br /&gt;
* [[Test di verifica d&amp;#039;ipotesi]]&lt;br /&gt;
* [[Variabile di comodo]]&lt;br /&gt;
&lt;br /&gt;
== Altri progetti ==&lt;br /&gt;
{{interprogetto|preposizione=sull&amp;#039;}}&lt;br /&gt;
&lt;br /&gt;
{{Statistica}}&lt;br /&gt;
{{Progettazione di esperimenti}}&lt;br /&gt;
{{Controllo di autorità}}&lt;br /&gt;
{{Portale|statistica}}&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Analisi della varianza| ]]&lt;br /&gt;
[[Categoria:Psicometria]]&lt;br /&gt;
[[Categoria:Sociologia]]&lt;/div&gt;</summary>
		<author><name>imported&gt;Capagira</name></author>
	</entry>
</feed>