- Laatst bijgewerkt
- Opslaan als PDF
- Pagina-ID
- 7945
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}}}\) \( \newcommand{\vecd}[1]{\overset{-\!- \!\rightharpoonup}{\vphantom{a}\smash{#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{ span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart }{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\ norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm {span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\ mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{ \ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{ \unicode[.8,0]{x212B}}\)
Je vraagt je vast af hoe je een 2x2 ANOVA berekent. We hebben dit nog niet besproken. We hebben je alleen laten zien dat je dit niet hoeft te doen als het ontwerp een 2x2 ontwerp met herhaalde afmetingen is (let op: dit is een speciaal geval).
We gaan nu enkele voorbeelden bekijken van het berekenen van de ANOVA-tabel voor 2x2 ontwerpen. We beginnen met de between-subjects ANOVA voor 2x2 ontwerpen. We doen in wezen hetzelfde als voorheen (in de andere ANOVA's), en het enige nieuwe is om te laten zien hoe het interactie-effect kan worden berekend.
Onthoud dat de logica van de ANOVA is om de variantie op te splitsen in verschillende delen. De SS-formule voor de between-subjects 2x2 ANOVA ziet er als volgt uit:
\[SS_\text{Totaal} = SS_\text{Effect IV1} + SS_\text{Effect IV2} + SS_\text{Effect IV1xIV2} + SS_\text{Fout} \nonumber \]
In de volgende paragrafen gebruiken we tabellen om de berekening van elke SS weer te geven. We gebruiken hetzelfde voorbeeld als hiervoor, met de uitzondering datwe maken er een between-subjects design van. Er zijn nu 5 verschillende onderwerpen in elke conditie, voor een totaal van 20 onderwerpen. Als gevolg hiervan verwijderen we de kolom Onderwerpen.
SS totaal
We berekenen het grote gemiddelde (gemiddelde van alle scores). Vervolgens berekenen we de verschillen tussen elke score en het eindgemiddelde. We kwadrateren de verschilscores en sommen ze op. Dat is \(SS_\text{Total}\), vermeld in de onderste gele rij.

SS Afleiding
We moeten de SS berekenen voor het hoofdeffect voor afleiding. We berekenen het grote gemiddelde (gemiddelde van alle scores). Vervolgens berekenen we de middelen voor de twee afleidingscondities. Vervolgens behandelen we elke score alsof het het gemiddelde is voor de respectievelijke afleidingstoestand. We vinden de verschillen tussen het gemiddelde van elke afleidingsconditie en het grote gemiddelde. Vervolgens kwadrateren we de verschillen en sommen ze op. Dat is \(SS_\text{Distraction}\), gerapporteerd in de onderste gele rij.

Deze tafels zijn veel om naar te kijken! Merk op dat we eerst het grote gemiddelde (8,95) hebben gevonden. Vervolgens vonden we het gemiddelde van alle scores in de niet-afleidingsconditie (kolom A en C), dat was 11,1. Alle verschilscores voor de conditie zonder afleiding zijn 11,1-8,95 = 2,15. We vonden ook het gemiddelde van de scores in de afleidingsconditie (kolom B en D), dat was 6,8. Alle verschilscores zijn dus 6,8-8,95 = -2,15. Onthoud dat middelen het evenwichtspunt in de gegevens zijn, daarom zijn de verschilscores +2,15 en -2,15. Het eindgemiddelde 8,95 ligt tussen de twee conditiegemiddelden (11,1 en 6,8), met een verschil van 2,15.
SS-beloning
We moeten de SS berekenen voor het hoofdeffect voor beloning. We berekenen het grote gemiddelde (gemiddelde van alle scores). Vervolgens berekenen we de middelen voor de twee beloningsvoorwaarden. Vervolgens behandelen we elke score alsof het het gemiddelde is voor de respectieve beloningsvoorwaarde. We vinden de verschillen tussen elk beloningsvoorwaardegemiddelde en het grote gemiddelde. Vervolgens kwadrateren we de verschillen en sommen ze op. Dat is \(SS_\text{Reward}\), vermeld in de onderste gele rij.

Nu behandelen we elke score zonder beloning als het gemiddelde voor de voorwaarde zonder beloning (6,6) en trekken deze af van het algemene gemiddelde (8,95) om -2,35 te krijgen. Vervolgens behandelen we elke beloningsscore als het gemiddelde voor de beloningsvoorwaarde (11,3) en trekken deze af van het algemene gemiddelde (8,95) om +2,35 te krijgen. Vervolgens kwadrateren we de verschillen en sommen ze op.
SS Afleiding door beloning
We moeten de SS berekenen voor het interactie-effect tussen afleiding en beloning. Dit is het nieuwe dat we doen in een ANOVA met meer dan één IV. Hoe berekenen we de variatie verklaard door de interactie?
De kern van de vraag is zoiets. Doen de individuele gemiddelden voor elk van de vier voorwaarden iets anders dan de groepsgemiddelden voor beide onafhankelijke variabelen.
Kijk bijvoorbeeld eens naar het algemene gemiddelde voor alle scores in de groep zonder beloning, we ontdekten dat dit 6,6 was. Was het gemiddelde voor elke groep zonder beloning in het hele ontwerp een 6,6? Was bijvoorbeeld in de groep zonder afleiding het gemiddelde voor kolom A (de voorwaarde zonder beloning in die groep) ook 6,6? Het antwoord is nee, het was 9,6. Hoe zit het met de afleidingsgroep? Was het gemiddelde voor de beloningsconditie in de afleidingsgroep (kolom B) 6,6? Nee, het was 3,6. Het gemiddelde van 9,6 en 3,6 is 6,6. Als er geen hint van een interactie was, zouden we verwachten dat de middelen voor de beloningsvoorwaarde in beide niveaus van de afleidingsgroep hetzelfde zouden zijn, ze zouden allebei 6,6 zijn. Wanneer er echter een interactie is, zullen de middelen voor de beloningsgroep afhangen van de niveaus van de groep vanaf een andere IV. In dit geval lijkt het erop dat er een interactie is omdat de gemiddelden verschillen van 6,6, ze zijn 9,6 en 3,6 voor de condities van geen afleiding en afleiding. Dit is extra variantie die niet wordt verklaard door het gemiddelde voor de beloningsvoorwaarde. We willen deze extra variantie vastleggen en optellen. Dan hebben we een maat voor het deel van de variantie dat te wijten is aan de interactie tussen de belonings- en afleidingscondities.
Wat we gaan doen is dit. We zullen de middelen van de vier voorwaarden vinden. Dan zullen we zien hoeveel extra variatie ze buiten de groep verklaren voor beloning en afleiding. Om dit te doen behandelen we elke score als het conditiegemiddelde voor die score. Dan trekken we het gemiddelde voor de afleidingsgroep af, en het gemiddelde voor de beloningsgroep, en dan tellen we het eindgemiddelde op. Dit geeft ons de unieke variatie die het gevolg is van de interactie. We zouden ook kunnen zeggen dat we elk voorwaardegemiddelde aftrekken van het grote gemiddelde, en dan het afleidingsgemiddelde en het beloningsgemiddelde er weer bij optellen, dat zou op hetzelfde neerkomen en misschien logischer zijn.
Hier is een formule om het proces voor elke score te beschrijven:
\[\bar{X}_\text{voorwaarde} -\bar{X}_\text{IV1} - \bar{X}_\text{IV2} + \bar{X}_\text{Grand Mean} \geen nummer \]
Of we kunnen het zo schrijven:
\[\bar{X}_\text{voorwaarde} - \bar{X}_\text{Grand Mean} + \bar{X}_\text{IV1} + \bar{X}_\text{IV2} \geen nummer \]
Als u naar de volgende tabel kijkt, passen we deze formule toe op de berekening van elk van de verschilscores. Vervolgens kwadrateren we de verschilscores en sommen ze op om \(SS_\text{Interaction}\) te krijgen, dat wordt weergegeven in de onderste gele rij.

SS-fout
Het laatste dat we moeten vinden, is de SS-fout. We kunnen dat oplossen omdat we al het andere in deze formule hebben gevonden:
\[SS_\text{Totaal} = SS_\text{Effect IV1} + SS_\text{Effect IV2} + SS_\text{Effect IV1xIV2} + SS_\text{Fout} \nonumber \]
Ook al is dit leerboek bedoeld om dingen stap voor stap uit te leggen, we denken dat je het beu bent om ons de 2x2 ANOVA met de hand te zien uitwerken. Jij en ik allebei, het maken van deze tafels was veel werk. We hebben u al eerder laten zien hoe u de SS voor fouten kunt berekenen, dus we zullen hier niet het volledige voorbeeld doen. In plaats daarvan lossen we SS-fout op met behulp van de nummers die we al hebben verkregen.
\[ \begin{uitlijnen*} SS_\text{Error} &= SS_\text{Totaal} -SS_\text{Effect IV1} -SS_\text{Effect IV2} -SS_\text{Effect IV1xIV2} \\[4pt ] &= 242,95 - 92,45 - 110,45 - 14,45 \\[4pt] &= 25,6 \end{align*}\]
Controleer je werk
We slaan het gedeelte over waar we de SS'en delen door hun df's om de MSE's te vinden, zodat we de drie \(F\)-waarden kunnen berekenen. In plaats daarvan, als we de berekeningen van de \(SS\)en correct hebben uitgevoerd, zouden ze hetzelfde moeten zijn als wat we zouden krijgen als we R zouden gebruiken om de \(SS\)en te berekenen. Laten we R het werk laten doen en dan vergelijken om ons werk te controleren.
bibliotheek(xtable)A <- c(10,8,11,9,10) #nD_nRB <- c(5,4,3,4,2) #D_nRC <- c(12,13,14,11,13 ) #nD_RD <- c(9,8,10,11,12) #D_RNumber_spotted <- c(A, B, C, D)Afleiding <- rep(rep(c("Geen afleiding", "Afleiding"), elk=5),2)Beloning <- rep(c("Geen beloning","Beloning"),elk=10)Afleiding <- as.factor(Afleiding)Beloning <- as.factor(Beloning)all_df <- data .frame(Distraction, Reward, Number_spotted)aov_summary <- summary(aov(Number_spotted~Distraction*Reward, all_df))knitr::kable(xtable(aov_summary))
Df | Som Sq | Gemiddelde Sq | F-waarde | Pr(>F) | |
---|---|---|---|---|---|
Afleiding | 1 | 92.45 | 92.45 | 57.78125 | 0.0000011 |
Beloning | 1 | 110.45 | 110.45 | 69.03125 | 0.0000003 |
Afleiding: beloning | 1 | 14.45 uur | 14.45 uur | 9.03125 | 0,0083879 |
Residuen | 16 | 25.60 | 1.60 | DAT | DAT |
Een snelle blik door de kolomSom Sq
laat zien dat we ons werk met de hand correct hebben gedaan. Gefeliciteerd voor ons! Let op, dit zijn niet dezelfde resultaten als voorheen met de ANOVA met herhaalde metingen. We hebben een between-subjects design uitgevoerd, dus we konden de SS-fout niet verder opdelen in een deel vanwege variatie in het onderwerp en een overgebleven deel. We hebben ook vrijheidsgraden gewonnen in de foutterm. Het blijkt dat we met deze specifieke set gegevens p-waarden van minder dan 0,05 vinden voor alle effecten (hoofdeffecten en de interactie, die niet minder dan 0,05 was met dezelfde gegevens, maar behandeld als een ontwerp met herhaalde metingen)
FAQs
What is a good ANOVA result? ›
The null hypothesis states that the population means are all equal. Usually, a significance level (denoted as α or alpha) of 0.05 works well. A significance level of 0.05 indicates a 5% risk of concluding that a difference exists when there is no actual difference.
How many interaction effects can one find in a 2 x 2 x 2 factorial design? ›If you had a 2x2x2 design, you would measure three main effects, one for each IV. If you had a 3x3x3 design, you would still only have 3 IVs, so you would have three main effects.
What is 2 x 2 factorial ANOVA? ›2 IVs: IV1 (two levels), IV2 (two levels)
This is called a 2x2 Factorial Design. It is called a factorial design, because the levels of each independent variable are fully crossed. This means that first each level of one IV, the levels of the other IV are also manipulated.
A 2×2 factorial design is a type of experimental design that allows researchers to understand the effects of two independent variables (each with two levels) on a single dependent variable.
What is an acceptable p-value for ANOVA? ›Usually, if a p value is . 10 or less, we can reject the null hypothesis. A value of p = . 05, for example, suggests that we would expect a variance ratio of the given value or greater only 5% of the time if the null hypothesis was correct.
How do I know if my ANOVA is significant? ›Essentially, if the “between” variance is much larger than the “within” variance, the factor is considered statistically significant. Recall, ANOVA seeks to determine a difference in means at each level of a factor. If the factor level impacts the mean, then that factor is statistically significant.
What is a 2x2 between participants design? ›What is a 2x2 within subjects design? In a 2x2 design, researchers examine how two independent variables with two different levels impact a single dependent variable. For example, imagine a study where researchers wanted to see how the type and duration of therapy influence treatment outcomes.
How many hypothesis can be tested in 2x2 factorial design? ›2x2 design - two separate hypotheses and one interaction hypothesis.
When analyzing a 2 x 2 factorial design researchers have to test for? ›There are three questions the researcher need consider in a 2 x 2 factorial design. (1) Is there a significant main effect for Factor A? (2) Is there a significant main effect for Factor B? (3) Is there a significant interaction between Factor A and Factor B?
What is the 2x2 interaction effect? ›A 2x2 interaction can occur when a study has two independent variables (IVs) that each has 2 levels, for a total of 4 conditions. For example, suppose we compare how well men vs. women (IV1, Gender) performed on a memorization task when they studied in an environment with music vs.
How many interactions are possible in a 2x2x2 factorial ANOVA? ›
There are three main effects, three two-way (2x2) interactions, and one 3-way (2x2x2) interaction.
How many main effects does a 2x2 ANOVA have? ›With the two-way ANOVA, there are two main effects (i.e., one for each of the independent variables or factors). Recall that we refer to the first independent variable as the J row and the second independent variable as the K column.
What is a 2X2X2 mixed ANOVA? ›A Two-Way Mixed ANOVA compares the difference between multiple sets of data comprising between-subjects and repeated-measures variables. It is considered a parametric test and is only suitable for parametric data.
How many independent variables are there in a 2X2X2 factorial design? ›To illustrate a 3 x 3 design has two independent variables, each with three levels, while a 2 x 2 x 2 design has three independent variables, each with two levels. In principle, factorial designs can include any number of independent variables with any number of levels.
How many conditions are in a 2X2X2? ›And this design would have 9 conditions; A 2X2X2 design would have 3 independent variables with 2 levels each. This design would have 8 conditions. Notice that looking at now many numbers are in the notation, you can determine how many independent variables there are in the experiment.
What are acceptable P values? ›The threshold value, P < 0.05 is arbitrary. As has been said earlier, it was the practice of Fisher to assign P the value of 0.05 as a measure of evidence against null effect. One can make the “significant test” more stringent by moving to 0.01 (1%) or less stringent moving the borderline to 0.10 (10%).
What is a good range for p-value? ›If the p-value is under . 01, results are considered statistically significant and if it's below . 005 they are considered highly statistically significant.
What if P is greater than 0.05 in ANOVA? ›A statistically significant test result (P ≤ 0.05) means that the test hypothesis is false or should be rejected. A P value greater than 0.05 means that no effect was observed.
What is a significant ANOVA score? ›The significance level is usually set at 0.05 or 5%. This means that your results only have a 5% chance of occurring, or less, if the null hypothesis is actually true.
How do you interpret the F test results? ›You perform the F test by looking for the appropriate p-value in the computer analysis and interpreting the resulting significance level, as we did in Chapter 10. If the p-value is more than 0.05, then the result is not significant. If the p-value is less than 0.05, then the result is significant.
How do you interpret p-value? ›
The p-value only tells you how likely the data you have observed is to have occurred under the null hypothesis. If the p-value is below your threshold of significance (typically p < 0.05), then you can reject the null hypothesis, but this does not necessarily mean that your alternative hypothesis is true.
What is a 2x2 repeated measures design? ›A two-way repeated measures ANOVA (also known as a two-factor repeated measures ANOVA, two-factor or two-way ANOVA with repeated measures, or within-within-subjects ANOVA) compares the mean differences between groups that have been split on two within-subjects factors (also known as independent variables).
How many F ratios in a 2x2 factorial design? ›Answer and Explanation: The two-way factorial design requires a researcher to test three null hypotheses-one that is concerning the effect of factor1, another concerning the factor2, and the third concerning the joint effect of factor 1 and factor 2. Therefore: There are 3 F-ratios involved in the two-way ANOVA.
How many total participants would you need for a 2x2 between subjects design and wanted 10 participants in each group? ›A total of 40 participants are needed for a 2 x 2 completely repeated measures design if the researcher wants 10 participants in each condition.
What is the main effect in a 2x2 factorial analysis? ›What's involved in a 2x2 factorial design ? Main effects involve the comparison of marginal means. Simple effects involve the comparison of cell means. Interactions involve the comparison of simple effects.
What is a 3x2 independent ANOVA? ›Three-way ANOVA is a type of ANOVA test containing three independent variables and one dependent variable. The independent variables are categorical, whereas the dependent variable is continuous. It is primarily used to understand the influence of more than one variable on the outcome of a given scenario.
How many hypotheses are we testing in a 2x2 factorial ANOVA? ›Hypotheses. Three statements can be tested with the 2 factorial ANOVA, so there are 3 null hypotheses and therefore 3 alternative hypotheses. There are no significant differences in the mean between the groups (factor levels) of the first factor.
Is A two-way ANOVA the same as a 2x2 Anova? ›The simplest form of a Two-Way ANOVA is a 2x2 factorial design. This is when you have 2 independent variables (factors) with 2 levels (conditions) in each. When examining the differences, you look for the Main Effect of each factor and the Interaction between the factors.
What is an example of a two-way ANOVA main effect? ›One can use a two-way ANOVA test to check the effect of two factors on a dependent variable and if there is any interaction effect between the two. For example, a farmer can test the effect of fertilizer and watering frequency on the crop yield they get to harvest.
How do you report two-way ANOVA results in a paper? ›The results of the two-way ANOVA and post hoc tests are reported in the same way as one way ANOVA for the main effects and the interaction e.g. there was a statistically significant interaction between the effects of Diet and Gender on weight loss [F(2, 70)=3.153, p = 0.049].
What is a main effect in ANOVA example? ›
In the design of experiments and analysis of variance, a main effect is the effect of an independent variable on a dependent variable averaged across the levels of any other independent variables.
How many samples is enough for ANOVA? ›There is not a minimum sample size for ANOVA, but you might have problems with statistical power which is your ability to reject a false null hypothesis. If the effect size differences between baseline and the other measures is not large enough you may not be able to reject the null.
Which effect size is most appropriate for ANOVA? ›The most common measure of effect size for a One-Way ANOVA is Eta-squared.
Do you need a post hoc for 2x2 Anova? ›Also, since this is a 2x2 Factorial Design you do not need to do the post-hoc on the main effects since there is only two levels, but if you have more than two levels on any IV you will want to do then post hoc on that IV.
What does a 2x4 ANOVA mean? ›2 x 4 design means two independent variables, one with 2 levels and one with 4 levels. "condition" or "groups" is calculated by multiplying the levels, so a 2x4 design has 8 different conditions.
Can you run an ANOVA with 2 dependent variables? ›Regular ANOVA tests can assess only one dependent variable at a time in your model. Even when you fit a general linear model with multiple independent variables, the model only considers one dependent variable. The problem is that these models can't identify patterns in multiple dependent variables.
Can ANOVA be used for 2 samples? ›Typically, a one-way ANOVA is used when you have three or more categorical, independent groups, but it can be used for just two groups (but an independent-samples t-test is more commonly used for two groups).
What is a 2x2x2 study design? ›The 2 x 2 factorial design calls for randomizing each participant to treatment A or B to address one question and further assignment at random within each group to treatment C or D to examine a second issue, permitting the simultaneous test of two different hypotheses.
How many interactions does a 3x3 factorial design have? ›With 7 main effects and interactions (and myriad simple effects) you have to be careful to get the correct part of the design that is “the replication” of an earlier study.
How many main effects could there be in a 2x2x2 factorial design? ›If you had a 2x2x2 design, you would measure three main effects, one for each IV. If you had a 3x3x3 design, you would still only have 3 IVs, so you would have three main effects.
How many factors do we have in 2x2x3 factorial design? ›
Notice that in this design we have 2x2x3=12 groups! Although it's tempting in factorial studies to add more factors, the number of groups always increases multiplicatively (is that a real word?).
How many conditions are there in a 2X4 factorial design? ›100: all of the above options a 2X4 factorial design has two independent variables; one IV has 2 conditions and the other IV has 4 conditions.
What does ANOVA 0.05 mean? ›If one-way ANOVA reports a P value of <0.05, you reject the null hypothesis that all the data are sampled from populations with the same mean. But you cannot be sure that one particular group will have a mean significantly different than another group.
What is a high F value in ANOVA test? ›A large F-value means the between-group variation is larger than your within-group variation. This can be interpreted to mean there is a statistically significant difference in your group means.
What is good and bad variance in ANOVA? ›As was said previously, the point of ANOVA is to compare how many times greater the variance due to the treatment (=good) is than the variance due to uncontrolled effects (=bad), so the F ratio is the statistic that represents this quantity.
How do I know if my F value is significant? ›You perform the F test by looking for the appropriate p-value in the computer analysis and interpreting the resulting significance level, as we did in Chapter 10. If the p-value is more than 0.05, then the result is not significant. If the p-value is less than 0.05, then the result is significant.
What is a good p-value? ›The p-value can be perceived as an oracle that judges our results. If the p-value is 0.05 or lower, the result is trumpeted as significant, but if it is higher than 0.05, the result is non-significant and tends to be passed over in silence.
How do you analyze p-value in ANOVA? ›To find the p-value that corresponds to this F-value, we can use an F Distribution Calculator with numerator degrees of freedom = df Treatment and denominator degrees of freedom = df Error. For example, the p-value that corresponds to an F-value of 2.358, numerator df = 2, and denominator df = 27 is 0.1138.
What if p is greater than 0.05 in ANOVA? ›A statistically significant test result (P ≤ 0.05) means that the test hypothesis is false or should be rejected. A P value greater than 0.05 means that no effect was observed.
What is a high vs low F value? ›The low F-value graph shows a case where the group means are close together (low variability) relative to the variability within each group. The high F-value graph shows a case where the variability of group means is large relative to the within group variability.
What is F value and p-value in ANOVA? ›
The F value in one way ANOVA is a tool to help you answer the question “Is the variance between the means of two populations significantly different?” The F value in the ANOVA test also determines the P value; The P value is the probability of getting a result at least as extreme as the one that was actually observed, ...
What level of variance is acceptable? ›What are acceptable variances? The only answer that can be given to this question is, “It all depends.” If you are doing a well-defined construction job, the variances can be in the range of ± 3–5 percent. If the job is research and development, acceptable variances increase generally to around ± 10–15 percent.
Does ANOVA have to be normal? ›ANOVA does not assume that the entire response column follows a normal distribution. ANOVA assumes that the residuals from the ANOVA model follow a normal distribution. Because ANOVA assumes the residuals follow a normal distribution, residual analysis typically accompanies an ANOVA analysis.
How do you explain ANOVA in simple terms? ›Analysis of Variance (ANOVA) is a statistical formula used to compare variances across the means (or average) of different groups. A range of scenarios use it to determine if there is any difference between the means of different groups.