MANOVA

Uit Methodologiewinkel
Ga naar: navigatie, zoeken

Waar deze test voor wordt gebruikt

Een MANOVA (multivariate analysis of variance) wordt gebruikt wanneer men meerdere afhankelijke variabelen wil testen. In principe doet een MANOVA hetzelfde als wat een ANOVA doet, maar nu is er ruimte om meerdere afhankelijke variabelen tegelijk op te nemen in de test. Wanneer men meerdere, zeg x, afhankelijke variabelen heeft, is het wenselijk om een MANOVA te doen in plaats van x maal een ANOVA (dat wil zeggen voor iedere afhankelijke variabele een aparte ANOVA uitvoeren), omdat er op die manier rekening kan worden gehouden met een toenemende Type I fout. Voor een uitleg over Type I fout (fout van de eerste soort), zie: Fout(statistiek) Wikipedia. Daar komt bij dat de MANOVA het mogelijk maakt om te testen of groepen verschillen op een combinatie van variabelen. Naast dat je per afhankelijke variabele een test doet of de groepen verschillen krijg je ook een test statistiek die aangeeft of de groepen te onderscheiden zijn op de combinatie van alle afhankelijke variabelen in je model.

De MANOVA is dus een uitbreiding van de ANOVA en komt ook overeen met de ANOVA in dat de onafhankelijke variabele een categorische variabele is. Je vergelijkt dus groepen op de afhankelijke variabelen. Verder kan de onafhankelijke variabele net als bij de ANOVA meer dan twee groepen bevatten. Bijvoorbeeld de variabele ‘kleur ogen’: blauw, groen, bruin.

Ook kunnen er meerdere onafhankelijke variabelen worden opgenomen, bijvoorbeeld ‘kleur ogen’ en ‘sekse’. Wanneer er meerdere onafhankelijke variabelen in het design worden opgenomen noemt men het een Factorial MANOVA. Voor een uitleg over deze test zie Factorial MANOVA.

Assumpties

Niveau van de variabelen - De onafhankelijke variabele is op categorisch niveau en de afhankelijke variabelen zijn continu of op interval niveau.

Normaal Verdeeld – Alle afhankelijke variabelen zouden voor iedere groep normaal verdeeld moeten zijn. Om te lezen hoe je deze assumptie kan checken, zie Normaliteit.

Lineariteit – De MANOVA heeft als assumptie dat alle afhankelijke variabelen een lineair verband met elkaar hebben. Ze zouden dus langs een rechte lijn moeten liggen. De afhankelijke variabelen hoeven niet te correleren maar men wil dus niet dat de variabelen een ander patroon laten zien zoals een quadratisch verband. Zie Lineariteit.

Homogeniteit van varianties en covarianties - Homogeniteit van varianties houdt in dat iedere groep uit een populatie komt met een vergelijkbare hoeveelheid variantie op de afhankelijke variabelen. Stel dat je mannen en vrouwen vergelijkt in hun score op een bepaalde test (score test is de afhankelijke variabele), dan zou het kunnen zijn dat mannen scores hebben die variëren tussen de 10 en 100, waar vrouwen scores hebben die variëren tussen de 50 en 60. De scores van de mannen laten veel meer variantie zien dan bij de vrouwen en dus zijn deze scores van de groepen mannen en vrouwen niet goed te vergelijken. Deze homogeniteit van de varianties moet voor iedere afhankelijke variabele gecheckt worden. Dus wanneer deze mannen en vrouwen vier verschillende tests doen waarop ze vergeleken worden, dan zal je voor alle vier de tests na moeten gaan of de variantie gelijk is over groepen. Homogeniteit van de variantie wordt ook wel homoscedasticiteit genoemd.

Omdat er bij een MANOVA sprake is van meerdere afhankelijke variabelen wordt er niet alleen uitgegaan van gelijke varianties binnen de afhankelijke variabelen maar ook tussen de variabelen. Dit zijn de covarianties. Om terug te grijpen naar het voorbeeld: men verwacht dus dat de covariantie tussen test 1 en 2 niet verschilt voor mannen en vrouwen.
Om deze assumptie te checken zal in SPSS de optie 'Homogeneity tests' moeten worden aangevinkt bij 'options'. Waar je dit precies doet vind je bij 'Hoe uit te voeren in SPSS' op deze pagina.

Wat te doen als je niet aan je assumptie(s) voldoet?

SPSS biedt helaas geen non-parametrisch alternatief voor de MANOVA. Men kan kijken bij de verschillende assumpties te vinden op de hoofdpagina onder het kopje Overzicht assumpties. Of neem anders een kijkje of deze site: Do your data violate F test assumptions?. Immers is de MANOVA net als de ANOVA een F-test.

Hoe uit te voeren in SPSS

Model: In mijn voorbeeld heb ik als onafhankelijke variabele de kleur ogen (blauw,bruin,groen). Er zijn twee afhankelijke variabelen opgenomen: test 1 en test 2 (op scale niveau). Wat ik test is of de scores op test 1 en 2 verschillend zijn voor de drie groepen, blauwe, bruine of groene ogen. Ik zal hieronder stap voor stap uitleggen hoe men een MANOVA uitvoert in SPSS. Echter een duidelijk filmpje waar precies deze analyse (in SPSS) in wordt uitgelegd is: MANOVA in SPSS door Sharon Klinkenberg

Data1.jpg

Een MANOVA voer je uit via Analyze --> General Linear Model --> Multivariate.

Analyze1.jpg

Onder het vakje 'dependent variables' geeft ik test 1 en test 2 aan omdat dit de afhankelijke variabelen zijn in mijn design. Onder het vakje 'fixed factors' geef ik kleur ogen aan omdat dit de onafhankelijke variabele is in mijn design. De overige vakjes laat ik leeg. Voor het toevoegen van een covariaat zie MANCOVA.

Optie1.jpg

Vervolgens kan ik nog rechts in het blok een aantal opties aanklikken. Om mijn vrij simpele design te testen laat ik 'Model' en 'Contrasts' voor wat het is. In principe gebruik je contrasts wanneer je een hypothese hebt over welke groepen van elkaar verschillen. Daarbij kan je bijvoorbeeld aangeven dat binnen de variabele 'oogkleur' je alleen de blauwe met groene ogen wilt vergelijken. Immers wanneer je veel verschillende groepen hebt wil je deze niet allemaal met allemaal vergelijken omdat je hiermee veel power verliest. Bij 'contrasts' kan je dan aangeven welke groepen je wilt vergelijken. In dit voorbeeld doe ik in plaats van contrasts een post-hoc test om de verschillende groepen te vergelijken, waarbij wel alle groepen met elkaar worden vergeleken. Echter heb ik maar drie groepen (blauw, groen en bruin) en ben ik in alle verschillen tussen deze groepen geïnteresseerd. Post Hoc bespreek ik hieronder. Voor meer informatie over het gebruik van contrasts, zie Field, hoofdstuk 10.2.11.


Om de drie groepen met elkaar te vergelijken klik ik in het menu Post Hoc aan. Deze functie heb ik nodig om bij de onafhankelijke variabele 'kleur ogen' die meer dan twee categorieën heeft, te testen waar het verschil ligt als dit er is. Dus wanneer ik deze optie niet aan vink zal de test slechts aangeven of er een verschil is, maar wanneer dit er is weet ik niet of dit verschil tussen blauw en groene ogen ligt of tussen blauw en bruine ogen of allebei. Let op, deze functie is dus alleen nodig wanneer je een onafhankelijke variabele gebruikt die uit meer dan twee categorieën bestaat. Immers wanneer er een verschil bij sekse (= 2 categorieën) wordt gevonden ligt dit verschil natuurlijk sowieso tussen mannen en vrouwen. Ik selecteer in mijn geval dus bij 'Factors', kleuroog, en plaats die in 'Post Hoc Tests for'.

Wikipost.jpg

Bij de post hoc tests kies ik voor Tukey's en Bonferroni's tests. Tukey en Bonferroni zijn vrij conservatief, dit houdt in dat ze corrigeren voor Type I fout maar daardoor wel minder power hebben. Van deze twee heeft Tukey meer power wanneer je veel groepen vergelijkt terwijl Bonferroni meer power heeft wanneer je minder groepen vergelijkt. Een andere post hoc test die door Field wordt aangeraden is de REGWQ, echter moet deze niet gebruikt worden als de aantallen deelnemers per groep erg verschillen. Voor een uitgebreidere uitleg over de keuze voor een Post Hoc test zie Field 10.2.12. De keuze hangt namelijk ook af van welke assumpties er geschonden zijn.

Vervolgens kies ik nog voor 'options' in het menu. Hier selecteer ik verschillende opties.

Options1.jpg

Zo kies ik voor 'Descriptive statistics', 'Estimates of effect size' en 'Homogeneity tests'. Dit is genoeg voor een simpele analyse, maar voor andere opties of bootstrapping zie Field. Ik druk nu op continue en dan op OK om de test te runnen.


Interpreteren SPSS-output

Een MANOVA geeft als uitkomst alleen voor iedere afhankelijke variabelen aan of er een verschil is tussen de groepen, maar niet welke richting en tussen welke groepen. Om te zien tussen welke groepen een verschil is doe je een post-hoc analyse zoals Tukey’s. Dit doe je dus alleen wanneer er meer dan twee groepen bestaan immers wanneer men slechts twee groepen vergelijkt en er wordt een verschil gevonden (de MANOVA is significant) dan weet je natuurlijk dat het verschil tussen deze twee groepen ligt. Echter wanneer er drie groepen zijn en er een verschil wordt gevonden, zou dit verschil tussen groep 1 en 2 kunnen liggen of groep 1 en 3 of allebei. Om te zien welke richting het verschil heeft (dus als er een verschil is tussen twee groepen, welke groep hoger/lager scoort), kijk je naar de gemiddelden die je simpelweg opvraagt met de descriptives.

Model: In mijn voorbeeld heb ik als onafhankelijke variabele: kleur ogen (blauw,bruin,groen). Er zijn twee afhankelijke variabelen opgenomen test 1 en test 2 (op scale niveau). Wat ik test is of de scores op test 1 en 2 verschillend zijn voor de groep met blauwe, bruine of groene ogen.

Homogeniteits assumpties checken in de SPSS output: In de 'box’s test of equality of covariance matrices' kijk ik of de covariantie matrices verschillen over groepen.

Boxtest1.jpg

Wanneer de p-waarde significant is in deze test betekent dit dat de groepen verschillende covariantiematrices hebben en dat wil men niet. In het voorbeeld is de p-waarde gelijk aan .987 en is deze assumptie dus niet geschonden.

Levene’s test of equality of error variances test voor iedere afhankelijke variabele of de variantie op deze variabele verschilt over groepen.

Levene1.jpg

Wanneer de p-waarde significant is verschillen de groepen en dat wil men niet. In het voorbeeld is de p-waarde voor test 1 gelijk aan .942 en voor test 2 gelijk aan .591. Dit is allebei niet significant en dus is de assumptie voor beide afhankelijke variabelen niet geschonden.

In de output van de multivariate tests zie je of de groepen verschillen op de totale combinatie van de afhankelijke variabelen. De vier test statistieken (Pillai's trace, Wilks' Lambda, Roy's largest Root en Hotelling's Trace) komen allen op een andere manier tot stand, maar meestal wordt Wilks' lambda als standaard maat aangehouden. Meer informatie over deze verschillende statistieken en hoe deze tot stand komen, vind je in Field 16.4.4.

Multivariate2.jpg

De Multivariate tests vertelt ons echter niet over welke van de afhankelijke variabelen het gaat. Dit betekent dat wanneer de p-waarde in deze tabel niet significant is, de groepen niet verschillen op de combinatie van de afhankelijke variabelen. In dit geval zullen we dan ook niet meer per afhankelijke variabele verder gaan interpreteren. Als de p-waarde wel significant is weten we slechts dat de groepen verschillen op minstens een van de afhankelijke variabelen. De p-waarde voor de afhankelijke variabele ‘kleur ogen’ is significant (p <.001), maar we weten uit deze tabel dus nog niet of de groepen met verschillende kleuren ogen, verschillen op test 1, op test 2 of op allebei de testen. Ook weten we van de drie groepen met verschillende kleuren ogen nog niet welke groepen van elkaar verschillen; blauw van bruin, blauw van groen, of alle groepen van elkaar. Hier voor moeten we dus nog verder kijken. De ‘partial eta-squared’ is de geschatte effect grootte die ik had opgevraagd. Voor de interpretatie van deze effect grootte zie Eta-squared Wikiversity. De effect grootte eta-squared wordt meestal als volgt geïnterpreteerd: 0 - .1 is een zwak effect (weak). 0.1 - 0.3 is een bescheiden effect (modest). 0.3 - 0.5 is een moderate effect en >0.5 is een sterk effect. In dit voorbeeld is de effectgrootte bij de kleur ogen dus sterk (eta-squared = .736). De waarden van de multivariate tests geven wel al een indicatie van de verschillende groepen op de twee afhankelijke variabelen maar beantwoorden nog niet op welke afhankelijke variabele de groepen verschillen.

In de output van de tests of between-subject effects, vind je nogmaals de verschillen tussen groepen maar nu per afhankelijke variabele.

Univariate1.jpg




De multivariate test voor kleur ogen was significant en daarom mogen we nu ook de univariate tests interpreteren (tabel met between subjects effects) om te zien op welke afhankelijke variabele de groepen verschillen. Uit de output in deze tabel blijkt dat de groepen verschillen op test 2 (p < .001). De effect grootte hierbij is ongeloofwaardig groot (eta-squared = .928), dit zal je in het echt niet snel tegen komen maar dat komt nu omdat ik de data heb verzonnen. De groepen blijken niet te verschillen op test 1 (p = .843). Wat we nu nog steeds niet weten is hoe de drie groepen met verschillende kleuren ogen op deze test 2 verschillen. Welke van de drie groepen verschillen van elkaar? Hiervoor moeten we naar de post hoc analyses kijken.

De post hoc analyses vind je in de tabel multiple comparisons. Deze analyse is dus alleen voor de onafhankelijke variabele ‘kleur ogen’ uitgevoerd omdat deze variabele meer dan twee groepen heeft.

Post1.jpg

Voor test 1 hadden we al gevonden dat de groepen met verschillende kleuren ogen niet verschillen op deze test (p = .843, in de tabel hierboven; tests of between-subject effects). Dit is nu ook terug te zien omdat noch de groep blauwe ogen van de groep bruine ogen verschilt (p =.868), noch de groep blauwe ogen van de groep groene ogen (p =.868), noch de groep groene ogen van de groep bruine ogen (p = 1.000). (Ik heb naar Tukey gekeken, echter geeft deze geen verschillende conclusie van Bonferroni). Geen van deze groepen verschillen significant. Voor test 2 wisten we dat er wel groepen waren die zouden verschillen maar we wisten nog niet welke. Uit deze tabel blijkt dat, wanneer we weer naar Tukey kijken, alle drie de groepen (blauw, bruin, groen) van elkaar verschillen op test 2. Voor alle vergelijkingen van groepen (blauw vs bruin EN bruin vs groen EN blauw vs groen) is de p-waarde <.001. We zien nu in de descriptives dat de gemiddelden voor de drie oogkleuren op test 2 als volgt zijn: de groep blauwe ogen heeft een gemiddelde van 84.50 met een SD van 8.62. De groep bruine ogen hebben een gemiddelde van 53.67 met SD = 6.53. De groep groene ogen heeft een gemiddelde van 24.17 met een SD van 7.31.


Descript1.jpg


Hieruit blijkt dus dat op test 2 de groep met blauwe ogen significant hoger scoort dan de groep bruine ogen, en de groep bruine ogen significant hoger scoort dan de groep met groene ogen. Op test 1 zijn deze verschillen er niet.


Rapporteren conclusie

Wilks's Λ laat zien dat er een significant verschil is tussen de groepen met verschillende kleuren ogen op test 1 en test 2, Λ = 0.07, F(4, 28) = 19.49, p < .001. Univariate tests laten zien dat deze groepen niet op test 1 verschillen, F(2, 15) = 0.17, p = .843, eta-squared= .022, maar wel op test 2, F(2, 15) = 96.18, p < .001, eta-squared = .928. Een Tukey post hoc analyse laat zien dat de groep met blauwe ogen (M = 84.50, SD = 8.62), significant hoger scoorde op test 2 dan de groep met bruine ogen, M = 84.50, SD = 6.53, mean difference = 30.83, p <.001, en hoger scoorde dan de groep met groene ogen, M = 84.50, SD = 7.31, mean difference = 60.33, p <.001. De groep met bruine ogen scoorde ook significant hoger op test 2 dan de groep met groene ogen, mean difference = 29.50, p < .001.

Video Tutorial

EmbedVideo is missing a required parameter.