Onafhankelijkheid

Uit Methodologiewinkel
Ga naar: navigatie, zoeken

Wat is de aanname van onafhankelijkheid en waarvoor gebruik je deze?

De aanname van onafhankelijkheid is net als de aanname van normaliteit een aanname die van toepassing is op veel toetsen, maar verschillende dingen kan betekenen. In principe komt het er op neer dat wanneer je bijvoorbeeld een ANOVA uitvoert op je data, dat je op dat moment aanneemt dat je observaties van verschillende participanten komen.

Als je met een ANOVA twee of meer groepen vergelijkt op een afhankelijke variabele - je vergelijkt bijvoorbeeld een therapieconditie met een wachtlijstconditie- neem je aan dat de twee groepen uit verschillende mensen bestaan: er zijn geen participanten die in beide condities hebben gezeten. Het betekent ook dat deze participanten niet hebben kunnen communiceren over de waardes die zij bijvoorbeeld hebben ingevuld op vragenlijsten: ook in dat geval kan de data afhankelijk zijn (de waardes die de ene persoon heeft ingevuld is afhankelijk van wat iemand anders heeft ingevuld). Deze aanname geldt voor de t-toets en voor de varianten van ANOVA die gaan om het verschil tussen verschillende groepen.

Wanneer je een Repeated Measures uitvoert, gelden net andere regels. Je verwacht bij een Repeated Measures ANOVA wel dat de observaties afhankelijk zijn, aangezien je personen meet op verschillende tijdsmomenten. Er zal dan altijd een afhankelijkheid in de data zitten wat ervoor zorgt dat we zo'n model karakteriseren als een Mixed model. Wanneer je een Repeated Measures uitvoert met verschillende groepen, geldt voor deze twee groepen wel weer hetzelfde als voor de ANOVA: de verschillende groepen bestaan uit verschillende participanten en eventuele redenen waardoor er alsnog afhankelijkheid kan ontstaan (zoals communicatie over het invullen van vragenlijsten) is vermeden.

Wat betreft regressie geldt er weer een andere regel: voor de regressie geldt dat de errors, of de residuals, niet afhankelijk van elkaar moeten zijn. Oftewel: de error van één observatie is niet gecorreleerd met de error van een andere observatie.

Hoe uit te voeren in SPSS

De aanname dat twee groepen onafhankelijk van elkaar zijn is een kwestie van beredeneren: heb ik mijn groepen deelnemers voldoende van elkaar gescheiden en heb ik geen mensen dubbel geteld?

In het geval van onafhankelijke errors bij regressie, kan de Durbin Watson test worden uitgevoerd. Wanneer je via het hoofdmenu van SPSS via Analyze--> Regression naar Linear gaat, kan je je onafhankelijke variabelen invoeren en je afhankelijke variabele. Vervolgens kan je bij Statistics de Durbin Watson test aanvinken (zie onderstaand plaatje).

Screenshotdurbin.png

Interpreteren SPSS-output

In de output vind je vervolgens een tabel 'Model Summary', met daarin helemaal rechts de Durbin-Watson testwaarde.

Durbinoutput.png

De Durbin-Watson test heeft altijd een waarde tussen de 0 en de 4. Een waarde van 0 geeft aan dat de errors positief met elkaar gecorreleerd zijn, een waarde van 4 dat de errors positief met elkaar gecorreleerd zijn. Meestal wordt aangenomen dat een waarde van lager dan 1 of hoger dan 3 een reden is om aan te nemen dat de errors gecorreleerd zijn. In dit geval is dat dus niet zo: hij heeft een waarde van 1.733, waardoor we aan kunnen nemen dat aan de aanname van onafhankelijke errors is voldaan.

Rapporteren conclusie

In de meeste gevallen rapporteer je weinig of niets over de aanname van onafhankelijkheid. Mocht bij regressie deze aanname worden geschonden omdat de Durbin-Watson test dat uitwijst, en wil je je regressiemodel graag generaliseren naar de populatie, kan je eventueel een non-parametrische regressie-analyse doen. Wanneer je hiervoor kiest, leg dan wel altijd je keuze vast in je onderzoeksverslag.