Varianciaanalízis

abc-accomplished-alphabet-48898.jpg

Tárgymutató

Egyszempontos varianciaanalízis (ANOVA), Összetartozó-mintás varianciaanalízis, Többszempontos varianciaanalízis (Two-Way ANOVA, Multifactor ANOVA), Kevert ANOVA, Kovariáns

Market Analysis

Letölthető jegyzetek

StatOkos Jegyzet: Varianciaanalízis
StatOkos Jegyzet: Összefoglaló

Adatfájlok: SPSS

Adatfájlok: Excel 

Used Books

Ajánlott könyvek

Barna Ildikó – Székelyi Mária: Túlélőkészlet SPSS-hez
Andy Field: Discovering Statistics Using SPSS
Sajtos László – Mitev Ariel: SPSS kutatási és adatelemzési kézikönyv
 

BEVEZETŐ

A többváltozós statisztikai eljárások ismérve a szignifikancia próbákkal ellentétben, hogy általánosságban nem két esetet, csoportot vagy mintát hasonlítanak össze, hanem annál több változóval operálnak. A többváltozós statisztikai eljárások három nagy csoportja a varianciaanalízisek, az olyan eljárások, amelyek a változók közötti kapcsolatokat tárják fel, illetve azok a próbák, amelyek a változók számát hivatottak csökkenteni vagy rendszerezni. Ebből az is következik, hogy a feltáró jellegű munkák gyakrabban használnak többváltozós módszereket. Emellett az is elmondható, hogy a szignifikanciapróbákat inkább kísérleti módszertanban, többváltozós eljárásokat pedig jellemzően kérdőíves kutatások esetén alkalmazunk. Természetesen ez nem kizárólagos, minden esetben a kutatás jellege és sajátosságai a mérvadóak. Az alábbi példák az IBM SPSS szoftverhez készültek.

A legtöbb variancaanalízis közös tulajdonsága, hogy összehasonlítja a vizsgált metrikus, függő változók átlagainak varianciáját. A független változó általában valamilyen csoportosító változó (nominális változó). A variancaanalízisek nullhipotézise, hogy az összehasonlított függő változó(k) között nincs szignifikáns eltérés a középérték varianciáját illetően. Szignifikáns különbség esetén elvetjük ezt a nullhipotézist. Annak megfelelően, hogy csoportokat vagy feltételeket hasonlítunk össze, a varianciaanalíziseknek is több típusát használjuk. 

Több, mint két csoport között, amit egy független, nem paraméteres változó alakít ki

Ismételt mérésű, metrikus, függő változók (min. 3) átlagainak összehasonlítása

Egy darab metrikus, függő változó átlagainak összehasonlítása

Több darab metrikus, függő változó hatásának és kereszthatásának vizsgálata

Vagyis: ebben az esetben a függő változónk egy metrikus mérési szintű skála, amelyet minimum három csoporton lemérünk. Például reakcióidős feladatot végzünk általános, középiskolai és egyetemi populáción. A teszt összehasonlítja a csoportok átlagértékeit. A nullhipotézis szerint a csoportok átlagai között nincs eltérés. Szignifikáns eredmény esetében ezt elvetjük.

Vagyis: ebben az esetben a függő változónk egy metrikus mérési szintű skála, amelyet minimum három csoporton lemérünk. Például reakcióidős feladatot végzünk általános, középiskolai és egyetemi populáción. A teszt összehasonlítja a csoportok átlagértékeit. A nullhipotézis szerint a csoportok átlagai között nincs eltérés. Szignifikáns eredmény esetében ezt elvetjük.

Vagyis: a többszempontos variancaanalízis esetében a függő változónk metrikus skálán jegyzett érték, melyet legalább két darab független változóval hasonlítunk össze, ami általában nominális mérési szintű. Például reakcióidős feladat esetében összehasonlítjuk, hogy az, hogy valaki ivott-e kávét (igen/nem) és a szeme színe (kék, zöld, barna) befolyásolja-e az értékeket. A próba a két tényező együttes, kereszthatását is képes értelmezni. 

Kevert elrendezésű (csoport x több mérés)

Egyszempontos varianciaanalízis - ANOVA

Többszempontos variancaanalízis 

Egy csoporton belül

Ismételt mérésű, metrikus, függő változók (min. 3) átlagainak összehasonlítása

Vagyis: egy független metrikus változót ugyanazon a mintán legalább háromszor felveszünk. Ez vélhetően egy ismételt mérés eredménye lesz. Például egy populáción mérjük a reakcióidőt három különböző időpontban: hétfőn, kedden és szerdán. Az ismételt mérés átlagainak értékét hasonlítja össze. A nullhipotézis szerint a mérések között nincs különbség, szignifikancia esetén ezt elvetjük.

Összetartozómintás varianciaanalízis - Repeated Measure ANOVA

Egyszempontos varianciaanalízis - ANOVA


A pszichológia szakon nagy volumenű kísérletbe fogtak a kíváncsi tanárok. Azt szerették volna kideríteni, hogy ha a teljes pszichológia szakra járó diákságot – négy darab - különböző színű egyenruha viselésére kérik egy teljes szemeszteren keresztül, véletlenszerű kiválasztás alapján, akkor az hatással van-e a tanulmányi átlagukra?

A példában annyi látszik, hogy a független változónk nem paraméteres jellegű (négy darab szín). Emellett ez egy csoportosító változó is, hiszen különböző színű ruhák viselése, különböző csoportba sorolja a diákságot. Azonban a függő változónk, a tanulmányi átlag már paraméteres jellegű, ebben az esetben már előfeltételezésünk is van arra vonatkozóan, hogy vélhetően mi mit fog befolyásolni: jelen esetben az egyenruha színe a tanulmányi átlagot és nem fordítva.

Az egyszempontos varianciaanalízis, vagy más néven ANOVA esetében tehát egy nem metrikus független változó (általában valamilyen csoportosító tényező, amely kettőnél több csoportba sorol) hatását vizsgáljuk a metrikus függő változónkra. A nem metrikus független változónk ebben az esetben négy csoportot képző egyrenruha, mely megfelel annak az elvárásnak, hogy legalább három csoporttal kell dolgoznunk. A próba végeztével kapott szignifikáns érték jelentése az, hogy a független változó hatást gyakorol a függő változóra. Pontosabb megfogalmazásban a függő változó átlagai között mutatkozik eltérés a csoportok között.

A varianciaelemzés esetében hangsúlyozandó, mivel itt már átlagokról van szó, hogy azok szórásában ne legyenek kiugró értékek. Amennyiben ez nem teljesül, akkor úgy heteroszkedaszticitás áll fenn, ennek ellenőrzésére alkalmas a próbában megtalálható Levene-teszt. Amennyiben ez a feltétel nem teljesül az adatsorunkon, akkor úgy két lehetőségünk van: vagy az adatainkat módosítjuk és tisztítjuk meg úgy, hogy azok megfeleljenek ennek a feltételnek (például megvizsgáljuk a kiugró értékeket, ha eddig nem tettük volna meg) vagy a kapott eredményeinket értékeljük ennek megfelelően és hangsúlyozzunk a heteroszkedaszticitás meglétét.

Az egyszempontos varianciaelemzés futtatása és hivatkozása SPSS-ben Az egyszempontos variancianalízist megtalálhatjuk az Analyze > Compare Means > One-way Anova menüpontban.

A felugró listában válasszuk ki a függő változónkat a „Dependent List” ablakba való áthelyezéssel. A „Factor” tartalmazza a csoportosító független változónkat. Mivel az egyszempontos varianciaelemzés a kétmintás t-próba kiterjesztett változata, itt már nem csak kettő – több csoportot tudunk és kell is figyelembe venni.

A „Post Hoc” lehetőséggel kiválaszthatjuk az utótesztelést. Mivel az egyszempontos varianciaanalízis csak azt mutatja meg, hogy van-e különbség, de azt nem, hogy melyik csoportok között, mindenféleképp fel kell deríteni a különbözőség helyét is. Ajánlatos több „post hoc” teszt között is válogatni, ugyanis ezek kritériumszintjei nem azonosak, azaz az egyik megengedőbb lehet a másiknál, azonban ezzel párhuzamosan a megbízhatóságuk is változik.

Az „Options” ablakban válasszuk ki a „Homogenity of variance” opciót, hogy a szórásegyezőséget is fel tudjuk deríteni a Levene teszt segítségével.

A Levene teszt eredményét itt is meg kell figyelnünk. Az egyszempontos varianciaelemzés feltétele a szóráshomogenitás vagyis az, hogy a szórások megegyezzenek a csoportokban. Amennyiben ez nem teljesül, akkor úgy azt fel kell tüntetni az eredményeink közlésekor. Az „ANOVA” táblázat pedig azt mutatja meg, hogy van-e szignifikáns különbség a csoportok között. A próba nullhipotézise szerint nincsenek, így amennyiben szignifikáns eredményt kapunk, ezt a lehetőséget el kell vetnünk.

A korábban említésre került „Post Hoc” teszteket figyelembe vehetjük akkor, ha különbséget találunk a szórások között. A Levene teszt ismeretében választhatunk aközött, hogy a szórások egyeztek-e (felső blokk) vagy különböztek-e egymástól (alsó blokk). A „Post Hoc” teszt alábbi táblázatában kereshetjük meg a szignifikáns eltéréseket. Az első oszlop azt mutatja, hogy mihez hasonlítjuk a második oszlop tagjait. Hivatkozása: F(a változó szabadságfoka (df) between groups, a változó szabadságfoka (df) within group) = F-érték, p = szignifikancia Például: F(2,27)=0,189, p=0




Összetartozómintás varianciaanalízis - Repeated Measure ANOVA


Az Összetartozómintás variancaanalízist akkor használhatjuk, amikor egy csoportra nézve legalább három különböző mérést végeztünk, ahol a függő változónk metrikus mérési szintű. A próba nullhipotézise kimondja, hogy az ismételt mérések átlaga nem különbözik a csoporton belül.

Legegyszerűbb módon képzeljünk el egy osztályt, amelyen reakcióidő méréses feladatokat végeztek. A reakcióidő méréses feladatok eredményei jelentik a függő változónkat, melyek metrikus skálán helyezhetők el. A mérést először elvégezték hétfőn, majd újra kedden és szerdán is. Azt is látjuk ezáltal, hogy három mérés történt ugyanazon a mintán. Az összetartozómintás varianciaanalízis azt hivatott feltárni, hogy a három mérés között van-e szignifikáns különbség.

Az összetartozó mintás varianciaelemzés futtatása SPSS-ben és hivatkozása Az összetartozó mintás varianciaelemzést megtalálhatjuk az Analyze> General linear models > Repeated measures menüpontban. A felugró ablakban a „Within-Subject Factor Name” opciónál megadhatjuk a faktorunk nevét, valamint azt, hogy hány szintje volt. Mivel ez egy ismételt mérés és kettőnél több esetet kezelünk, legalább három faktorral kalkulálunk. A következő ablakban a megadott faktorunk mérési szintjeit, különböző változóval jelölhetjük a „Within Subjects Variables” ablakban. (Nem kötelező, de megadhatunk „Between-Subjects” faktort is, ami csoportba rendezi ezeket az adatokat, valamint egy kovariánst, amely az adatok további rendezését és vizsgálatát teszi lehetővé. Ez a kevert ANOVA) Az Options menüpontban jelöljük ki a "Descriptive statistics", a "Homogenity tests" és a "Spread vs. level plot" lehetőségeket. Az összetartozó mintás varianciaanalízis esetében is lényeges tényező a szóráshomogenitás. Ebben az esetben a „Mauchly’s Test of Sphericity” táblázat eredményeit vizsgáljuk meg. Ha ez az érték szignifikáns, akkor a változók szóráhomogenitása nem egyezik meg. A Mauchly’s teszten kapott eredmények alapján értelmezhetjük a „Test of Within-Subjects Effects” táblázatot. Ha a próba nem szignifikáns, vagyis a szórások megegyeznek, a „Sphericity Assumed” sorból kell választanunk a szignifikancia értékét, míg ellenkező esetben a "Greenhouse-Geisser" sor szignifikancia értékeit kell használnunk. A faktor változók szignifikáns eredménye szerint a mérések között különbség van. Kereszthatást is vizsgálhatunk a „csoport” változó bevonásával. Az itt kapott értékek arról árulkodnak, hogy a két tényezőnek együttesen van-e hatása avagy sem. Alapesetben – tehát ha nem szignifikáns az eredmény – nincs különbség. F(a változó szabadságfoka (df) , a hiba szabadságfoka (Error)) = F érték, p = szignifikancia Példánkban: F(1.583,44.314)=1,129, p=.321




Többszempontos varianciaanalízis - Univariate


Az egyszempontos variancianalízissel megoldott kísérlet eredménye az lett, hogy a színek valóban befolyásolták a tanulmányi átlagot. Mégpedig úgy, hogy legjobban a kék színt hordók teljesítettek, őket követték a zöld színt viselők, a sárga színt viselők, majd végül a vörös színt viselők. Az intézetben arra is kíváncsiak voltak, hogy a "nem" valamit befolyásol-e ezen a formulán, tehát megnézték, hogy a fiúk vagy a lányok között volt-e különbség a színeket illetően.

A kísérlet olyan szempontból bővült, hogy egy új független változót vezettünk be, a nemeket, amely szintén nem paraméteres tulajdonságú, csoportosításra alkalmas. Így már nem csak a pulóverek színét, de a fiúk és lányok közötti különbséget is vizsgáljuk a függő változóra (tanulmányi átlag). A többszempontos varianciaelemzés alapján tehát kettő vagy több független változó hatását vizsgáljuk egyetlen függő változóra. Az elemzést szintén legalább 30-as elemszám felett ajánlott elvégezni és a független változóinkat nem csak külön, de egymással interakcióban is vizsgálhatjuk. Különleges, de korántsem ritka az az eset, amikor az egyik független változónak van hatása a modellre, míg a másiknak nincs, azonban a kettő interakciójának már újra van egy kereszthatása. Ebben az esetben a független változók közül a megkülönböztetjük a főhatást okozó tényezőt, valamint a kereszthatást is külön értelmezzük.

Az is előfordulhat, hogy a független változók külön-külön nem rendelkeznek számottevő hatással, azonban egymással interakcióba kerülve már szignifikáns hatást gyakorolnak a függő változóra. Ez a feltételezés egészen életszerű, hiszen tudjuk, hogy ritkán esik meg, hogy egy hatás változása okozzon egy jelenséget. Általában több, egymástól független tényező okozza egy jelenség változását.
A többszempontos varianciaelemzés és kovarianciaelemzés futtatása SPSS-ben és hivatkozása
A többszempontos varianciaelemzést megtalálhatjuk, az Analyze> General Linear Model> Univariate menüpontban. A felugró ablakban a „Dependent variable” lehetőségnél válasszuk ki a függő változónkat. A „Fixed Factors” fül tartalmazza azokat a független változókat, melyek a modellünket befolyásolhatják. Válasszuk ki az „Options” lehetőséget és jelenítsük meg az egyes változók átlagait külön-külön és együttes kereszthatásukkal is. A leíró statisztikát a „Descriptive Statistics”, a szóráshomogenitást a „Homogenity tests”, a hatásnagyságot az „Estimates of effect size”, ábrát pedig a „Spread vs level pot” lehetőségekkel kérhetünk. A kapott eredmények között elsőként megtekintjük, hogy teljesül-e a szóráshomogenitás. Ezt az értéket a Levene teszt mutatja. A nullhipotézise szerint a szórások eloszlása megegyezik a független változókkal generált csoportokban. Amennyiben ez az érték szignifikáns, elvethetjük ezt a nullhipotézist. Ezt jelölnünk kell a statisztikánkban, ugyanis a többváltozós varianciaanalízis esetében szükséges, hogy a szórások homogének legyenek. A független változók által generált csoportok átlagát, szórását és számosságát a „Descriptive Statistics” táblázatban tekinthetjük meg. A „Test of Between-Subjects Effects” táblázatban az egyes változók szignifikancia szintjét tekinthetjük meg a modellünkre nézve. A modell tartalmazza a független változók együttes kereszthatását is. A „Partial Eta Squared” érték a változó magyarázóerejét mutatja, mely értékeknél az 1,00 felel meg 100%-nak. A szignifikáns értékek esetén arról beszélhetünk, hogy a független változónak hatása van a modellre. Az értékeinket grafikusan is megtekinthetjük. Abban az esetben, ha az egyeneseink keresztezik egymást, kereszthatásról beszélünk. Vagyis a két független változónak együttes hatása érvényesül. Hivatkozása: F(a változó szabadságfoka (df), a hiba szabadságfoka) = F-érték, p = szignifikancia Például, ha a pulóver és a nemek együttes kereszthatását hivatkozzuk: F(3,22)=0,198,p=.026




Kevert varianciaanalízis


Akkor használunk kevert ANOVA-t, ha a kutatási elrendezés kevert, tehát több mérési alkalom során hasonlítunk össze több csoportot. Ilyenkor egyszerre mérjük egy between-subject és egy within-subject ,,faktor” hatását a függő változóra. Within-subjects faktor lehet az feltétel, amit a mérési alkalmak között változtatunk, Pl: zaj, idő, gyógyszeres kezelés, alkoholfogyasztás, etc. Between-subjects faktor bármilyen csoportosító változó lehet (Pl.:nem, szak, diéta típusa, stb.). Kevert ANOVA-val fő és kereszthatásokat tudunk vizsgálni. A főhatás a between-és a within-subject faktor által kifejtett hatást külön-külön vizsgálja, majd az eredmény alapján megállapíthatjuk, hogy az szignifikáns-e. A kereszthatással azt vizsgáljuk, hogy a bevont változók interakciója fejt-e ki valamilyen jelentős hatást a függő változóra. Lássunk egy példát: Férfiak és nők csoportját vizsgáljuk, ahol egy új sportkocsit tesztelhetnek le. A tesztvezetés során a résztvevők annyi időt tölthetnek a tesztpályán, amennyit szeretnének. Fekete és piros tesztautókat használunk, minden résztvevő mindkét színű autót kipróbálja. Az első feladatunk azonosítani a between-és a within-subject faktorokat, majd a vizsgált fő-és kereszthatásokat. Between-subject faktor: nem. Within-subject faktor: A két színű autó tesztelésével töltött idő. Főhatások: A férfiak vagy a nők vezetnek összességében több ideig? A fekete vagy a piros autókat vezetik több ideig? Tehát nem és a kocsi színének főhatása. Kereszthatás: Van-e különbség abban, hogy melyik nem képviselői melyik színű autót vezetik tovább a tesztelés során? Pl.: A nők hosszabb ideig vezetik a piros, a férfiak a fekete autót, és p < 0,05, akkor jelentős kereszthatásról van szó. A kevert varianciaelemzés futtatása és hivatkozása A kevert varianciaelemzéshez először az Analyze> General Linear Model> Repeated Measures menüpontba kell belépnünk. A felugró ablakban meg kell adnunk egy Within-subject factort, melyet mi nevezünk el, majd meg kell adnunk, hogy hány ,,szintje" van a faktornak. Ebben az esetben a Kocsi színe a faktor, ennek 2 szintje van (piros és fekete). Ezt követően a Define menüpontra kell kattintanunk, ahol a Within-subject variables résznél a within-subject faktor szintjeit kell megadnunk (ezek a piros és fekete autó tesztelésével töltött idő, majd pedig lehetőségünk van between-subject faktor megadására is (ez pedig a nem). Ezt követően a Plots menüpontban kérjük ábrát a kereszt-és főhatásokról-ezek a későbbiekben megkönnyíthetik azok értelmezését. A következő lépés már a próba lefuttatása, amit az eredmények értelmezése követ. A főhatások értelmezéséhez a Tests of within-subjects effects és Tests of between-subjects effects táblázatokat kell megvizsgálnunk az outputban. Amint a táblázatok alapján is látható, sem a nem (tests of b-s effects táblázat 2. sora), sem a kocsi színe (tests of w-s effects táblázat 1. sora) nem fejt ki szignifikáns főhatást a teszteléssel töltött időre. A tests of w-s effects táblázatban azonban azt is láthatjuk (a kocsi színe*nem 1. sorában), hogy a nem és a kocsi színe jelentős kereszthatást fejt ki. Ahhoz, hogy ezt a kereszthatást elemezni tudjuk, rá kell pillantanunk a hozzá tartozó ábrára. Ez alapján már megfelelően tudjuk interpretálni az eredményt: Az 1-es számmal jelölt fekete színű kocsikat a nők jelentősen kevesebb ideig tesztelték, mint a férfiak, míg a piros színű (2-essel jelölt) kocsik esetén épp fordított hatásról beszélhetünk: Ezeket a kocsikat a férfiak tesztelték jelentősen kevesebb ideig. Hivatkozása: F(a változó szabadságfoka (df), a hiba szabadságfoka) = F-érték, p = szignifikancia Például a bemutatott kereszthatás esetén: F(1) = 80,51,p < 0,001.





 

KOVARIÁNS BEVEZETÉSE

1. eset

Mérésből származó hiba

Kovariáns

Lehetőség a nullhipotézis elvetésére

1. eset + kovariáns

Az első eset azt mutatja, hogy a statisztikai próbának mekkora a lehetősége van a nullhipotézis elvetésére. Természetesen szembesülnünk kell a mérésből származó hibákkal és azokkal a tényezőkkel, amelyek nem képezik részét a kísérletünknek, de aktívan hatást gyakorolhatnak rá, ez a kovariáns. A varianciaanalízis modelljébe illesztett kovariáns azt a célt szolgálja, hogy a modellünk teljes magyarázó erejének részét képezze úgy, hogy annak hatását lényegében leválasztjuk és már csak a mérésből származó hibákkal kelljen foglalkoznunk. Továbbá a kovariáns alapvetően nem mentes a mérési hibáktól, így elméletben ezzel is kell számolnunk. A kovariáns bevezetése a modellünkbe számos esetben, mint a jelenlegi példában is, képes megnövelni a lehetőséget a nullhipotézis elvetésére. Azonban olyan eset is fennállhat, hogy a kovariáns behozatala nem módosít a modellünkön, sőt azzal ellentétes eredményt kapunk. Fontos, hogy a kovariáns korreláljon a függő változóval, azonban ha egyszerre több kovariánst vizsgálunk, azok ne korreláljanak egymással.

 

A kovariáns bevezetése akkor lehet indokolt, amikor a független változók által kialakított csoportok/feltételek között valamilyen különbség alapvetően fellelhető (legalábbis sejtjük), de elsősorban nem releváns a kutatás szempontjából. Egy fiktív példában nők és férfiak, illetve az iskolázottság kapcsolatát vizsgálva különböző memória-feladatokon azt látjuk, hogy lényeges különbség nem mutatkozik az egyetemet végzett nők és férfiak között. Azonban egy másik kutatásból tudjuk, hogy a nők és a férfiak IQ értéke általánosságban eltérő képet mutat. Míg a nők értékei inkább az átlag körül csoportosulnak, addig a férfiak esetében nagyobb a szórás. Kovariánsként beemelhetjük a modellünkbe az IQ értékeket, amely azt az eredményt mutatja, hogy az egyetemet végzett nők mégiscsak szignifikánsan jobbak a memória-feladatokban. Ez a fiktív példa azt mutatja, hogy az IQ értékek figyelembevételével már könnyebben tudunk differenciálni a csoportok között. A statisztikai módszer hátterében az áll, hogy valójában úgy vettük figyelembe a kovariánst, hogy a memória-tesztek eredményeinek értelmezésekor az mégse legyen magyarázó erejű tétel. Egy másik egyszerű és mégis humoros példával élve: a kovariáns hozott ajándékot, meg nem is.

A legtöbb kísérlet, úgy tűnik, mintha maximális izoláltsággal lenne létrehozva a való világtól függetlenül. Ez egy olyan módszertani dilemmát vet fel, amely átnyúlik a statisztikai értelmezésbe is. Alapjaiban véve a kísérletek lényege a kontrolláltság, hiszen ennek segítségével tudjuk a változóinkat úgy összehasonlítani, hogy abba információs interferencia ne kerüljön. Ennek ellenére beláthatjuk azt is, hogy a valóságban nincs olyan eseménytér, amely a benne szereplő tényezőkre nézve teljesen izolált legyen. Röviden tehát: hiába alkotunk kísérleti helyzetet, mivel a valóságot akarjuk vele modellezni, figyelembe kell vennünk olyan tényezőket is, amelyek alapvetően nem képezik részét a vizsgálatunknak (hiszen néhány változót kontroll alatt tartunk), de aktívan befolyásolhatják annak eredményét. A statisztika nyelvére lefordítva ez azt jelenti, hogy egy eredmény szignifikanciájának vizsgálata és a nullhipotézis elvetése másképp következhet be akkor, ha ezeket a tényezőket figyelembe vesszük és akkor is ha nem. Összefoglalóan és tágabb értelmezésében minden olyan tényezőt kovariánsnak nevezhetünk, amely a kísérletünk szempontjából nem képezi részét az összehasonlítás fókuszának, de hatása aktívan befolyásolhatja azt. 

Egyszempontos kovarianciaanalízis - ANCOVA


Az egyszempontos kovarianciaanalízis (ANCOVA) esetében, elméletben hasonlóan járunk el, mint az egyszempontos varianciaanalízis során:

- keresünk egy darab függő változót, amin mérjük a független változó hatását

- a független változót (amely csoportosító változó, vélhetően nominális, esetleg ordinális) bevezetjük a modellbe, tehát csoportokat képzünk

- keresünk egy kovariánst, ami befolyásolhatja a modell függő változóra gyakorolt hatását

- ellenőrízzük, hogy a függő változó korrelál a kovariánssal

- több kovariáns esetén ellenőrízzük, hogy azok ne korreláljanak

- megvizsgáljuk, hogy a csoportokra hasonlóképpen hasson a kovariáns bevezetése

Ezeket a "Kovariáns előtesztelése a modellünkben" pontban találhatjuk meg.



Példa SPSS-ben:

Keressük fel az Analyze > General Linear Models > Univariate lehetőséget

A felugró ablakban válasszuk ki a függő változót, a csoportosító változót, végül pedig a kovariánst.

Ezt követően a Model menüpontban adjuk meg, hogy mely elemeket tartalmazza és milyen interakcióban a számításunk. Külön-külön adjuk meg a csoportosító faktort és a kovariánst is a szemközti felületbe való átmásolással, illetve az interakciót válasszuk ki úgy, hogy egyszerre választjuk ki a független változót és a kovariánst, majd úgy helyezzük át a másik oldalra.

Ezt követően az Options menüpontban válasszuk ki, hogy a független változó mely tulajdonságai jelenjenek meg. Érdemes kiválasztani a leíró statisztika mellett (Descriptive statistics) a homogenitás vizsgálatot (Homogenity tests), hogy lássuk, valóban nincs nagy eltérés a csoportok között.

A kapott eredményeket vizsgálva először tekintsük meg a Levene's Homogenity test táblzátatot. A próba nullhipotézise szerint a homogenitás megegyezik. Szignifikáns érték esetén ezt elvetjük és ha továbbra is ragaszkodunk a próbához, ezt jelölnünk kell!

A kapott eredményeket pedig tekintsük meg a táblázatban:

Mivel az ANCOVA esetében arra vagyunk kíváncsiak, hogy a csoportjaink között van-e valamilyen különbség, amire hatással van a kovariancia, így mindig azt a sort nézzük, ahol a független változó interakcióban van feltüntetve a kovariánssal (a jelen esetben például: nem * iq). Az itt kapott szignifikáns érték (<0.05) azt jelenti, hogy a csoportok között a kovariáns vizsgálatával különbséget kaptunk.

Hivatkozása:

F(interakció szabadságfoka (df), a hiba (error) szabadságfogka)= F értéke, szignifikancia értéke

Példánkban: F(1,36)=0,001, p=0,05




Kovariáns előtesztelése a modellünkben (SPSS)


Mielőtt nekilátunk a kovariáns bevezetésének, meg kell vizsgálnunk, hogy annak a modellbe ivaló illesztése lehetséges-e. Erre vonatkozóan az alábbi szabályok érvényesek:

1, A kovariáns és a vizsgált függő változó(k) korrelációjának fenn kell állnia

2, Több kovariáns esetén azok nem korrelálhatnak

3, A csoportok (ha vannak) hasonlóak legyenek a lineáris lefutásukban a kovariáns bevezetésével

1, A kovariáns és a függő változók korrelációjának fenn kell állnia

Ennek a felderítése azért fontos, mert a kovariáns valamilyen szempontból hatást gyakorol a modellre. Felderítésének módja:

Példa SPSS-ben:

Keressük fel az Analyze > Correlate > Bivariate menüpontot

Húzzuk át a kovariánst és a függő változó(ka)t, futtassuk le a próbát

Elvethetjük a próba nullhipotézisét (miszerint a változók között nincs kapcsolat), amennyiben a kapott eredmények szignifikancia értékei kisebbek, mint 0,05. Vagyis a változók között korreláció áll fenn. Irányát és nagyságát a Pearson Correlation (nem paraméteres adatsorok esetén Spearman Correlation) értéke adja meg. Negatív érték esetén fordított korreláció áll fenn. A Pearson Correlation értéke 0-1 között terülhet, minél közelebb áll az 1-hez, a korreláció annál erősebb. A korreláció 0,5-ös értéke alatt legfeljebb tendenciáról beszélünk. A kovariánsok összehasonlításakor ugyanezt az eljárást használjuk.

A csoportok közötti lineáris különbségek feltárását többek között (és legegyszerűbben) grafikusan tudjuk elvégezni.

Ehhez menjünk a Graphs > Legacy dialogs > Scatter/Dot lehetőséghez

Válasszuk a Simple Scatter lehetőséget és kattintsunk a Define lehetőségre

A felugró ablakban az Y tengelyre kerüljön a függő változó, az X tengelyre pedig maga a kovariáns. A Set Markers by lehetőségnél adjuk meg azt a független változót, amely a csoportokat képezi.

Az ábrán duplán kattintva hozzuk elő a szerkesztőfelületet Majd ott válasszuk ki az Elements > Fit Line Subgroups lehetőséget, ezzel egyeneseket teszünk az ábránkra, amely a leginkább reprezentálja a pontok lineáris lefutását a csoportok között. A kapott vonalak esetében a lefutásnak két irányát láthatjuk. Amennyiben a bal alsó saroktól a jobb felső sarok felé haladnak, a linearitás pozitív. Ez azt jelenti, hogy a növekvő függő változó értékei mellett a kovariáns szintén növekszik. Ellentétes irány esetén fordított kapcsolat áll fenn, vagyis az egyik változó növekedése a másik csökkenését vonja magával. A csoportokat jelképező vonalak akkor mutatnak elemzésre is alkalmas képet, ha azok egymástól elkülönülve, párhuzamosan futnak, dőlt irányba. Ha horizontálisan (!) egyenes vagy egymást keresztező, összeérő vonalakat látunk, akkor azt feltételezhetjük, hogy a csoportok között nincs lineáris kapcsolat. Vagyis a kovariáns másképp hat az egyik és a másik csoportra, így az elemzés értelmét veszti. Amennyiben a három feltétel nem teljesül, a kovariáns bevezetése nem indokolt.




Összetartozómintás kovarianciaanalízis


Az összetartozómintás kovarianciaanalízis esetében, elméletben hasonlóan járunk el, mint az összetartozómintás varianciaanalízis során:

- keresünk egy darab függő változót (amely mérést ugyanazon a mintán legalább kétszer felvettünk), amin mérjük a független változó hatását

- keresünk egy kovariánst, ami befolyásolhatja a modell függő változóra gyakorolt hatását

- ellenőrízzük, hogy a függő változó korrelál a kovariánssal

- több kovariáns esetén ellenőrízzük, hogy azok ne korreláljanak

Ezeket a "Kovariáns előtesztelése a modellünkben" pontban találhatjuk meg.

SPSS Példa:

Keressük fel az Analyze > General Linear Models > Repeated Measure pontot

A felugró ablakban adjuk meg, hogy hányszor mértünk (Number of Levels), majd adjuk hozzá (Add)

A következő ablakban adjuk meg a méréseinket (Within-Subjects Variables), illetve a kovariánst, hogy megnézzük a csoportonkon belül a mérésekre van-e valamilyen hatással. Kattintsunk az OK gombra.

A kapott táblázatban először tekintsük meg a Mauchly's Test of Sphericity táblázatot. Ha ez az érték szignifikáns, akkor azt jelenti, hogy a mérések középértéke már lényegesen eltér egymástól, ebben az esetben az alatta megtalálható (Tests of Within-Subjects Effects) táblázatban a Greenhouse-Geisser sorban megtalálható szignifikancia értéket kell megvizsgálnunk. Amennyiben a Mauchly's Test nem szignifikáns, a Sphericity Assumed sorban vizsgáljuk a szignifikancia értékeit.

A Tests of Whithin-Subjects Effects szignifikáns értékét a függő változók és a kovariáns interakciójának tekintetében vizsgáljuk (a példában: facto1*iq). Az Itt kapott szignifikáns érték szerint a három csoport között szignifikáns különbség van, ha figyelembe vesszük a kovariánst.

Hivatkozása:

F(interakció szabadságfoka a Mauchly's tesztnek megfelelő sorból (df), a hiba (error) szabadságfogka)= F értéke, szignifikancia értéke

Példánkban: F(1.710,64.974)=3.587, p=.040




Többszempontos kovarianciaanalízis


Az többmintás kovarianciaanalízis esetében, elméletben hasonlóan járunk el, mint az többmintás varianciaanalízis során:

- keresünk egy darab függő változót amin mérjük a független változó hatását

- megkeressük a legalább két független változónkat, amely csoportot/feltételt képez

- keresünk egy kovariánst, ami befolyásolhatja a modell függő változóra gyakorolt hatását

- ellenőrízzük, hogy a függő változó korrelál a kovariánssal

- több kovariáns esetén ellenőrízzük, hogy azok ne korreláljanak

- megvizsgáljuk, hogy a csoportokra hasonlóképpen hasson a kovariáns bevezetése

Ezeket a "Kovariáns előtesztelése a modellünkben" pontban találhatjuk meg.

SPSS Példa:

Kattintsunk az Analyze > General Linear Models > Univariate lehetőségre

A felugró ablakban válasszuk ki a független változónkat (Dependent Variable), a csoportosító független változókat (legalább kettőt, a Fixed Factor(s) pontba), illetve a kovariánst (Covariate(s)).

A Model menüpontban egyesével válasszuk ki a változókat (független változók és a kovariáns), illetve közös kijelöléssel (CTRL gomb lenyomása) egyszerre húzzuk át őket a Modelbe, hogy interakciós vizsgálatot folytathassunk.

Mivel vannak csoportjaink így azokra érdemes leíró statisztikát alkalmazni, valamint a homogenitás vizsgálatát (Homogenity tests) elvégezni. Ezutóbbi azért fontos, hogy a csoportok egymástól ne különbözzenek lényegesen a középértékeiket illetően.

Az eredményeinket megtekintve, először nézzük meg a Levene's táblázatot, amely érték, ha szignifikáns, akkor azt jelenti, hogy a csoportok között a homogenitás nem egyezik meg. A mi szempontunkból az a fontos, hogy ezek megegyezzenek.

A Tests of Between-Subjects Effects táblázat interakciós sorában vizsgálódva (nem*iskola*iq) megkapjuk a szignifikancia értékét (Sig.). Amennyiben ez szignifikáns, úgy azt jelenti, hogy a képzett csoportok között a kovariáns bevezetésével különbséget találtunk.

Hivatkozása:

F(interakció szabadságfoka (df), a hiba (error) szabadságfogka)= F értéke, szignifikancia értéke

Példánkban: F(7,27)=1,365, p=0,260





 

ISMÉTELT MÉRÉSEK CSOPORTOK KÖZÖTT

A kevert ANOVA onnan kapta a nevét, hogy egyszerre alkalmaz eltérő feltételt és eltérő csoportot. Az egyszerűbben kontrollált kísérletek általában vagy több mérési alkalmat különböztetnek meg egy csoporton belül (within subject) vagy ugyanannak a változónak a különbségeit vizsgálják a csoportok között (between subjects).  A kevert ANOVA alkalmas arra, hogy a kialakított csoportok (kettőnél több csoport is lehet) között tegyen különbséget ismételt mérések (kettőnél több mérés is lehet) alapján. Ezzel a kevert modellünk új dimenziójában enged vizsgálódni, ahol már nem csak a tesztelések sorozata, de a csoportok közötti különbségeket is kereshetjük. A modell alkalmas arra is, hogy kovariáns bevezetésével tovább árnyaljuk a kapott eredményeket.

1. mérés
2. mérés
3. mérés
1. csoport
1. csoport
1. csoport
2. csoport
2. csoport
2. csoport
3. csoport
3. csoport
3. csoport
Elemzésre már ez az elrendezés is alkalmas!
KOVARIÁNS
 

Kevert ANOVA


A kevert ANOVA SPSS-beli alapja, az összetartozó mintás variancaanalízis futtatása során található meg. A próbát akkor használhatjuk, amikor több csoportra nézve legalább két különböző mérést végeztünk, ahol az (egy darab) függő változónk metrikus mérési szintű. A próba nullhipotézise kimondja, hogy az ismételt mérések átlaga nem különbözik a csoporton belül.

Legegyszerűbb módon képzeljünk el két osztályt, amelyen reakcióidő méréses feladatokat végeztek. A reakcióidő méréses feladatok eredményei jelentik a függő változónkat, melyek metrikus skálán helyezhetők el. A mérést először elvégezték hétfőn, majd újra kedden és szerdán is. Azt is látjuk ezáltal, hogy három mérés történt két mintán, amit egy független változóval alakítottunk ki (melyik osztály). A kevert ANOVA azt hivatott feltárni, hogy a három mérés között van-e szignifikáns különbség a varianciákat illetően, de nem csak a mérések alkalmával, hanem a csoportok között is.

A kevert ANOVA alkalmas arra is, hogy több független változó által alakítsuk a csoportjainkat és azok interakcióját vizsgáljuk. Továbbá lehetőséget biztosít a kovariáns bevezetésére is.

A kevert ANOVA futtatása SPSS-ben és hivatkozása A kevert ANOVA-t ugyanott találjuk, ahol az összetartozó mintás varianciaelemzést: az Analyze> General linear models > Repeated measures menüpontban. A felugró ablakban a „Within-Subject Factor Name” opciónál megadhatjuk a faktorunk nevét, valamint azt, hogy hány szintje volt. A következő ablakban a megadott faktorunk mérési szintjeit, különböző változóval jelölhetjük a „Within Subjects Variables” ablakban. Nem kötelező, de megadhatunk „Between-Subjects” faktort is, ami csoportba rendezi ezeket az adatokat, valamint egy kovariánst, amely az adatok további rendezését és vizsgálatát teszi lehetővé. Csoportosító változó megadásával (nem) Az options menüpontban jelöljük ki a "Descriptive statistics" (leíró statisztikai mutatók), "Homogeneity tests" (szóráshomogenitás vizsgálat, a szórások megegyeznek-e) és a "Spead vs level plot" (grafikus megjelenítés) lehetőségeket A Plots menüpontban adjuk meg hogy a "between subjects" között hogyan jeleníthető meg a tendencia. A "separate lines" legyen a csoportosító változó, míg a "horizontal axis" a vizsgált függő változónk. Ezt követően kattintsunk az "add" lehetőségre. Az összetartozó mintás varianciaanalízis esetében is lényeges tényező a szóráshomogenitás. Ebben az esetben a „Mauchly’s Test of Sphericity” táblázat eredményeit vizsgáljuk meg. Ha ez az érték szignifikáns, akkor a változók szóráhomogenitása nem egyezik meg. A Mauchly’s teszten kapott eredmények alapján értelmezhetjük a „Test of Within-Subjects Effects” táblázatot. Ha a próba nem szignifikáns, vagyis a szórások megegyeznek, a „Sphericity Assumed” sorból kell választanunk a szignifikancia értékét, míg ellenkező esetben a Greenhouse-Geisser sor szignifikancia értékeit kell használnunk. A faktor változók szignifikáns eredménye szerint a mérések között különbség van. Kereszthatást is vizsgálhatunk a „csoport” változó bevonásával. Az itt kapott értékek arról árulkodnak, hogy a két tényezőnek együttesen van-e hatása avagy sem. Alapesetben – tehát ha nem szignifikáns az eredmény – nincs kapcsolat. Fontos tudnivaló: amennyiben a Mauchly's Test szignifikanciaértéke üres, értelemszerűen nem tudunk választani a "Sphericity Assumed" vagy a "Greenhouse-Geisser" sorok között, hiszen nincs mi alapján döntést hoznunk. Ez akkor lehetséges, amikor az ismételt mérésnek csak két szintje van (a mi esetünkben IQ1 és IQ2 értékek). Ebben az esetben egyszerűen a "Sphericity Assumed" sorból válasszunk vagy a Test of Within-Subjects Contrasts táblázatból (a két érték meg fogy egyezni a kétszintű mérés esetén, három vagy több szint esetén kapunk eltérő értékeket). A „Test of Between-Subjects Effects” táblázat megmutatja, hogy önmagában a csoportosító változónak van-e valamilyen hatása a modellünkre. Ennek szignifikancia szintjét a csoportosító változó sorában kereshetjük. Szignifikancia esetén a megadott kereszthatás hatást gyakorol a modellünkre. F(a változó szabadságfoka (df) , a hiba szabadságfoka (Error)) = F érték, p = szignifikancia Példánkban: F(3,25)=.821, p=.495




Kevert ANCOVA


A kevert ANCOVA SPSS-beli alapja, az összetartozó mintás variancaanalízis futtatása során található meg. A próbát akkor használhatjuk, amikor több csoportra nézve legalább két különböző mérést végeztünk, ahol az (egy darab) függő változónk metrikus mérési szintű. A próba nullhipotézise kimondja, hogy az ismételt mérések átlaga nem különbözik a csoporton belül.

Legegyszerűbb módon képzeljünk el két osztályt, amelyen reakcióidő méréses feladatokat végeztek. A reakcióidő méréses feladatok eredményei jelentik a függő változónkat, melyek metrikus skálán helyezhetők el. A mérést először elvégezték hétfőn, majd újra kedden és szerdán is. Azt is látjuk ezáltal, hogy három mérés történt két mintán, amit egy független változóval alakítottunk ki (melyik osztály). Emellett az osztályok képességét felmérő osztályátlag is rendelkezésre állt. Ezt kovariánsként használhatjuk. Miért? Azért, mert az osztályok között keressük az különbséget a reakcióidő tekintetében, ez az alapkutatásunk, ennek ellenére a modellt másképp befolyásolhatja a tanulmányi átlag, annak ellenére, hogy elsődlegesen nem arra fókuszálunk a kérdésünkben. A kevert ANCOVA azt hivatott feltárni, hogy a három mérés között van-e szignifikáns különbség a varianciákat illetően, de nem csak a mérések alkalmával, hanem a csoportok között, a kovariáns figyelembevételével.

A kevert ANOVA futtatása SPSS-ben és hivatkozása A kevert ANCOVA-t ugyanott találjuk, ahol az összetartozó mintás varianciaelemzést: az Analyze> General linear models > Repeated measures menüpontban. A felugró ablakban a „Within-Subject Factor Name” opciónál megadhatjuk a faktorunk nevét, valamint azt, hogy hány szintje volt. A következő ablakban a megadott faktorunk mérési szintjeit, különböző változóval jelölhetjük a „Within Subjects Variables” ablakban. Nem kötelező, de megadhatunk „Between-Subjects” faktort is, ami csoportba rendezi ezeket az adatokat, valamint egy kovariánst, amely az adatok további rendezését és vizsgálatát teszi lehetővé. Csoportosító változó megadásával (nem) A kovariáns az "átlag" A kovariáns bevezetésével jelenítsük meg a modellt úgy, hogy ne csak a between subjects faktor, de a kovarián hatását is mutassa majd. Ehhez kattintsunk a Model > Custom lehetőségre, ahol a Between-Subjects felületen közös kijelöléssel (CTRL lenyomása és kattintás mindkét változóra) kérve hozzuk létre a Between-Subjects modellünket. Az options menüpontban jelöljük ki a "Descriptive statistics" (leíró statisztikai mutatók), "Homogeneity tests" (szóráshomogenitás vizsgálat, a szórások megegyeznek-e) és a "Spead vs level plot" (grafikus megjelenítés) lehetőségeket A Plots menüpontban adjuk meg hogy a "between subjects" között hogyan jeleníthető meg a tendencia. A "separate lines" legyen a csoportosító változó, míg a "horizontal axis" a vizsgált függő változónk. Ezt követően kattintsunk az "add" lehetőségre. Az összetartozó mintás varianciaanalízis esetében is lényeges tényező a szóráshomogenitás. Ebben az esetben a „Mauchly’s Test of Sphericity” táblázat eredményeit vizsgáljuk meg. Ha ez az érték szignifikáns, akkor a változók szóráhomogenitása nem egyezik meg. A Mauchly’s teszten kapott eredmények alapján értelmezhetjük a „Test of Within-Subjects Effects” táblázatot. Ha a próba nem szignifikáns, vagyis a szórások megegyeznek, a „Sphericity Assumed” sorból kell választanunk a szignifikancia értékét, míg ellenkező esetben a Greenhouse-Geisser sor szignifikancia értékeit kell használnunk. A faktor változók szignifikáns eredménye szerint a mérések között különbség van. Kereszthatást is vizsgálhatunk a „csoport” változó bevonásával. Az itt kapott értékek arról árulkodnak, hogy a két tényezőnek együttesen van-e hatása avagy sem. Alapesetben – tehát ha nem szignifikáns az eredmény – nincs kapcsolat. Fontos tudnivaló: amennyiben a Mauchly's Test szignifikanciaértéke üres, értelemszerűen nem tudunk választani a "Sphericity Assumed" vagy a "Greenhouse-Geisser" sorok között, hiszen nincs mi alapján döntést hoznunk. Ez akkor lehetséges, amikor az ismételt mérésnek csak két szintje van (a mi esetünkben IQ1 és IQ2 értékek). Ebben az esetben egyszerűen a "Sphericity Assumed" sorból válasszunk vagy a Test of Within-Subjects Contrasts táblázatból (a két érték meg fogy egyezni a kétszintű mérés esetén, három vagy több szint esetén kapunk eltérő értékeket). A „Test of Between-Subjects Effects” táblázat megmutatja, hogy a csoportosító változónak és a kovariánsnak (iskola_csoportosito*atlag) van-e valamilyen hatása a modellünkre. Szignifikancia esetén a megadott kereszthatás hatást (az átlag és a csoportok) gyakorol a modellünkre. F(a változó szabadságfoka (df) , a hiba szabadságfoka (Error)) = F érték, p = szignifikancia Példánkban: F(4,24)=.909, p=.474 Kovariáns és a csoportosító változó Példánkban: F(4,24)=2.009, p=.125





TÖBBVÁLTOZÓS VARIANCIAELEMZÉS

Többváltozós varianciaanalízis- és kovarianciaanalízis | MANOVA és MANCOVA


Az többváltozós varianciaanalízis esetében - kereshetünk egyszerre több függő változót, amin mérjük a független változók hatását - megkeressük a legalább két független változónkat, amely csoportot/feltételt képez Kovariánssal kiegészítve - keresünk egy kovariánst, ami befolyásolhatja a modell függő változóra gyakorolt hatását - ellenőrízzük, hogy a függő változó korrelál a kovariánssal - több kovariáns esetén ellenőrízzük, hogy azok ne korreláljanak - megvizsgáljuk, hogy a csoportokra hasonlóképpen hasson a kovariáns bevezetése SPSS Példa: Kattintsunk az Analyze > General Linear Models > Multivariate lehetőségre A függő változóinkat adjuk meg a Depedent Variables pontban. A független változók, amelyek csoportosító tényezők, a Fixed Factor(s) pontba kerülnek. A kovariáns is bevezethető (MANCOVA) a modellbe a Covariate(s) pontba illesztve. A Model gombra kattintva megadhatjuk, hogy a faktorok és kovariánsok milyen interakcióit vizsgáljuk. Az interakciót a vizsgálni kívánt változók egyszerre történő beemelésével kérhetjük, ehhez a változóra állva tartsuk lenyomva a CTRL gombot és ezzel párhuzamosan kattintsunk a másik kívánt változó(k)ra. A független változók, mivel csoportképzők, homogenitást kell mutatniuk egymással a középértékek varianciáját illetően. Ennek lefuttatásához kattintsunk az Options menüpontba. Itt kiválaszthatjuk, hogy mely tényezőket vizsgáljuk. Jelöljük be a leíró statisztikai modult (Descriptive statistics) illetve a homogenitás tesztet (Homogenity tests). Kattintstunk a Continue-ra, majd az Ok gombbal indítsuk el a próbát. Az eredmények figyelembevételekor, először tekintsük meg a Box's Test of Equality of Covariance Matrices táblázatot. A teszt kimondja, hogy a függő változók és a kovariáns között a varianciának közel megegyezőnek kell lennie. Ha a próba szignifikáns, ez a feltétel nem teljesül. Ettől függetlenül tovább folytathatjuk a feltérképezést, a statisztikában azonban jelölni kell, hogy a függő változók és az esetleges kovariáns között nem teljesült ez a feltétel. A Multivariate Tests táblázat mutatja, hogy a csoportosító független változók, illetve a beemelt kovariáns milyen interakcióban ad különbséget a függő változóink között. Abban az interakcióban van szignifikáns eltérés, ahol a Sig. értéke <0.05. Gyakorlati szempontból, ha egy interakción belül a négy különböző szignifikancia érték esetleg eltérő lenne a szignifikancia szempontjából, akkor érdemes globálisan értelmezni azt és az alapján dönteni, hogy a szignifikáns vagy a nem szignifikáns értékek vannak túlsulyban. Ha szignifikáns különbséget tapasztalunk valamelyik interakcióban, akkor a Tests of Between-Subjects Effects táblázatban megkereshetjük, hogy pontosan melyik mátrixban találjuk a különbséget. Hivatkozása: F(interakció szabadságfoka (df), a hiba (error) szabadságfogka)= F értéke, szignifikancia értéke Példánkban: F(8,40)=8,584, p<0.001 Megjegyzés: ha 0.000-ás p értéket kapunk, a megfelelő jelölés: p<0.001





A többváltozós varianciaanalízis a nevéből adódóan, több függő változót képes kezelni, több differenciált független változó mellett. Figyeljünk arra, hogy ne keverjük össze a többszempontos varianciaanalízissel, amely egyetlen függő változót kezel több szempont (független változó) figyelembevételével. A többváltozós varianciaanalízis egyaránt használható több független változóval történő interakció felderítésére is. Általánosítva elmondható, hogy ez az eljárás képes a legtöbb információt kinyerni a mintánkból, így feltáró elemzésre is remekül alkalmazható.