Intelligentsuse psühholoogia. René Mõttus
Чтение книги онлайн.
Читать онлайн книгу Intelligentsuse psühholoogia - René Mõttus страница 6
Korrelatsiooni informatsiooniline tõlgendus
Korrelatsioon on mõõt, mis näitab, kui palju üks tunnus sisaldab endas informatsiooni mingi teise tunnuse kohta. Tuleme tagasi meie konstrueeritud näite juurde pikkuse ja kaalu seose kohta. Oletame, et mingil põhjusel on andmed kaalu kohta kaduma läinud ja me teame vaid inimeste pikkusi. Küsimus on nüüd selles, kui suure täpsusega saame pikkuse põhjal taastada puuduva kaalu. Selge, et seda pole võimalik teha täpselt, sest korrelatsioon on ühest väiksem. Toodud näite puhul r = 0,87 annab r² väärtuseks 0,76, mis tähendab, et 76 % kaalu andmetest on taastatavad pikkuse põhjal. Võrdluseks – kui korrelatsioon üldse puuduks ja r = 0, siis poleks ühe tunnuse põhjal mitte kuidagi võimalik ennustada, millised võiksid olla teise tunnuse väärtused.
Seos ei kehti tingimata kõigile inimestele
Viimaks on sobilik veel kord märkida, et korrelatiivsed seosed väljendavad trende ning ei üldistu automaatselt kõigile uurivatele. Käitumisteaduste kirjeldada olevaid seoseid ei saa kunagi väljendada korrelatsioonikordajaga maksimaalväärtusena. Seega ei kehti inimgrupi tasemel avalduv seos kindlasti kõigi inimeste puhul. Seda nägime juba eespool. Sellest tuleneb paratamatult ka vastupidine järeldus: kui üksiku inimese puhul mingi seos ei kehti, ei tähenda see kaugeltki, et selline seos ei võiks kehtida üldiselt. Niisugune asjaolu väärib eraldi rõhutamist, sest mõnikord naeruvääristatakse teadlaste avastatud seoseid just nii, et viidatakse üksikjuhtumitele, mille puhul see seos ei kehti. Tegelikult ei peegeldu seosetrend vältimatult igas üksikjuhtumis.
Korrelatsioon ja põhjuslikkus
Nähes kahe nähtuse koosesinemist, on lihtne hakata mõtlema, et nende vahel on mingi põhjuslik seos (cum hoc ergo propter hoc). Tihti võib tunduda ilmsena ka see, kumb nähtustest on põhjus ja kumb tagajärg. Tegelikult aga ei ole nähtuste koosesinemist ja – varieerumist kirjeldava korrelatsioonikordaja põhjal kuidagi võimalik teha põhjuslikke järeldusi. Näiteks võime märgata, et nutikamad inimesed on kõrgema haridustasemega ja selle põhjal teha järelduse, et koolis käimine muudab inimesed targemaks. Esmapilgul näib see tõesti väga mõistlik oletus. Lähemal vaatlemisel võib aga selguda, et välistada ei saa ka vastupidist võimalust. Võib-olla suudavad loomu poolest nutikamad inimesed lihtsalt koolis kauem vastu pidada. Arvestada tuleb veel kolmandagi võimaliku seletusega: ka väga tugeva korrelatsiooni olemasolu ei välista võimalust, et nähtuste vahel ei ole tegelikult mingit põhjuslikku seost. Näiteks võime olla üsna kindlad, et inimeste saapanumber on tugevas korrelatsioonis nende küünarvarre pikkusega. Niisugune seos ei tähenda aga kindlasti, et suurem saapanumber kasvatab inimestele pikemad käed või vastupidi, pikkade küünarvartega inimestel tuleb endale tahes-tahtmata lõpuks suured saapad muretseda. Tegelikult oleme lihtsalt jätnud tähelepanuta ühe teise muutuja, inimese keha üldise pikkuse, mis mõjutab nii küünarvarte kui jalalabade pikkust. Niisiis, kahe tunnuse korrelatsiooni võib põhjustada ka mingi kolmas, n-ö peidus olev muutuja. On täiesti arusaadav ja andestatav, et me oma igapäevastes hinnangutes kaldume tegema sedalaadi vigu, omistades nähtavatele seostele mingi põhjusliku tähenduse. Paraku kiputakse sama viga tegema mõnikord ka teaduslikes seletustes.
KORRELATSIOON GEOMEETRILISELT KUJUTATUNA
Korrelatsioonil on väga ilus geomeetriline – maamõõtjalik – interpretatsioon, mis aitab korrelatsiooni olemust selgemalt ette kujutada ja mis peamine, vältida vigu selle mõistmisel. Korrelatsiooni tõlgendamiseks on kasulik mõelda uuritavatest tunnustest kui vektoritest.
Kõik lugejad peaksid mäletama kooliõpiku ühte kõige lühemat definitsiooni, et vektor on suunatud sirglõik. Seega on vektor lõik, millel on suund ja pikkus. Kui me aga vaatame korraga kahte vektorit, siis muutub oluliseks ka nendevaheline nurk. Just see nurk ongi korrelatsiooni mõttes huvitav. Joonisel 3 on kujutatud vektorid erinevate omavaheliste nurkade (φ) korral. Kui kaks vektorit näitavad ühte suunda (nendevaheline nurk on väike või olematu), siis on lihtne mõelda, et need osutavad millelegi sarnasele (A). Kui kaks vektorit näitavad vastupidisesse suunda, siis on ilmne, et need viitatavad vastandlikele nähtustele (B). Kui vektorid aga ristuvad (nende vahel on täisnurk), siis näitavad need täiesti erinevaid ja üksteisest sõltumatuid asju (C).
JOONIS 3. Korrelatsioonid kui vektorid.
Tunnuste vektoritena kujutamine ei paku aga mitte üksnes seose visualiseerimise võimalust, vaid ka reaalse võimaluse korrelatsioonikordaja arvutamiseks. Nimelt on kahe vektori vaheline nurk ümber arvutatav nende sisuks olevate tunnuste korrelatsiooniks. Lihtsustatult öeldes on korrelatsioonikordaja võrdne nurga koosinusega.
Vaatleme kahte vektorit – a = (0, 1, 2, 3, 4) ja b = (0, 1, 2, 3, 4). Just kahte analoogset vektorit on kujutatud joonisel 3 vasakpoolses lahtris, ehkki ilma numbriteta. Pole keeruline märgata, et need on identsed muutujad, seega on mõistlik eeldada, et nende korrelatsioon on maksimaalne ehk 1. Vektoritevahelise nurga koosinuse arvutamiseks jagatakse vektorite skalaarkorrutis vektorite pikkuste korrutisega. Numbritega lahti kirjutatult tähendab see: koosinus (φ) = (0×0 + 1×1 + 2×2 + 3×3 + 4×4) / (02 + 12 + 22 + 32 + 42)½ × (02 + 12 + 22 + 32 + 42)½ = 1. Koosinusele 1 vastab nullkraadine nurk ehk just see, mis on joonise 3 vasakpoolses lahtris – kaks ühesuunalist vektorit. Kui me muudame ühe vektoritest vastassuunaliseks (korrutame läbi väärtusega –1, vt joonise 3 keskmist lahtrit), siis sama valemit kasutades saame korrelatsiooniks ootuspäraselt koosinus (φ) = –1. Kui ajame aga ühe vektoritest juhuslikult sassi, näiteks a = (1, 4, 0, 3, 2), siis peaksime saama absoluutväärtuselt oluliselt väikesema korrelatsiooni. Tõepoolest, eelnevat valemit kasutades saame sassiaetud vektori a korral vektorite a ja b vahelise nurga koosinuseks ehk tunnustevaheliseks korrelatsiooniks koosinus (φ) = 0,1. See koosinuse väärtus vastab 84˚sele nurgale, mis on üsna lähedal täisnurgale.
Lihtsustatud oli eelmises lõigus kirjutatu seepärast, et jättis mainimata ühe olulise eelduse: et vektoritevahelise nurga koosinus oleks võrdne nende aluseks olevate tunnuste korrelatsiooniga, peavad kahe vektori keskmised ja standardhälbed olema võrdeliselt seotud (kas päris võrdsed või erinedes mingi numbri võrra, mis on sama nii keskmistel kui standardhälvetel). Eelnevalt oli juttu sellest, et korrelatsiooni väärtus ei muutu, kui tunnuseid lineaarselt teisendada (nt korrutada läbi mingi konstandiga või liita mingi konstant). See tähendab, et kui me näiteks algse vektori a igale punktile liidame väärtuse 5 [a = (5, 6, 7, 8, 9)], siis korrelatsioon vektoriga b = (0, 1, 2, 3, 4) sellest ei muutu. Küll aga muutub vektoritevahelise nurga koosinus: eeltoodud valemit kasutades näeme, et koosinus (φ) = 0,91. See tähendab, et vektoritevaheline nurk on tundlik vektorite lineaarsete teisenduste suhtes. Seetõttu tuleks enne tunnustest moodustunud vektorite vahelise koosinuse arvutamist tunnused näiteks standardiseerida (viia kujule, kus nende keskmised ja standardhälbed on võrdsed). Muide, sisuliselt tehakse ju sedasama ka kovariatsioonist lähtuval viisil korrelatsioonikordajat arvutades (kovariatsioonikordajat hajuvuste korrutisega jagades). Mõnikord küll eelistatakse arvutada korrelatsioone standardiseerimata andmetelt, aga sellisel juhul pole tegu lineaarseid seoseid otsiva