Debat

PISA – ikke så ringe endda

Publiceret Senest opdateret

Bemærk

Denne artikel er flyttet fra en tidligere version af folkeskolen.dk, og det kan medføre nogle mangler i bl.a. layout, billeder og billedbeskæring, ligesom det desværre ikke har været teknisk muligt at overføre eventuelle kommentarer under artiklen.

Figur 1 – Sammenhæng mellem elevernes syv læseniveauer målt med PISA 2009-testen og to test i grundlæggende læseforudsætninger.

Jeg har ikke tidligere blandet mig i Svend Kreiners diskussion med bl.a. Ray Adams på ACER og Andreas Schleicher i OECD om skaleringen af items i PISA, da det er en meget teknisk debat, som forskellige statistikere har forskellige synspunkter på, og jeg er ikke statistiker, men psykolog med testkonstruktion i læsning som fagområde. Men Svend Kreiners seneste kronik i Politiken den 10. december har kaldt mig til tasterne. Når han skriver, at det systematisk er lykkedes for ”… PISA-forskerne at nedbryde respekten for folkeskolen og lærerne i Danmark”, så må jeg understrege, at der ingen nedvurdering er af lærernes indsats i de danske PISA-rapporter. I den henseende adskiller PISA sig ikke fra den gamle DPI-undersøgelse ”Tid til dansk”, som både han og jeg deltog i og lagde navn til. PISA beskriver ”systemer” og taler ikke om den enkelte lærer – men når eleverne selv i det omfattende elevspørgeskema fx fortæller om uro i klassen, og der er signifikant sammenhæng mellem graden af uro og elevernes resultater i de faglige prøver, så er det da en oplysning, der fortjener opmærksomhed.

Men tilbage til grundlaget. Svvend Kreiner fremfører, i sin argumentation for at testen ikke fungerer, at forskellige spørgsmål ikke er lige svære i forskellige lande, og at et lands placering i rækkefølgen vil afhænge af de typer af spørgsmål, som medtages i testen. Hvis der fx var flere ”reflektionsspørgsmål” med i testen, ville Danmark klare sig dårligere, mens hvis der var flere opgaver om at ”finde og anvende information”, så ville vi klare os bedre. Det undrer mig, at Svend Kreiner af alle ikke tager hensyn til, at der i læsning er tre forskellige færdighedsområder, som ikke behøver at passe ind på en samlet skala, men som alle tre bidrager til den samlede læsekompetence – lidt ligesom de forskellige delprøver i en intelligenstest er med til at belyse forskellige sider ved personligheden. Hvor stor vægt der lægges på hver af delkompetencerne i den samlede læsescore er klart beskrevet i rapporten: 25 % på ”Finde og uddrage”, 50 % på ”Sammenkæde og fortolke” og 25 % på ”Reflektere over og vurdere”. Denne fordeling er begrundet i teorier om læseforståelse. Hvis vi antager, at elevernes udbytte af skolen (også) hænger sammen med den undervisning, der foregår, så vil det jo give en forskel mellem lande, hvis man i et land lægger mere vægt på undervisning i selvstændige overvejelser og refleksioner over det læste end i et andet land, hvor man lægger vægten på gengivelse af det faktiske indhold. Det er da ikke uinteressant, og det er i øvrigt også en tendens vi ser i PIRLS.

Vær med i samtalen

Klik her for at indsende dit indlæg til folkeskolen.dk - medsend gerne et portrætfoto, som kan bringes sammen med indlægget

Vi har i konstruktionen af læsetesten i PISA dels haft fokus på at anvende autentiske tekster, som 15-årige kunne støde på i hverdagen eller i skolen, dels lagt vægt på at de spørgsmål, der blev stillet til teksterne, ikke gav utilsigtede ”gratispoint”. Opgaver, som med en særlig baggrundsviden kunne løses uden at læse teksten, blev skåret væk. Alle opgaver blev gennemtestet både sammen med elever, hvor man talte med dem om deres svar og deres begrundelse for svarene og siden i en mindre ’førtest’, inden de blev afprøvet internationalt. Her blev der afprøvet ca. dobbelt så mange tekster og opgaver som det, vi havde brug for til hovedundersøgelsen. På den baggrund blev de tekster og opgaver udvalgt, som fungerede bedst på tværs af landene. For alle spørgsmål, som fungerede forskelligt mellem landene, måtte vi se på, om der var tale om ”gratispoint”, eller om vi mente, at eleverne burde være i stand til at svare ud fra den givne tekst, uanset hvor ukendt emnet var. Hvis vi var i tvivl, blev opgaven taget ud, men hvis vi med overbevisning kunne sige, at dette både var relevant og muligt, så blev opgaven bevaret. Kun på den måde kunne vi gøre os forhåbning om at belyse en forskel, som bygger på forskelle imellem kulturer med en afsmitning fra det skolesystem, eleverne går i.

Hvis man, som Svend Kreiner siger, slet ikke kan bruge PISA til noget, er det så slet ikke læsning vi måler? I 2009 tog vi i Danmark to ekstra test med eleverne. Der var tale om to områder, som vi fra anden forskning ved hænger nøje sammen med læseforståelsen, nemlig ordafkodning og ordkendskab. Resultaterne fra disse to basale læsetest kunne vi så holde sammen med de enkelte elevers PISA-resultat i læsning, og vi finder da en klar, signifikant sammenhæng mellem elevernes resultat i de basale test og deres PISA-score (se fig. 1). Jeg er derfor helt tryg ved, at PISA giver os et godt fundament for en vurdering af elevernes læsefærdighed, set ud fra den beskrivelse der ligger af læsning, og at man godt kan bruge disse oplysninger i bestræbelserne på at gøre undervisningen endnu bedre. Så måske drejer det sig snarere om ikke at lukke øjnene for de informationer PISA tilbyder – men om at behandle dem med respekt for den sammenhæng, de er fremkommet i.

Jan Mejding er seniorforsker ved Institut for Uddannelse og Pædagogik (DPU) ved Aarhus Universitet, og har medvirket ved konstruktionen af PISAs læsetest. Desuden er han er den danske koordinator af den internationale læseundersøgelse af 4.-klasseelever, PIRLS, hvor han også sidder i den internationale ekspertgruppe.