296 - Les difficultés des élèves dans une évaluation de la culture scientifiques (PISA) peuvent elles être anticipées?

 Florence Le Hebel

IUFM Lyon 1-ICAR Ens Lyon/Lyon2

 

Pascale Montpied

CNRS - ICAR Ens Lyon/Lyon2

 

Andrée Tiberghien

CNRS - ICAR Ens Lyon/Lyon2

 

Mots clés : évaluation, culture scientifique, PISA, difficultés

 

Le programme d’évaluation PISA des élèves de 15 ans, réalisé tous les 3 ans par l’OCDE, est une enquête internationale dont le but n’est pas d’évaluer l’acquisition de connaissances fixées par les programmes scolaires, mais les savoirs et savoir-faire essentiels à la vie quotidienne pour mener une vie d’adulte autonome. Les tests portent sur la lecture, la culture mathématique et la culture scientifique. Ces enquêtes PISA permettent de fournir des sources d’informations pour comparer les systèmes scolaires mais aussi pour développer des analyses secondaires des résultats obtenus (e.g. Bybee et al., 2009). Les résultats de PISA Science 2006 pour la France montrent des scores relativement moyens sur l’échelle de la culture scientifique, et on observe en particulier une forte proportion (supérieure à la moyenne de l’OCDE) d’élèves en grande difficulté à un niveau 1 ou moins 1, signifiant que ces élèves sont incapables d’utiliser des connaissances scientifiques pour réaliser les tâches les plus faciles de PISA. Mais pour savoir précisément ce qui est effectivement évalué, nous devons comprendre ce qui rend une question difficile pour un élève. L’objectif de notre étude est d’identifier les facteurs influençant les niveaux de difficultés des questions PISA science 2006 donnés par les scores obtenus par les élèves à ces questions. En nous basant sur la littérature existante sur les différentes sources de difficultés (e.g. Fisher-Hoch et al, 1997; Webb; 1997, Ahmed and Pollitt, 1999), et nos précédentes études sur les analyses secondaires des résultats PISA science 2006 (Auteurs, 2013), nous proposons comme hypothèse, que la demande cognitive nécessaire pour donner une bonne réponse, la familiarité ou non du contexte de l’item, les difficultés de vocabulaire et les différentes stratégies de réponses possibles sont des facteurs qui peuvent influencer la difficulté d’une question. Nous avons recueilli des données (audio et/ou vidéo) auprès d’élèves (de bon niveau scolaire ou en difficulté) de seconde ou troisième dans le but d’analyser les processus de réponses à partir de productions orales et écrites lorsqu’ils répondent aux questions PISA que nous avons préalablement sélectionnées. Nos résultats confirment notre hypothèse de la diversité des difficultés rencontrées par les élèves lorsqu’ils répondent aux questions PISA et démontrent qu’établir de simples relations entre une réponse fausse et une absence de compétence peut conduire à une mauvaise interprétation des connaissances et/ou comportements des élèves à l’échelle individuelle ou plus large.

 

Références bibliographiques:

Ahmed, A. & Pollitt, A. (1999). Curriculum demands and question difficulty. Paper presented at the Annual Conference of the International Association for Educational Assessment. Slovenia. 

Authors, (2013). Which effective competencies do students use in PISA assessment of scientific literacy? in C. Bruguière, A. Tiberghien & P. Clément (Eds.), ESERA 2011 Selected Contributions. Topics and trends in current science education (sous presse). Springer.

Bybee, R., Fensham P., & Laurie R. (2009). Scientific Literacy and Contexts in PISA 2006 Science, Journal of Research in Science Teaching, 46, 862-864.

Fisher-Hoch, H., Hughes, S. & Bramley, T. (1997). What makes GCSE examination questions difficult? Outcomes of manipulating difficulty of GCSE questions. Paper presented at the British Educational research Association Annual Conference. University of York.

Webb, N. (1997). Criteria for Alignment of Expectations and Assessments on Mathematics and Science Education. Research Monograph No. 6. Washington, D.C.: CSSO.