231/2 - Construction d’évaluations de situations complexes avec des enseignants de SVT de collège

Michèle dell’Angelo

Maitre de conférences didactique des sciences, biologie & géologie, STEF - ENS de Cachan/ IFE ; Université Paris Est Créteil ; France

 

Maryline Coquidé

Professeure de didactique des sciences, STEF / IFE- ENS de Lyon / ENS de Cachan ; France

 

Mots clés : didactique des sciences, collège, compétences, investigation, élaboration et mises en œuvre d’évaluation, situation complexe, enseignants de SVT, étude de cas

 

Résumé : Les programmes de SVT au collège, en France, préconisent, outre l’introduction des compétences, celle de leur évaluation par des situations complexes. Nous nous appuyons sur les définitions, parfois complémentaires et parfois contradictoires, fournies par les chercheurs, de la notion de compétence, de situation, de tâche, et de famille de situations, pour envisager la compréhension que peuvent en avoir des enseignants (Roegiers, 2003). Nous montrons une difficulté des évaluations qui, d’une part peuvent avoir des finalités différentes suivant les professeurs (Issaieva, Pini & Crahay, 2011), d’autre part sont soumises à de nouvelles organisations (par exemple un canevas fourni par l’institution pour une évaluation de tâche complexe).

Notre recherche est une étude de cas, réalisée auprès de 4 enseignantes de SVT de 2 collèges. Elle vise à mieux comprendre leurs interrogations d’enseignants dans l’élaboration d’évaluations par situations complexes pour des classes de 6ème et de 3ème, à comparer leurs attentes et leurs exigences au travers des sujets qu’ils proposent et à préciser les compétences des élèves à ces différents niveaux. L’étude est centrée sur l’évaluation de la capacité à proposer un problème scientifique, émettre des hypothèses et proposer un protocole expérimental. Nous envisageons, entre autre, les utilisations de « coup de pouce », préconisées par les instructions officielles, et qui supposent un changement de posture des enseignants engagés dans une évaluation dynamique (Allal, 2002).

Les difficultés rencontrées par ces enseignants de SVT pour ces élaborations et mises en œuvre d’évaluation sont multiples. Elles touchent, par exemple, à une nécessité exprimée de notation, à l’imbrication des connaissances, capacités et attitudes, ainsi qu’à leur pondération dans une note. L’évaluation complexe leur apparaît uniquement en complément des évaluations « habituelles », possible seulement pour certains thèmes.

Les analyses de barème et de correction montrent, en outre, que ces enseignants envisagent une progression des élèves dans les capacités liées à l’investigation, principalement avec différents niveaux d’exigence des enseignants concernant des « mots à employer », des tournures de phrases ou des démarches.

 

 

Des réformes éducatives tendent, dans plusieurs pays à modifier le regard que les enseignants portent sur leur métier. Les modalités d’évaluation peuvent témoigner de ces changements. En France, dans l’enseignement des sciences de la vie et de la Terre (SVT), les objectifs étaient indiqués, en particulier pour les exercices dans les manuels : Ra (raisonner), Id (identifier), C (communiquer), I (s’informer), Re (réaliser). Il n’est pas certain que cette désignation ait facilité le passage à une évaluation des compétences. Nous proposons de mieux comprendre les défis que représentent la mise en place des situations complexes en SVT et en particulier celui de leur évaluation. Nous présentons ensuite une étude de cas, réalisée auprès de 4 enseignantes de SVT de 2 collèges, visant à témoigner des difficultés rencontrées pour l’évaluation de la capacité à mettre en œuvre une démarche d’investigation (proposer un problème scientifique, émettre des hypothèses et produire un protocole expérimental). Nous rendons compte aussi des résultats des élèves dans ces 2 collèges.

1. Les situations complexes en SVT

Une nécessité de réformer les façons d’enseigner les sciences, visant à mieux préparer les jeunes à la compétition mondiale pour le travail et à rendre les études scientifiques plus attractives, est une préoccupation internationale de longue date (Fensham, 2002 ; Jenkins, 2006).

Des évaluations internationales, telle PISA de l’OCDE, TIMSS et PIRLS de l’IEA, ont été mises en œuvre. Si ces évaluations sont critiquables (Goldstein, 2008; Rochex, 2008), par le choix des contenus (PISA davantage orientée vers une culture anglophone, pour des élèves habitués aux questionnaires à choix multiples), par l’échantillonnage des élèves (en fonction de l’âge et non de la classe), par les modalités d’analyse (écart de certains Items jugés culturellement biaisés), elles ont incité les responsables à impulser certains changements dans le système éducatif. L’évaluation PISA pour la culture scientifique, en 2006 et 2009, fait ainsi ressortir une forte proportion d’élèves faibles en France (un élève sur cinq en moyenne n’atteint pas le niveau 2 en culture scientifique), avec un grand écart de performance entre les questions portant sur un raisonnement scientifique et les questions portant sur une restitution de connaissances (Coppens, 2009, 2012). Les élèves français de 15 ans montrent de grandes difficultés pour restituer des connaissances scientifiques, notamment lorsque les situations d’évaluation ne correspondent pas à une seule discipline scolaire affichée (physique-chimie, sciences de la vie et de la Terre ou technologie), alors qu’ils se situent dans la moyenne pour « Identifier des questions scientifiques », ou au dessus pour « utiliser des faits scientifiques et produire des conclusions à partir de données ».

Une forme de réponse au nombre important d’élèves en difficultés en France fut l’introduction, en 2006, du socle commun de connaissances et de compétences[1]. Celui-ci est présenté comme « tout ce qu’il est indispensable de maîtriser à la fin de la scolarité obligatoire ». Défini autour de sept grandes compétences conçues comme une combinaison de connaissances, de capacités et d'attitudes à mettre en œuvre dans des situations concrètes, ce socle s’accompagne d’un « livret individuel de compétences » pour la validation. Avec pour visée de faciliter un réinvestissement de connaissances d’une discipline scientifique à l’autre, des « thèmes de convergence » sont proposés en 2006. Une autre réponse institutionnelle fut l’introduction de recommandations concernant la mise en œuvre d’une démarche pédagogique dite « d’investigation » pour toutes les disciplines d’enseignement scientifique. Cependant les objectifs disciplinaires diffèrent quant au statut de l’investigation et l'expérimentation ne présente  pas les mêmes enjeux. Ainsi, en  physique/chimie la production de savoirs a pour objectifs d'élaborer des lois universelles pour rendre le monde intelligible et de faire émerger des vocations scientifiques telles que des techniciens, des ingénieurs[...](MEN, 2008, p.10). En SVT, l’enjeu est de comprendre le monde, expliquer le réel par l'observation de phénomènes, par des manipulations et des expérimentations […] développer un comportement citoyen responsable vis-à-vis de l'environnement et de la vie [...] afin de développer une démarche ouverte et critique [...]. (MEN, 2008, p.9).

Ces recommandations institutionnelles ne semblent pas perceptibles dans les résultats de PISA en 2009. Certaines études en attribuent la cause aux difficultés rencontrées par les enseignants : manque de temps, d’expérience et de formation (Ratcliffe et Millar, 2009 ; Mathé & Meheut et De Hosson. 2008 ; Fontaine et Dell’Angelo-Sauvage, 2012).

D’autres études pointent des difficultés en relation avec la polysémie du terme compétence. Certains enseignants et chercheurs envisagent des capacités personnelles : « Savoir-faire permettant une mise en œuvre immédiate à partir d'un répertoire de gestes disponibles » (Hameline, 1979, p. 116). D’autres chercheurs, comme Bruner (1983, p. 255), pointent des performances : « Un système de connaissances, conceptuelles et procédurales, organisées en schémas opératoires et qui permettent, à l’intérieur d’une famille de situations, l'identification d'une tâche-problème et sa résolution par une action efficace ». D’autres encore lient le concept de compétence à une fonction. Pour Perrenoud (1995), « une compétence permet de faire face à une situation singulière et complexe, à "inventer", à construire, une réponse adaptée sans la puiser dans un répertoire de réponses préprogrammées ». (Perrenoud, 1995, p.13). Tandis que Rey (1996) distingue« compétence-comportement » et « compétence-fonction »[2].

Gillet, en 1991, considérait un lien compétence - tâche, croisé avec la notion de situation. « On peut dire qu'il y a une situation quand, en fonction d’un enjeu qu'il y introduit, un sujet actif peut, dans un réseau d’événements, saisir des données qu'il organisera en représentation cohérente, lui permettant de développer la représentation d'une tâche. » En 2006, Rey et al  renforcent cette relation, en définissant la compétence comme « disposition à une tâche ayant un sens dans l’univers humain[3] ». Tâche est envisagée ici au sens commun, d’activité finalisée, choisie ou imposée, pouvant être détaillée en tâches partielles. Ils précisent la distinction entre un enseignement par objectifs et par compétences. Dans le premier, l’objectif peut être décomposé en objectifs élémentaires conduisant à faire « travailler les élèves sur des opérations trop partielles pour qu’elles aient du sens à leurs yeux ». Dans le second, les activités doivent être suffisamment globales pour avoir « du sens dans l’univers humain ». En 1999, Roegiers proposait un résumé de cinq caractéristiques d’une compétence, et soulignait les différences entre capacité et compétence :

1) Mobilisation d'un ensemble de ressources : aussi bien des connaissances, savoirs d’expérience, schèmes, automatismes, capacités

2) Caractère finalisée : porteuse de sens pour l’élève par une production, une action, une résolution de problème.

3) Lien à une famille de situations : la capacité peut se développer pour une grande variété de contenus (ex : résoudre un problème) mais la compétence est liée à une famille de situation (ex : résoudre un problème en physique) 

4) Caractère souvent disciplinaire : les capacités ont un caractère transversal tandis que la compétence liée à une catégorie de situations, est souvent disciplinaire. Il y a cependant des compétences transdisciplinaires voir "adisciplinaire", (conduire une voiture en ville).

5) Évaluabilité : une capacité n'est pas évaluable mais une compétence l’est « puisqu'elle peut se mesure à la qualité de l'exécution de la tâche, et à la qualité du résultat ».

Il distinguait aussi connaissances et compétences. Les compétences ne pouvaient se passer des connaissances mais toutes les connaissances ne pouvaient être acquises par l’étude de situations (pour ne pas avoir un enseignement uniquement utilitariste ou professionnalisant).

Certaines de ces positions sont contestées, en particulier par ceux qui défendent l’idée que toutes les compétences sont transversales et réfutent l’idée de familles de situation (Crahay, 2006 ; Rey et al, 2003). Au lieu de décrire, comme Roegiers, une capacité se déclinant en différentes compétences suivant les contextes et évoluant au cours du temps, ils considèrent des compétences transformées dans différentes disciplines. Perrenoud (1997) y voit le reflet de « la tension entre ceux qui veulent transmettre la culture et les connaissances pour elles-mêmes et ceux qui veulent (…) les lier très vite à des pratiques sociales. »[4] Avec une perspective de psychologie cognitive, Allal (2002) s’interroge sur « l’intersection entre les familles de situations » et soutient que « des capacités générales se construisent à travers des re spécifications successives de certaines opérations mentales ou de certaines conduites sociales dans des contextes divers[5] ». Elle s’appuie sur les travaux entrant dans le cadre de la cognition située pour envisager une compétence comme un « réseau intégré et fonctionnel constitué de composantes cognitives, affectives, sociales, sensorimotrices, susceptibles d’être mobilisé en actions finalisées face à une famille de situations [6]». Elle introduit ainsi des composantes particulièrement importantes en biologie.

Au niveau des programmes français, une position institutionnelle est affirmée. Dès le préambule du « socle commun »[7] on lit : « Maîtriser le socle commun, c’est être capable de mobiliser ses acquis dans des tâches et des situations complexes, à l’école puis dans la vie ».

Gérard, en 2008, distingue bien les situations compliquées, mettant en jeu des savoirs faire nouveaux, peu connus de celui qui la résout ou bien moins maîtrisés, des situations complexes, avec plus de savoirs et de savoirs faire à mobiliser, plus d’articulations entre les opérations à exécuter, des éléments connus mais travaillés dans un autre contexte, dans un autre ordre ou séparément. Le « vade-mecum », proposé en  janvier 2011 va dans ce sens, en précisant que ce n’est pas nécessairement une tâche compliquée, mais elle fait appel à « une combinaison de plusieurs procédures simples, automatisées, connues. Elle nécessite l’élaboration par l’élève d’une stratégie (et non pas de la stratégie experte attendue) et fait appel à plusieurs ressources.[8] ». Les programmes décrivent les compétences comme des connaissances et des capacités à faire acquérir. Dans le document « la mise en œuvre du socle et l’évolution d’une discipline, les sciences de la vie et de la Terre [9]», un certain nombre de caractéristiques des tâches complexes, sont pointées :

- un investissement de l'élève dans le choix,  la  sélection  des  tâches  simples  à  mettre  en  œuvre

- trois  objectifs : mettre  les  élèves  en situation d’investigation, leur faire acquérir de nouvelles connaissances, leur faire acquérir des capacités et/ou des attitudes.

Mais c’est surtout ce qu’il faut éviter qui est décrit :

- pas de situations  fermées  et  guidées,  soit  oralement  soit  par  des  fiches d’activités

- pas de démarche prédéfinie et imposée par une succession de consignes ou de questions simples

- pas de situations  problèmes  servant de prétextes  au  lieu  de  servir  de  fil  directeur  pour l’investigation

D’un point de vue étude de progressivité, nous avons présenté auparavant celle des attentes sur l’acquisition de compétences relatives à l’investigation dans le document « aide au suivi de l’acquisition des connaissances et des capacités »[10] (publié pour les SVT sur Éduscol), et la difficulté à la mettre en œuvre même par des experts (Dell’Angelo – Sauvage, 2012). Par exemple, pour une compétence « émettre une hypothèse » l’élève de 6ème a à  « choisir dans une liste d’hypothèse, celui de 5ème et 4ème à « participer au choix d’une hypothèse » et celui de 3ème, à « formuler une hypothèse » et cela dans le cadre d’une démarche d’investigation. Rey et al. (2006) ont proposé  trois « degrés » de compétences[11] :

- un premier correspond à « savoir exécuter une action en réponse à un signal préétabli, après entrainement ». Ce degré correspond à des actes préétablis, des réponses standardisées, sans confrontation à une situation nouvelle. Ce ne sont pas de « vrai » compétences disent les auteurs.

- un deuxième à « savoir choisir, parmi les procédures qu’on connait, celle qui convient à une situation ou à une tâche non connue. »

- un troisième à : « savoir, parmi les procédures qu’on connait, choisir et combiner celles qui conviennent à une situation ou à une tâche non connue et complexe. »

Ces degrés sont relatifs à un individu nous disent les auteurs, mais l’étude des référentiels de compétences de différents pays dont la France, montre que ce qui est visé correspond systématiquement au 3ème niveau, celui des tâches complexes. Notre étude des programmes (annexe 1) aboutit à un constat similaire.

2. L’évaluation de situations complexes

Une première difficulté est de situer ces évaluations à partir de situations complexes, et par rapport aux évaluations traditionnelles : diagnostique, formative, formatrice et sommative, dont les fonctions sont « l'assistance directe à l'apprentissage, la certification individuelle de chaque élève et la responsabilité des institutions et des enseignants par rapport à la société » (Black, 1995) 

Rey et al (2006) nous fournissent un « modèle d’évaluation des compétences complexes » ou de troisième degré telles que définies ci-dessus, qui puisse être aussi bien diagnostique que formative ou sommative. Ce modèle se décline en trois phases. Dans la première, c’est une tâche complexe qui est proposée, définie comme exigeant « la mobilisation d’un nombre significatif de procédures et d’éléments de savoir que les élèves considérés sont censés posséder. ». Cette tâche doit être pluridisciplinaire, fonctionnelle (à but pratique), découpée en plusieurs sous tâches. (Elle s’apparente à une résolution de problème). Dans la deuxième phase la même tâche est proposée mais décomposée en sous tâches renvoyant à des procédures élémentaires. Dans la troisième, sont donnés des exercices « concernant la procédure nécessaire à l’accomplissement des phases 1 et 2 ».

Ces modalités d’évaluation ne correspondent cependant pas aux situations complexes présentées par les instructions officielles françaises : dans la polyvalence imposée (nous pouvons avoir des enjeux liés seulement aux SVT), dans la fonctionnalité (les situations en France ne se limitent pas à celles que l’élèves rencontrent dans sa vie courante), ni dans la forme. Elles permettent néanmoins d’envisager une progression dans l’acquisition d’une compétence complexe, en mettant à la disposition de l’enseignant des tests pour cerner les éléments acquis ou non acquis pour la réalisation de la tâche, déconnectant la maîtrise de connaissances, de procédures (3ème degré) et la capacité plus ou moins grande à les choisir à bon escient (2ème ou 1er degré).  Les phases 2 ou 3 constituent des aides, fournies à l’élève, qui s’apparentent aux « coup de pouce » prévus dans les programmes français. Allal (2002) rapproche cette collaboration, entre l’élève et l’enseignant, des méthodes d’appréciation dynamique centrées sur les capacités et les compétences émergentes de l’apprenant et qui se réfèrent aux recherches de Vygotsky concernant la zone proximale de développement. L’intervention de l’enseignant par des « questions qui orientent, des suggestions d’actions possibles, des démonstrations de solutions partielles » constitue une « régulation interactive » et modifie la situation d’évaluation formative en visant une « transformation sur le vif », une construction de compétences. Parallèlement, les sollicitations des élèves peuvent être  supports d’évaluation diagnostique pour le maître. Dans le prolongement de ces études, Dionne et Laurier (2010) ont proposé des situations comparables à celles de Rey et al. (2003) au second degré inférieur au Québec[12] dans le cas  d’évaluation certificative[13]. Elles montrent que lorsque les élèves ne sont pas au stade 1 « maitrise de la compétence », ils rendent des pages blanches qui ne permettent pas de savoir où ils en sont. En leur offrant des aides du stade 3, l’enseignant peut avoir une information sur le développement de leur compétence.

Dans le même esprit, de nombreux auteurs discutent des conditions de validité des évaluations. Pour Perrenoud, il faut que les ressources à mobiliser soient maîtrisées ou disponibles, que les situations soient de même niveau de complexité que celles déjà rencontrées. Gérard (2008) ajoute les nécessités d’avoir du sens pour les élèves, de pouvoir être réalisée en temps limité, de comporter une consigne « suffisamment contraignante tout en leur laissant des marges de créativité, en ne disant pas tout ce qui doit être fait et comment mais en guidant suffisamment ». Allal, de son côté, pointe des éléments qui sont rarement pris en compte, telles  les « composantes affectives, sociales ou sensorimotrices de la compétence visée[14] ».

Les critères d’évaluation sont interrogés. Le travail de Dionne et Laurier (2010, p.94) s’appuie pour les « critères de notation pour la correction » sur les composantes d’une démarche d’investigation décrite dans les programmes québécois. L’étude, des programmes français[15] au collège et des documents d’accompagnement, fait apparaitre des critères analogues malgré une rédaction différente. Avec Gérard (2008, p.176), on aurait à questionner leur pertinence par rapport à une compétence donnée (cela semble le cas au vu de leur relation directe avec la mise en œuvre d’une démarche d’investigation), s’ils sont indépendants (ce qui semble plus compliqué car si le problème est mal identifié, les hypothèses peuvent être inadaptées), s’ils sont pondérés avec des critères minimaux et « de perfectionnement » (non indispensables) et peu nombreux (cela n’apparait pas dans la recherche québécoise mais figure implicitement dans les documents d’accompagnement français (cf tableau 1). En 4ème par exemple, si l’élève propose plusieurs hypothèses au lieu d’une, il dépasse les critères minimaux).

Tableau 1 : extrait du vade-mecum 2009, Culture scientifique et technologique, p.10

CAPACITÉS

PALIER DE FIN DE CYCLE D’ADAPTATION

[classe de sixième]

PALIER DE FIN DE CYCLE CENTRAL

[classe de quatrième]

PALIER DE FIN DE CYCLE

D’ORIENTATION

[classe de troisième]

Émettre une

hypothèse.

L’élève choisit dans une liste une hypothèse ou une conjoncture au problème préalablement posé.

L’élève propose une hypothèse qui correspond au problème clairement posé.

L’élève propose une ou

plusieurs hypothèses, formule une conjoncture qui répond à la situation identifiée.

La liste des critères et sa pondération dépend, en définitive, des objectifs et des positions des enseignants face à l’évaluation. Peu de recherches portent sur les visées que les enseignants donnent à l’évaluation. Bain (2002) constate que les enjeux des professeurs interfèrent dans leurs évaluations. Pour certains, évaluer c’est vérifier les apprentissages, pour d’autres c’est réguler son enseignement ou encore orienter. Il montre que les évaluations complexes représentent une rupture épistémologique, pédagogique et  idéologique. Leur introduction devrait être accompagnée d’une formation des enseignants, visant à augmenter leurs connaissances (pour favoriser une forme de « polyvalence ») et à redéfinir des objectifs et des enjeux.. Il semble que si une majorité d’enseignants distingue évaluation formative et certificative, ils accordent surtout une valeur normative à certifier qui revient à estimer les performances des élèves, non en fonction d’un critère ou d’un objectif, mais en fonction des autres élèves (Issaieva et Crahay, 2010 ; Crahay, 2007 ; Cardinet, 1989), surtout au niveau secondaire[16].

Avec une autre approche, Vial (2012) propose trois modèles conceptuels de l’évaluation « portés par les sujets ». Certains sujets envisagent « l’évaluation des produits », fondée sur la mesure (des effets, des impacts, des comparaisons de bilan), leur communication est fondée sur la docimologie ; d’autres ciblent surtout « l’évaluation des procédures », des objectifs et des compétences ; d’autres encore privilégient « l’évaluation des processus », pour l’intelligibilité de ce qu’on fait, en situation.

3. Une collaboration chercheuse – enseignants : la construction d’évaluations complexes

3.1 Les visées générales de la collaboration

Nous avons commenté auparavant  la complexité de la compréhension du concept de compétence, les débats encore en cours sur la question des familles de situation et les choix qui ont été faits par l’éducation nationale : privilégier le travail sur des situations complexes lorsque c’est possible et introduire les « coups de pouce », aides apportées par l’enseignant qui modifient sa relation avec l’élève au moment de l’évaluation, en particulier sommative. Notre question de recherche a été : Comment des enseignants de collège s’emparent-il des nouvelles instructions officielles sur l’utilisation de situations complexes pour l’acquisition des compétences liées à l’investigation ? Face aux difficultés pointées par différentes recherches dans l’élaboration d’évaluations complexes, nous nous sommes interrogées sur la construction de telles évaluations par des enseignantes munies des seules directives officielles.

Quelles difficultés rencontrent des enseignants pour construire des évaluations complexes ? Retrouve-t-on les éléments considérés comme importants dans les recherches ? Constate-t-on une diversité dans les résultats, de nature à modifier la formation des élèves ?

Nous avons travaillé dans deux collèges de Seine et Marne, l’un situé en zone d’éducation prioritaire, l’autre dans une zone où les origines sociales sont mixtes. Des rencontres régulières ont eu lieu entre le chercheur et les deux enseignantes de chaque collège. Les professeurs des deux établissements ne se sont rencontrés qu’à la fin de l’étude. Nous proposons ici de présenter les éléments ressortant d’un certain nombre d’échanges sur la démarche d’investigation et sur la notion de compétence, pour comprendre la façon de les envisager par différentes enseignantes. Nous relatons les difficultés rencontrées lors de l’élaboration d’évaluations complexes par chaque équipe de deux enseignantes en présence du chercheur. Nous analysons les évaluations produites et les principaux résultats des élèves de chaque collège.

3.2 L’élaboration d’évaluations

3.2.1 Les difficultés à évaluer des compétences

Les enseignantes pointent des difficultés du quotidien. Ainsi, l’une d’elles travaille en 6ème dans une équipe de professeurs qui ont choisi d’utiliser le logiciel Scolatix (il présente un répertoire de compétences à évaluer, disciplinaires et transversales). Les élèves n’ont alors pas de notes mais des « ronds de couleur » (non acquis rouge, en cours d’acquisition orange, acquis vert, et en mode expert bleu). Ils ont un code d’accès pour le logiciel et peuvent retrouver leurs évaluations dans toutes les disciplines. L’enseignante leur a donné une grille, avec les compétences travaillées uniquement en SVT, où ils reportent ces petits ronds. A la fin de la séquence, les élèves ont un seul rond « connaissance » et divers ronds « capacités et attitudes ». Ils accordent une même importance à chaque « rond » (si j’ai 1 rond rouge mais 4 verts, tout va bien…) mais pas l’enseignant qui, lui, envisage une hiérarchie. Par exemple, si le rond rouge est pour « connaissances » ou pour « classer les informations dans une liste », les conséquences risquent de ne pas être les mêmes pour le passage en classe supérieure.

L’imprécision dans la définition des compétences est souvent commentée. Par exemple :

« Rechercher des informations, on l’a beaucoup travaillé et j’aimerai bien séparer en : rechercher dans un texte, une image, un tableau, un graphique, parce que ce n’est pas du tout la même démarche pour leur apprendre à rechercher l’information. En 5ème, j’ai testé à partir d’un texte ils ont eu vert presque tout de suite, mais ça a été difficile pour eux d’avoir vert à partir d’un graphique ». On retrouve aussi l’évocation d’un risque d’émiettement, pointé par des recherches, mais aussi le désir de ne pas leurrer les élèves et leurs familles.

Le retour aux notes relève ensuite du « bricolage ». Par exemple, les évaluations des capacités sont sous forme de codage en 6ème (non acquis, à renforcer, acquis ou expert), sous forme de notes en 3ème.

capacité évaluée

non acquis

à renforcer

acquis

expert

 

s’informer, raisonner et argumenter

 

 

 

 

 

 

0

5

10

15

20

             

«  On fait 2, 3 fois, puis on valide avec des activités différentes ».  « S’ils se sont entrainés 3 ou 4 fois, j’estime que ça devrait être acquis, je vais mettre la note ». « J’utilise des couleurs mais je garde la note chiffrée ».

3.2.2 Le choix des thèmes

Les grands thèmes des programmes sont rappelés dans le tableau 2 et les sujets choisis dans le tableau 3.

Tableau 2 : les thèmes des programmes 2008 en 6ème et 3ème (encore appliqués en 2013-2014)

CLASSE DE SIXIÈME

CLASSE DE TROISIÈME

Caractéristiques de l’environnement proche et répartition des êtres vivants (10%)

Le peuplement d’un milieu (30%)

Origine de la matière des êtres vivants (25%)

Des pratiques au service de l’alimentation humaine (20%)

Partie transversale : diversité, parentés et unité des êtres vivants (15%)

Diversité et unité des êtres humains (30%)

Évolution des êtres vivants et histoire de la Terre (20%)

Risque infectieux et protection de l'organisme (25%)

Responsabilité humaine en matière de santé et d’environnement (25%)

Tableau 3 : sujets choisis dans les collèges aux différents niveaux

CLASSE DE SIXIÈME

CLASSE DE TROISIÈME

collège 1 : culture du vanillier

collège 2 : colonisation des milieux par les Mousses

collège 1 : Antibiogramme

collège 2 : Les micro-organismes dans l’alimentation

Sans concertation, les enseignants des deux collèges ont pensé que les seuls thèmes possibles étaient « le peuplement d’un milieu » en 6ème et « le risque infectieux et la protection de l'organisme » en 3ème. Les sujets proposés diffèrent pourtant beaucoup.

3.2.3 La forme des sujets

Les enseignants disposaient de la matrice fournie sur le site Éduscol : « banque de situation d’apprentissage et d’évaluation pour la compétence 3[17]» (annexe 2).

Dans les deux établissements, cette matrice était nouvelle. Le fait de compléter les tableaux relatifs à la grille de référence et au programme de la classe a nécessité du temps. La mise en relation des capacités à évaluer et des indices de réussite a donné lieu à des discussions entre les enseignants et a permis de préparer les réponses attendues. Cependant, ils ont été considérés surtout comme fastidieux.

La comparaison des sujets proposés pour l’évaluation fait apparaître des différences, dans les enjeux et dans le type de documents proposés (Annexes 3 à 6). Pour l’établissement 1 (C1 : élèves de tout milieu) l’enjeu d’évaluation des capacités relatives à la démarche d’investigation n’est pas dissociable de l’évaluation de connaissances. Il est donc proposé deux types de questions : celles portant sur la rédaction d’hypothèses et d’un protocole et celles visant à vérifier des connaissances. Le problème est directement annoncé. Pour l’établissement 2 (C2 : ZEP) seules les capacités sont visées, même si elles ne peuvent pas être totalement dissociées des connaissances. Le problème doit être reformulé par les élèves.

Le nombre de documents et leur forme change aussi beaucoup : uniquement des photos au collège C2 et une variété avec des photos, schémas, textes courts au collège C1.

Les aides ou « coup de pouce » ont pris des formes proches sur le sujet. Lélève disposait ainsi, à chaque fois, d’un tableau indiquant sur quelles questions il pouvait demander un coup de pouce, combien de coup de pouce il pouvait demander (souvent possibilité de plusieurs pour la même question) et combien de points ça lui retirerait sur la question. Il n’apparaissait pas le type de coup de pouce dont il s’agissait : connaissances ou méthode. Il n’y a eu, de fait, que des propositions d’aides sur la méthode, à l’exception d’une  information sous forme de deux observations microscopiques dans l’établissement C2 (annexe 7 et 8).

3.2.4  Les barèmes

Les barèmes choisis reflètent des attentes différentes suivant les niveaux scolaires et les établissements. Dans le collège C1, les éléments de la démarche sont évalués sur moins de points puisque le barème considère aussi des connaissances restituées (tableaux 4 et 5).

Tableau 4 : les attentes des enseignants des 2 collèges en 6ème

En 6ème des exigences

collège C1

collège C2

sur certains mots

« on suppose » pour rédiger l’hypothèse

« on suppose » pour rédiger l’hypothèse

« je pense que…; » 2pts

sur la forme

protocole « J’ai présenté chaque étape sur une ligne et en commençant par un tiret » (0,5pt)

« étapes dans l’ordre  (0,5pt)

« Forme interrogative de la phrase réponse » (1pt)

protocole « étapes dans l’ordre  (1,5) « Lister le matériel » (2 pts)

sur le fond

différentes hypothèses sont admises (valide ou non) et les protocoles en rapport sont prévus.

valorise la qualité: « Hypothèse qui peut être testée, validée », « Hypothèse en lien avec le problème » « protocole en relation avec le problème et l’hypothèse »

Tableau 5 : les attentes des enseignants des 2 collèges en 3ème

En 3ème des exigences

Collège C 1

collège C2

sur certains mots

« je pense que…; », « je suppose que… » « j’ai l’idée que, peut-être que… » (0,5pt)

« je pense que…; », « je suppose que… » une phrase au conditionnel (1pt)

sur la forme

forme interrogative du problème (0,5 pt), sur le protocole l’ordre des étapes est attendu (1pt)

forme interrogative du problème (1pt), sur le protocole l’ordre des étapes est attendu (2pts)

Lister le matériel (2pts) et  les étapes (2pts).

sur le fond

différentes hypothèses sont admises (valide ou non)

valorise la qualité (cf 6ème)

 L’évaluation élaborée par les enseignants du collège C1 s’appuie beaucoup sur la mise en œuvre d’un raisonnement hypothético déductif à partir des documents qui suggèrent le protocole. Celle élaborée par les enseignants du  collège C2 s’appuie sur des situations analogues à celles vécues en classe et cherche à estimer si les élèves vont les reproduire.

4. Retour sur les évaluations des élèves

Les élèves de plusieurs classes de 6ème et 3ème des deux collèges (C1 et C2) ayant composé sur les deux sujets, nous pouvons comparer leurs résultats et envisager les changements entre les deux niveaux scolaires ainsi qu’un impact des pratiques enseignantes. Le tableau 6 récapitule le nombre d’évaluations étudiées (il a peu d’écart entre le nombre de filles et de garçons).

Tableau 6 : nombre d’évaluations analysées

sujet /nb d’élèves

C1

C2

Total

6ème C1 : reproduction du vanillier

42

104

146

6ème C2 : colonisation par les mousses

61

104

165

3ème C1 : test virus ou bactérie

73

91

164

3ème C2 : yaourt périmé et maladie

73

70

143

Nous avons choisi de présenter les observations réalisées par « moment » d’une démarche d’investigation.

La formulation d’un problème n’est demandée en 6ème que dans le sujet élaboré par équipe de C2. À peine plus de la moitié des élèves qui répondent parviennent à poser une question centrée sur le sujet attendu « Comment se reproduisent les mousses ? » ou « Comment les mousses arrivent-elles dans un nouveau milieu ? ». En 3ème, on observe des différences suivant les sujets et suivant le collège. Le sujet élaboré par équipe de C2 aboutit à près de 90% de réponses dont 51% sont des problèmes en relation avec le sujet. Les élèves du collège C 2 avancent des questions principalement du type « comment » (« comment se fait-il qu'il soit tombé malade après avoir mangé un yaourt ? »). Ceux du collège C1 utilisent majoritairement « quel ou qu’est-ce que » (19%) et « « est-ce que » (13%) (« Quels micro-organismes ont pénétré l'organisme et d'où ils viennent ?», « quel ingrédient, composant du yaourt a pu le rendre malade? », « est-ce que le yaourt périmé l'a rendu malade? »).

Le sujet élaboré par équipe de C1 a 73% de réponses, dont 15% pouvant être évalués comme proposition de problèmes et surtout des questions sans adverbe (« Ont-ils la même maladie ?», « La maladie est due à une bactérie ou un virus ? »).

D’une façon générale, beaucoup d’élèves se contentent d’affirmer, confondant problème et hypothèse (« le médecin s'est demandé si les 2 patients sont infectés par la même bactérie »). les attentes des enseignants transparaissent dans les réponses, mieux formulées dans le collège 2 où il y a plus d’exigences sur ce plan.

La formulation d’hypothèses semble montrer une forme de progression des élèves, de la 6ème à la 3ème. En 6ème, sur le sujet de C1 l’attente était : « On suppose qu’il faut un insecte pour qu’il y ait un fruit ». Les réponses des élèves sont diverses, 70% étant recevables (« la languette empêche la fécondation », « à cause du climat »,  « Pas assez de vent »...). Sur le sujet de C2, la réponse attendue était : « Je suppose que les mousses ont des spores » ou « Je suppose que des morceaux de mousse se sont cassés et ont redonné des mousses entières », en référence aux différents modes de reproduction étudiés. 80% des élèves répondent mais seulement 25% proposent une hypothèse en lien avec le problème.

En 3ème, 70 à 80% des élèves répondent. Parmi eux environ 50% émettent des hypothèses en rapport avec le sujet. Pour le sujet de C2, 85% des réponses sont sous forme d’une affirmation. Pour le sujet de C1, plus de la moitié utilisent des expressions telles « je suppose que » ou « je pense que ». On peut envisager, là encore, un impact dans les réponses des élèves, des attentes des enseignantes.

La rédaction d’un protocole apparaît comme une étape difficile.  En 6ème, environ 75% des élèves ont répondu mais environ 30% seulement proposent une situation en relation avec le problème et l’hypothèse. Souvent, il n’y a pas une succession d’étapes. En 3ème, 60 à 70% des élèves proposent une situation en lien avec le problème et l'hypothèse. Parmi eux, 15 à 20 % citent des étapes dans l’ordre, certains ayant reçu une aide incitant à le faire. On peut constater, globalement, une meilleure maîtrise de ce moment en 3ème.

Les coups de pouce étaient donnés à la demande de l’élève. C’est surtout au moment de rédiger les protocoles que ceux-ci ont été sollicités (annexe x). Les classes du collège C2 les ont beaucoup plus demandées. Une hypothèse est que le collège C2 se situant dans une ZEP les élèves sont peut-être plus accoutumés à recevoir des aides ou à les demander, ce sont peut-être aussi les enseignantes qui les y ont incités davantage. Sans bien évidement visée de généralisation, il a été constaté que les garçons les demandent souvent plus que les filles.

 Les 4 enseignantes utilisaient aussi cette technique de « proposition d’aides » pour la première fois. Dans le collège C2 elles ont estimé que c’était un système efficace mais avec deux catégories d’élèves : ceux qui sont bloqués (par exemple sur le protocole) et ne veulent pas l’aide, et ceux qui la demandent avant toute réflexion personnelle. Elles supposent une relation avec un manque d’habitude des élèves. Dans le collège C1, les élèves de  3ème en particulier se montrent moins « demandeurs de coup de pouce ».

Discussion et conclusion

La confrontation des évaluations élaborées par les enseignants aux conditions de validité énoncées par les chercheurs fait ressortir des points forts, des manques et des interrogations. Les évaluations construites dans  chaque collège ont reproduit des situations déjà rencontrées en classe, il est difficile de savoir avec quelle proximité et à quelle fréquence. Dans chaque cas, il y a bien des pratiques quotidiennes sous-jacentes donnant du sens pour les élèves. Mais des adolescents se sentent-ils réellement concernés par la production de vanille, l’envahissement des jardins par des plantes parasites, les causes de péremption des yaourts ou bien l’interprétation d’un test médical ? Aurait-on pu croiser davantage leurs préoccupations ?

Les ressources proposées sont bien en adéquation avec ce que les élèves rencontrent durant l’année de 6ème ou de 3ème, mais les enseignantes ont indiqué n’avoir pas introduit toutes les ressources utilisées par l’autre collège. Le protocole de cette étude, consistant à croiser les évaluations en faisant composer les élèves d’un collège sur l’évaluation élaborée par  l’autre, n’est pourtant pas remis en cause. Il montre des écarts liés aux pratiques des enseignants, à ce "curriculum produit" inféré par les chercheurs (Martinand, 2012).

La guidance doit être «  suffisante » mais « pas trop contraignante ». Ici, elle était pilotée par les moments d’une démarche d’investigation, pouvant être renforcée par des « coups de pouce ». On constate cependant que sur les vingt et une « aides » élaborées et proposées au total, une seule (en 6ème) concerne des connaissances (C1 aide 2, question 6). Cela traduit peut-être l’importance donnée par le professeur aux connaissances qui relèveraient, dans ses représentations, d’un apprentissage individuel avant l’évaluation.

En ce qui concerne les critères d’évaluation, ils étaient fortement influencés par le canevas institutionnel (document annexe 2), qui imposait une mise en relation des réponses, les hypothèses étant validées en fonction de leur lien avec le  problème, et l’expérience en fonction des hypothèses qu’elles permettent de valider. Pour la compétence portant sur la mise en œuvre d’une démarche d’investigation testée ici, le critère d’indépendance des questions énoncé par Gérard (2008) ne semble pas pouvoir intervenir. Néanmoins, deux interprétations du canevas sont constatées ici : à côté de la démarche, des connaissances sont évaluées dans un seul des 2 collèges.

Les critères de réussite pour l’attribution de points relèvent, dans les deux cas, de posture évaluative des enseignants centrée sur les procédures : les points peuvent être attribués pour des hypothèses fausses si l’expérience est bien en cohérence. Un souci docimologique persiste puisque des points sont ici déduits en fonction du nombre de « coups de pouce » demandés par l’élève. Une autre décision, pourrait, en effet être prise (par exemple, indiquer sur la copie les coups de pouce utilisés, sans changement de la note).

Les réponses des élèves témoignent de l’influence des pratiques des enseignants, aussi bien dans les mots utilisés que dans la réussite (énoncer un problème est mieux réussi dans le collège qui travaille cette compétence par exemple).

Cette étude pointe aussi une impossibilité de proposer des situations complexes sur tous les thèmes d’enseignement en SVT, avec un questionnement sur des programmes à repenser si cette visée est affirmée. Il apparaît aussi un besoin de formation des enseignants en relation avec ces nouvelles modalités de travail.

 

Références :

ALLAL, L. (2002). Acquisition et évaluation des compétences en situation scolaire. In J. Dolz et E. Ollagnier (Ed.), L’énigme de la compétence en éducation (pp.75 – 94). Bruxelles : De Boeck.

BAIN, D. (2002). De l’évaluation aux compétences : mise en perspective de pratiques émergentes. In J. Dolz et E. Ollagnier, (Ed.), L'énigme de la compétence en éducation (pp. 129 – 145). Bruxelles, De Boeck.

BLACK, P. (1995). Les enseignants peuvent-ils utiliser lʼévaluation pour améliorer l'apprentissage ? Didaskalia, 6, 99-114.

BRUNER, J-S. (1983). Le développement de l’enfant: Savoir faire, savoir dire. Paris, Puf

CARDINET J. (1989). Évaluer sans juger. Revue française  de pédagogie, 88, 41-52.

CRAHAY, M. (2006). Dangers, incertitudes et incomplétude de la logique de la compétence en éducation. Revue Française de Pédagogie, 154, 97-110.

CRAHAY, M. (2007). Peut-on lutter contre l’échec scolaire ? Bruxelles : De Boeck.

DELL’ANGELO – SAUVAGE, M. (2012). Les tâches complexes et l’évaluation de compétences dans l’investigation. APBG, 1, 131 – 147.

DIONNE, E. & LAURIER, M-D. (2012). Expérimentation d’un modèle d’évaluation certificative dans un contexte d’enseignement scientifique. Revue canadienne de l’éducation, 33, 83 – 107.

FENSHAM, P.-J. (2002). De nouveaux guides pour l’alphabétisation scientifique. Revue canadienne de l’enseignement des sciences, des mathématiques et des technologies, 2(2), 133-149.

FONTAINE, E. & DELL’ANGELO, M. (2012). La démarche d’investigation au collège en SVT : quels enjeux selon les enseignants ? Septièmes journées scientifique de l’ARDIST,

Bordeaux, mars 2012. http://ardist.aix-mrs.iufm.fr/wp-content//ardist2012-bordeaux-actes.pdf

GERARD, F-M. (2008).  La complexité d’une évaluation des compétences à travers des situations complexes. In M. Ettayebi, P. Jonnaert, & R. Opertti, Logique de compétences et développement curriculaire. Débats, perspectives et alternative pour les systèmes éducatifs, (pp. 167 – 183). Paris: L’harmattan.

GOLDSTEIN, H. (2008). Comment peut-on utiliser les études comparatives internationales pour doter les politiques éducatives d’informations fiables ? Revue française de pédagogie, 164, 69 – 76.

HAMELINE, D. (1979). Les objectifs pédagogiques en formation initiale et continue. Paris : ESF

ISSAIEVA É. & CRAHAY M. (2010). Conceptions de l’évaluation scolaire des élèves et des enseignants : validation d’échelles et  étude de leurs relations. Mesure  et évaluation en éducation, 33 (1), 31-62.

ISSAIEVA, E ; PINI, G. & CRAHAY, M. (2011). Positionnements des enseignants et des élèves du primaire face à l’évaluation : une convergence existe-t-elle ? Revue française de pédagogie, 176, 5-26.

JENKINS, E. (2006). L’enseignement des sciences. Intervention à la Biennale de l’éducation et de la formation. INRP et APRIEF

MATHE S., MEHEUT M. & DE HOSSON C. (2008), Démarche d’investigation au collège : quels enjeux ? Didaskalia, 32, .41-76.

MARTINAND J.-L. (2012) Education au développement durable et didactiques du curriculum. Conférence XIXeme Colloque AFIRSE, Lisbonne.

PERRENOUD, P. (1997). Construire des compétences à l'école. Paris: ESF.

RATCLIFFE M. & MILLAR R. (2009), Teaching for Understanding of Science in Context: Evidence from the Pilot Trials of the Twenty First Century Science Courses. Journal of Research in science Teaching, 46 (8), 945-959.

REY, B., CARETTE, V., DEFRANCE, A. & KAHN, S. (2006). Les compétences à l’école. Apprentissage et évaluation. Bruxelles : De Boeck.

ROCHEX, J-Y. (2008). PISA et les enquêtes internationales. Enjeux scientifiques, enjeux politiques. Revue française de pédagogie, 164, 81 – 85.

ROEGIERS, X. (1999). Savoirs, capacités et compétences à l'école : une quête de sens. Forum-pédagogies, 24-31.

ROEGIERS, X. (2003). Des situations pour intégrer les acquis. Paris-Bruxelles : De Boeck Université.

 

Annexe 1 : tableau récapitulatif des programmes

- il est dit dans : Réaliser, manipuler, mesurer, calculer, appliquer des consignes

 

6ème

5ème  et 4ème

3ème

- Suivre un protocole,

 

L’élève suit un

protocole simple

L’élève suit un protocole simple laissant une part

d’autonomie,

L’élève suit un protocole simple dans un contexte nouveau ou plus complexe

 

- il est dit dans : Raisonner, argumenter, pratiquer une démarche expérimentale ou technologique, démontrer

 

6ème

5ème

4ème

3ème

Proposer une démarche de résolution :

- formuler un problème ;

- comparer une situation à un modèle connu ;

L’élève distingue dans un contexte simple les questions

- auxquelles on peut répondre

- qui nécessitent un traitement

- auxquelles on ne peut pas répondre.

Il distingue dans un contexte donné les questions

- auxquelles on peut répondre

- qui nécessitent un traitement

- pour lesquelles l’information est

insuffisante.

Idem

+

Il repère des questions qui ne formalisent pas convenablement le problème.

Idem +

Il participe à une formulation d’un problème simple à partir d’observations, de données ou d’essais erreurs.

- émettre une hypothèse,

l’élève choisit

dans une liste une

hypothèse.

Il participe à la proposition d’une hypothèse

Idem

il formule une hypothèse.

- proposer une expérience (protocole),

L’élève remet en ordre les étapes d’un protocole ....

Il participe à la conception d’un protocole...

Il identifie un protocole

Il reconnaît le contexte ou les conditions d’utilisation d’un protocole,

Il participe à la conception d’un protocole, adapte un

protocole, prévoit les informations ou les  résultats qu’il peut en tirer.

Faire des

essais ; choisir,

adapter une

méthode ou un protocole

l’élève participe à la mise en œuvre d’un  protocole,

L’élève met en œuvre tout ou partie des étapes d’une méthode

d’investigation.

Idem

+

l’élève sait expliquer ce qu’il fait en cours de manipulation.

Idem

Il  met en œuvre

une démarche d’investigation ou de

résolution de problème, conduit un

raisonnement pour démontrer une propriété

Exploiter les résultats :

- confronter le résultat obtenu au résultat

attendu ;

 

 

L’élève décrit

l’influence d’un

paramètre sur le

phénomène étudié.

Idem

- mettre en relation ;

- déduire ;

- valider ou invalider la

conjecture, l’hypothèse.

L’élève vérifie et valide le résultat

.

L’élève exploite les résultats pour valider ou invalider une hypothèse

Idem

Idem pour

chacune

des hypothèses

proposées.

L’élève peut expliquer une méthode, un

raisonnement, à la mise en œuvre desquels il a participé.

Idem

+

 qu’il a

mis en œuvre.

Idem

Idem

 

Annexe 2 : canevas de l’évaluation (document professeur)

 

 

Annexe 3 : évaluation 6ème 1

 Annexe 4 : évaluation 6ème 2

Annexe 5 : évaluation 3ème 1

 Annexe 6 : évaluation 3ème 2

Annexe 7 : coups de pouce 6ème

Annexe 8 : coups de pouce 3ème

 

Annexe 9  : bilan des coups de pouce

 6ème C1 protocole

Classes C2

classes C1

Total

garçons

filles

nombre d’élèves

61

104

165

85

80

aide 1

13

12

25

17

8

aide 2

5

24

29

16

13

 6ème C2 Protocole

Classes C2

classes C1

Total

garçons

filles

nombre d’élèves

61

104

165

83

81

 aide 1

24

7

31

24

10

aide 2

7

1

8

5

4

3ème C1 Protocole

Classes C2

classes C1

Total

garçons

filles

Nombre d'élèves

73

91

164

77

87

aide 1

15

6

21

15(19%)

6

3ème C2 protocole

Classes C2

classes C1

Total

garçons

Filles

nombre d'élèves

73

70

143

66

77

Aide 1

21

11(16%)

32

15

17

Aide 2

13

10

2

14

9

Aide 3

3

6

9

4

5

Aide 4

0

4

4

2

2

Aide 5

0

3

3

2

1

 

 


[1]MINISTERE DE L’EDUCATION NATIONALE (2006), « Le socle commun des connaissances et des compétences », Décret du 11 juillet 2006, Direction générale de l’enseignement scolaire, novembre 2006.

http://www.education.gouv.fr/cid2770/le-socle-commun-de-connaissances-et-de-competences.html, MINISTERE DE L’EDUCATION NATIONALE (2005), « Thèmes de convergence », Bulletin Officiel de l’éducation Nationale, Hors-série du 25 août 2005, annexe V. ftp://trf.education.gouv.fr/pub/edutel/bo/2005/hs5/hs5.pdf , consulté le 23 mai 2013.

[2] Il y ajoute le « pouvoir d'engendrement et d'adaptation des actions » propre à l’Homme.

[3] Ibid, p.17.                             

[4] Ibid p.17

[5] Ibid p. 84. Elle argumente par « ça fait partie des capacités humaines de classification de créer des familles de situation et aussi de dégager des modes de fonctionnement qui traversent les situations.

[6] Ibid p.81

[8] VADE-MECUM 2011, p.4

[11] Ibid p.26

[12] Ce qui correspond à peu près au collège français

[13] Ils se réfèrent à la définition de Legendre (2005, 633) « un processus d’évaluation débouchant sur une décision dichotomique de réussite ou d’échec relative à une période d’apprentissage, d’acception ou de rejet d’une promotion, de poursuite d’une action ou de l’arrêt de celle-ci »

[14] p.88

[16] Issaeva et al (2011) montre que toute catégories confondues (d’âge, d’ancienneté, de genre) les enseignants du primaire rejettent à près de 70% l’évaluation normative