L’évaluation de la recherche : pour une réouverture des controverses / Quaderni, n°77, hiver 2011-2012

Agence d’Evaluation de la Recherche et de l’Enseignement Supérieur, classement de Shanghai des universités, classements des revues, définitions du chercheur publiant… L’évaluation est aujourd’hui omniprésente dans la recherche, et consubstantielle aux politiques scientifiques. On connait bien la généalogie de ces dispositifs, et le projet politique qui les motive. On en déduit parfois qu’ils font advenir un monde nouveau (faits de facteurs d’impact, de taux de citations, de recherche innovante, etc.) et véhiculent des prescriptions anthropologiques (l’avènement du chercheur publiant, conformiste, stratège…). Ce dossier thématique de Quaderni interroge le caractère mécanique, ou manichéen, de cette hypothèse. Soulignant la diversité des usages concrets de dispositifs d’évaluation en vigueur dans plusieurs pays, il suggère que les effets de l’évaluation ne sont pas une affaire entendue, mais qu’ils demeurent un objet controversé.

.

Sommaire :

Séverine Louvel, « Avant-propos : Réinterroger l’évaluation comme technologie de « pilotage à distance » » ;

David Pontille et Didier Torny, « Rendre publique l’évaluation des SHS : les controverses sur les listes de revues de l’AERES » ;

Julie Bouchard, « La fabrique d’un classement médiatique de l’enseignement supérieur et de la recherche » ;

Silke Gülker, Dagmar Simon et Marc Torka, « Evaluation of science as consultancy » ;

Lise Gastali et Caroline Lanciano-Morandat, « Les dispositifs d’évaluation de l’enseignement supérieur et de la recherche : quel devenir pour des établissements singuliers ? » ;

Marc Vanholsbeeck, « Entre qualité prescrite et qualité souhaitable : l’ambivalence des chercheurs en communication face à l’évaluation de leurs publications » ;

Matthieu Hubert, Francis Chateauraynaud et Jean-Michel Fourniau, « Les chercheurs et la programmation de la recherche : du discours stratégique à la construction de sens ».

Le Data Usage Index (DUI): méthodologie bibliométrique et données factuelles / URFIST Info, 26.01.2012

http://urfistinfo.hypotheses.org/2186

L’économie de l’évaluation / Agora, 04.10.2011

http://agora.hypotheses.org/1044

Les effets pervers des accréditations et des rankings sous l’œil de la Fnege / EducPros.fr, 01.02.2012

http://www.educpros.fr/detail-article/h/a6294e37f5/a/les-effets-pervers-des-accreditations-et-des-rankings-sous-loeil-de-la-fnege.html

Evaluation des unités de recherche par l’AERES : vers une amélioration de la notation / AERES, 11.12.2011

http://www.aeres-evaluation.fr/Actualites/Communiques-dossiers-de-presse/Evaluation-des-unites-de-recherche-par-l-AERES-vers-une-amelioration-de-la-notation

Connaitre les politiques des éditeurs en matière de libre accès / SherpaRomeo

Tutoriel réalisé par le Service Commun de la Documentation de l’Université Bordeaux Ségalen

The Journal of Universal Rejection (JofUR)

« The founding principle of the Journal of Universal Rejection (JofUR) is rejection. Universal rejection. That is to say, all submissions, regardless of quality, will be rejected. »

A propos :

Le principe fondateur de la revue Journal of Univeral Rejection (JofUR) est le rejet. Le rejet universel. C’est-à-dire, toute soumission, indépendamment de sa qualité, sera rejetée.  Une bonne revue, une revue de haut « rang », ayant un « facteur d’impact » qui décoiffe se doit d’être sélective. Elle rejette des articles, les plus mauvais ou les moins bons. Mieux, plus elle rejette, meilleure est sa qualité. « Nature » a un « taux de rejet » avoisinant les 92 %. Mais c’est sans compter sur la revue Journal of Univeral Rejection (JofUR). C’est simple, son « taux de rejet » est de 100%. Rien de moins !

Rendez vous sur le site afin de prendre connaissance des instructions qui vous garantiront assurément  le rejet.

–> http://www.universalrejection.org/

Nouvelle parution : L’évaluation de la recherche en sciences humaines et sociales : regards de chercheurs / Paul Servais, 2011

Résumé :
Qu’est-ce que évaluer la recherche ? Pourquoi et pour quoi évaluer la recherche ? Comment évaluer la recherche ? Y a-t-il des pièges à l’évaluation et lesquels ? La transition de l’évaluation de la recherche à l’évaluation des chercheurs est-elle inévitable, voire souhaitable ? L’évaluation induit-elle des changements dans la recherche ? Ces questions, et bien d’autres, préoccupent les chercheurs, comme les organismes qui les subventionnent et ceux qui les emploient. Ces préoccupations se situent dans un monde où collaboration entre chercheurs et internationalisation de la recherche sont devenues des normes de plus en plus prégnantes, alors que des budgets de recherche orientée importants ont été mis en place. Leur acuité est d’autant plus forte que les dispositifs d’évaluation a priori comme a posteriori se sont développés en conséquence. Pour les sciences humaines et sociales, des questions particulières se posent en outre : quelles conséquences les spécificités de leur objet ont-elles sur leurs pratiques, leurs résultats ? Quelles leçons en tirer pour leur évaluation? Quel a été l’impact de l’évolution du « pilotage et de l’évaluation » de la recherche en sciences sociales au cours des dernières décennies ? Quelles redéfinitions cela implique-t-il du rôle des chercheurs en sciences sociales ? Plus fondamentalement peut-être, quelles transformations des relations entre « connaissances » et « politiques » en a-t-il résulté ?

plus d’info

Vers un pilotage clientéliste de la recherche ? / Agora, 23.09.2011

Pour une nouvelle démarche d’évaluation des laboratoires de recherche, des enseignants-chercheurs et des chercheurs en économie / AFEP, 01.09.2011


Lire la réaction (L’économie de l’évaluation, billet du 04.10.2011) au rapport de l’AFEP du blog Agora :
http://agora.hypotheses.org/1044

Enquête sur les classements des universités / Benoît Floc’h, Le Monde, 06.10.2011

Les effets pervers des palmarès d’universités / Blog de la rédaction du Monde Economie, 11.07.2011

Les effets pervers des palmarès d’universités

Les palmarès d’universités régulièrement publiés dans la presse sont souvent erronés, leur méthodologie est parfois douteuse et ils ont des effets pervers sur les choix des étudiants et le comportement des établissements.

Ce sont les accusations portées par une étude de 85 pages publiée le 17 juin par l’Association européenne des universités (EUA)  (« Global university rankings and their impact », http://www.eua.be/pubs/Global_University_Rankings_and_Their_Impact.pdf),  qui décortique 13 de ces palmarès, dont le fameux « palmarès de Shanghaï » ou encore ceux publiés chaque année par le Times Higher Education ou par US News & World Report.

L’EUA rappelle d’abord que ces palmarès rencontrent un grand succès auprès du public, en raison de leur simplicité, de leur volonté de « faire la transparence » et leur intention affichée de faciliter le choix du « consommateur », mais aussi auprès des décideurs politiques, qui ont tendance à user de ces palmarès pour porter un diagnostic sur l’ensemble du système universitaire d’un pays, et de prôner alors des politiques visant à « améliorer la performance » des universités nationales au sein de ces palmarès…. Lire la suite