Rapport publié par le Scimago Journal Rank

Scimago : portail d’indicateurs de la recherche scientifique développés à partir de la banque de données Scopus d’Elsevier par le groupe de recherche SCImago

Accéder au rapport

« Publish or Perish » : que cache l’obsession bibliométrique / Guillaume Bouyt et Pierre Jeannin, MinesParisTech, mars 2012

Lire le texte

Lettre ouverte aux membres du CNU-04 (science politique) sur les revues et l’évaluation / évaluation-hypothèses.org

http://evaluation.hypotheses.org/1503

L’évaluation de la recherche expliquée à un thésard / par Tristan Loloum, Les aspects concrets de la thèse/Hypothèses.org, 29.02.2012

http://act.hypotheses.org/1673

Citation sur commande dans les publications scientifiques : une étude aux résultats édifiants ! / biblioth|ê|thique, 05.03.2012

http://bibliothethique.net/2012/03/05/citation-sur-commande-dans-les-publications-scientifiques-une-etude-aux-resultats-edifiants/

L’évaluation de la recherche : pour une réouverture des controverses / Quaderni, n°77, hiver 2011-2012

Agence d’Evaluation de la Recherche et de l’Enseignement Supérieur, classement de Shanghai des universités, classements des revues, définitions du chercheur publiant… L’évaluation est aujourd’hui omniprésente dans la recherche, et consubstantielle aux politiques scientifiques. On connait bien la généalogie de ces dispositifs, et le projet politique qui les motive. On en déduit parfois qu’ils font advenir un monde nouveau (faits de facteurs d’impact, de taux de citations, de recherche innovante, etc.) et véhiculent des prescriptions anthropologiques (l’avènement du chercheur publiant, conformiste, stratège…). Ce dossier thématique de Quaderni interroge le caractère mécanique, ou manichéen, de cette hypothèse. Soulignant la diversité des usages concrets de dispositifs d’évaluation en vigueur dans plusieurs pays, il suggère que les effets de l’évaluation ne sont pas une affaire entendue, mais qu’ils demeurent un objet controversé.

.

Sommaire :

Séverine Louvel, « Avant-propos : Réinterroger l’évaluation comme technologie de « pilotage à distance » » ;

David Pontille et Didier Torny, « Rendre publique l’évaluation des SHS : les controverses sur les listes de revues de l’AERES » ;

Julie Bouchard, « La fabrique d’un classement médiatique de l’enseignement supérieur et de la recherche » ;

Silke Gülker, Dagmar Simon et Marc Torka, « Evaluation of science as consultancy » ;

Lise Gastali et Caroline Lanciano-Morandat, « Les dispositifs d’évaluation de l’enseignement supérieur et de la recherche : quel devenir pour des établissements singuliers ? » ;

Marc Vanholsbeeck, « Entre qualité prescrite et qualité souhaitable : l’ambivalence des chercheurs en communication face à l’évaluation de leurs publications » ;

Matthieu Hubert, Francis Chateauraynaud et Jean-Michel Fourniau, « Les chercheurs et la programmation de la recherche : du discours stratégique à la construction de sens ».

Le Data Usage Index (DUI): méthodologie bibliométrique et données factuelles / URFIST Info, 26.01.2012

http://urfistinfo.hypotheses.org/2186

L’économie de l’évaluation / Agora, 04.10.2011

http://agora.hypotheses.org/1044

Les effets pervers des accréditations et des rankings sous l’œil de la Fnege / EducPros.fr, 01.02.2012

http://www.educpros.fr/detail-article/h/a6294e37f5/a/les-effets-pervers-des-accreditations-et-des-rankings-sous-loeil-de-la-fnege.html

Evaluation des unités de recherche par l’AERES : vers une amélioration de la notation / AERES, 11.12.2011

http://www.aeres-evaluation.fr/Actualites/Communiques-dossiers-de-presse/Evaluation-des-unites-de-recherche-par-l-AERES-vers-une-amelioration-de-la-notation

Nouvelle parution : L’évaluation de la recherche en sciences humaines et sociales : regards de chercheurs / Paul Servais, 2011

Résumé :
Qu’est-ce que évaluer la recherche ? Pourquoi et pour quoi évaluer la recherche ? Comment évaluer la recherche ? Y a-t-il des pièges à l’évaluation et lesquels ? La transition de l’évaluation de la recherche à l’évaluation des chercheurs est-elle inévitable, voire souhaitable ? L’évaluation induit-elle des changements dans la recherche ? Ces questions, et bien d’autres, préoccupent les chercheurs, comme les organismes qui les subventionnent et ceux qui les emploient. Ces préoccupations se situent dans un monde où collaboration entre chercheurs et internationalisation de la recherche sont devenues des normes de plus en plus prégnantes, alors que des budgets de recherche orientée importants ont été mis en place. Leur acuité est d’autant plus forte que les dispositifs d’évaluation a priori comme a posteriori se sont développés en conséquence. Pour les sciences humaines et sociales, des questions particulières se posent en outre : quelles conséquences les spécificités de leur objet ont-elles sur leurs pratiques, leurs résultats ? Quelles leçons en tirer pour leur évaluation? Quel a été l’impact de l’évolution du « pilotage et de l’évaluation » de la recherche en sciences sociales au cours des dernières décennies ? Quelles redéfinitions cela implique-t-il du rôle des chercheurs en sciences sociales ? Plus fondamentalement peut-être, quelles transformations des relations entre « connaissances » et « politiques » en a-t-il résulté ?

plus d’info

Pour une nouvelle démarche d’évaluation des laboratoires de recherche, des enseignants-chercheurs et des chercheurs en économie / AFEP, 01.09.2011


Lire la réaction (L’économie de l’évaluation, billet du 04.10.2011) au rapport de l’AFEP du blog Agora :
http://agora.hypotheses.org/1044