Rapport publié par le Scimago Journal Rank

Scimago : portail d’indicateurs de la recherche scientifique développés à partir de la banque de données Scopus d’Elsevier par le groupe de recherche SCImago

Accéder au rapport

Publicités

Le Data Usage Index (DUI): méthodologie bibliométrique et données factuelles / URFIST Info, 26.01.2012

http://urfistinfo.hypotheses.org/2186

Du bon usage de la bibliométrie pour l’évaluation individuelle des chercheurs

Rapport remis le 17 janvier 2011 à Madame la Ministre de l’Enseignement Supérieur et de la Recherche.

En janvier 2011, l’Académie des Sciences a remis à Madame la Ministre de l’Enseignement Supérieur et de la Recherche un rapport intitulé : « Du bon usage de la bibliométrie pour l’évaluation individuelle des chercheurs ». Par ce rapport, l’Académie a souhaité émettre un certain nombre de recommandations sur l’usage de la bibliométrie, qui peut aider à l’évaluation qualitative des chercheurs, mais moyennant le respect de règles rigoureuses.

Evaluating university research performance using metrics / linda butler and ian mcallister

Abstract

Evaluations of research quality in universities are now widely used in the advanced economies. The UK’s research Assessment Exercise (RAE), which began in 1986, is the most highly developed of these research evaluations. Based on peer review and involving some sixty-nine panels evaluating the research work of more than 50,000 academic staff, the exercise is expensive and time consuming. In this article, we examine the possibility that a quantitative, metrics-based approach can provide a low-cost alternative to expensive, qualitative peer review. To do this, we build on our previous work on political science by extending a metrics-based model to chemistry, using the results of the 2001 RAE. Our results show that no single model will apply across science and non-science disciplines. Any metrics approach to performance evaluation has to use a discipline-specific suite of indicators.

Article de la revue European Political Science (2011) 10, pp. 44–58 sur l’évaluation qualitative pratiquée au Royaume-Uni et les techniques bibliométriques purement quantitatives…

Lire l’article ici

Calculer son h-index : quelle base de données choisir ? / (Gaïa Universitas, 19/04/2010)

Quand on veut calculer son h-index ou celui d’un collègue, on est bien embarrassé : quelle base de données utiliser pour faire un calcul fiable ? Les plus utilisées sont le Web of Science de Thompson Reuters, Scopus qui est développé par Elsevier et Google Scholar. Les deux premières sont payantes et la dernière est gratuite. Mais sont-elles équivalentes ? Donnent-elles des résultats fiables ? Plusieurs études sont disponibles sur le sujet. Nous allons illustrer ici un cas d’étude proposé par J. Bar-Ilan, Which h-index ? – A comparison of WoS, Scopus and Google Scholar. Scientometrics 74, 257-271, 2008. Dans cet article, l’auteur a calculé le h-index de 40 chercheurs Israéliens de différents champs disciplinaires avec les trois bases de données (Web of Science, Scopus et Google Scholar)… lire la suite

Source : Calculer son h-index : quelle base de données choisir ? / blog Gaïa Universitas, billet posté le 19/04/2010.

JournalBase. Comparer les bases de données scientifiques internationales en SHS, par M. Dassa, C. Kosmopoulos et D. Pumain (blog evaluation.hypotheses.org)

Cet article dresse un tableau comparatif des contenus des bases de données et des listes de référence qui recensent les revues en sciences humaines et sociales (SHS).

Lire la suite…

Séminaire sur l’évaluation de la science politique

Dans le prolongement du Module organisé lors du Congrès de Grenoble en septembre 2009 et consacré à la présentation croisée des résultats de trois enquêtes collectives inédites visant à mieux comprendre les pratiques de publication des politistes français, l’AFSP (Association Française de Science Politique) propose un séminaire sur l’évaluation de la science politique permettant d’approfondir les échanges et débats sur les procédures d’évaluation internes à la discipline. Intitulé «Science politique et stratégies de publication. Regards croisés » et organisé le 22 janvier 2010…  suivre le lien pour accéder au programme

Sur le blog d’Evaluation hypothèses : Editer en SHS / Les Livres

Les questions relatives à la publication en SHS, dans le cadre des directives imposées par l’AERES (définition des chercheurs publiants, classement des revues, usages d’indicateurs bibliométriques…), peuvent être éclairées par un certain nombre de travaux mettant en évidence des «régimes de publications», soit propre à l’ensemble du domaine, soit à l’une de ses disciplines…

Lire la suite…

Le blog d’un thésard à la Sorbonne…

De précieuses références sur la bibliométrie, ainsi que les blogs dédiés (dont celui de l’UMR Spirit !) sont proposés sur le blog de Marc Bertin, doctorant à la Sorbonne.

Lire la suite

« On ne peut pas compter tout ce qui a de la valeur, et ce que l’on peut compter n’a pas forcément de valeur. » sur le site de Sauvons La Recherche

C’est en mettant en exergue dans l’un de ses articles cette citation d’Albert Einstein qu’un chercheur en informatique de l’université de Zürich, très critique sur l’utilisation de la bibliométrie pour l’évaluation des individus, s’est involontairement retrouvé indexé comme co-auteur du célèbre physicien dans une grande base de données bibliométriques…

Lire la suite…

La Grande-Bretagne réévalue sa réforme de l’évaluation / J.-F. Méla

JFmelaDepuis plus de 20 ans, la Grande-Bretagne avait mis en oeuvre un système d’évaluation systématique et centralisé de la recherche universitaire, le Research Assessment Exercise (RAE). Il ne s’agissait pas d’une agence comme aujourd’hui l’AERES en France, mais de l’organisation tous les quatre à six ans d’une grande campagne d’évaluation de tous les départements de recherche des universités. Le RAE était mis en place, de façon très « professionnelle », par les financeurs publics (funding bodies)[1] dont les crédits de recherche aux universités étaient ensuite calculés sur la base des résultats du RAE. Ces résultats servaient aussi aux universités à déterminer leur politique. L’évaluation était faite de façon classique et indépendante par des comités d’experts sur le mode de la peer review[2]. Mais cet exercice s’avérait extrêmement lourd, aussi bien pour ceux qui le faisaient que pour les universités qui le subissaient, avec des conséquences limitées en matière de financement de la recherche… Lire la suite

Source : La Grande-Bretagne réévalue sa réforme de l’évaluation / J.-F. Méla, JFM’s Blog, billet posté le 6 octobre 2009.

Lire aussi la réaction de Pierre Dubois sur l’Évaluation à l’anglaise, un billet posté le 14 octobre 2009.

Le h-index et les champs disciplinaires / Rachel Gliese (Gaïa Universitas)

gaiaihindexLe mouvement de contestation universitaire a vu se développer une fronde contre l’évaluation ou les critères d’évaluation. La lettre symbole est la lettre « h », indice bibliométrique pour les individus. Cet indice « h » est l’indice de Hirsch (h-index ou facteur h), définit comme tel : Un scientifique a un indice h si h de ses N articles ont chacun au moins h citations… Lire la suite

Source : Le h-index et les champs disciplinaires/ Rachel Gliese, billet posté le 6 octobre 2009 sur le blog Gaïa Universitas