Appuyez sur Entrée pour voir vos résultats ou Echap pour annuler.

Bibliométrie

L’irrésistible mode des classements et les revues juridiques
Utilité et limites des "journal rankings"

Les éditeurs juridiques — plus particulièrement les petits éditeurs encore indépendants —, les enseignants en droit et les bibliothèques universitaires des facultés de droit feraient bien de se préoccuper d’un phénomène montant : les classements de revues.

Cette mode anglo-saxonne du "ranking" a débarqué il y a déjà longtemps en France, dans les sciences "dures", à la faveur de la nécessité d’évaluer les chercheurs pour décider de leur évolution de carrière et leur attribuer des bourses. On mesure le nombre de citations de leurs articles dans les revues ("citation impact"). Et plus une revue où on est cité est citée par les autres revues (ce qu’on appelle l’"impact factor"), plus ces citations ont de la valeur.

L’impact factor est calculé par l’Institute for Scientific Information (ISI), racheté avec sa base de données en 1992 par l’éditeur financier et juridique Thomson Reuters et devenu Thomson Scientific. Ces statistiques sont consultables sur la base de données payante Web of Science. Pour l’instant, les revues juridiques ne figurent pas dans la liste des "journals" indexés par Web of Science.

Cette mode du ranking et le champ libre laissé par Thomson Scientific expliquent peut-être pourquoi plusieurs initiatives récentes ont tenté de classer les revues françaises de sciences sociales, catégorie qui comprend les revues juridiques. En voici une liste (qui ne prétend pas à l’exhaustivité) :

Ces classements manquent de l’objectivité statistique de Thomson Scientific, les méthodes utilisées ne sont pas toujours rigoureuses et la comparaison des notes attribuées aux revues juridiques laisse parfois une impression bizarre. Le principe même de cette évaluation est souvent mis en cause, taxé de "darwinisme social" ou simplement considéré comme un outil de rationalisation budgétaire de la recherche française. Il n’est que de lire les volées de bois vert que s’est prise la liste de l’AERES, pétition pour son retrait à la clé.

En fait, un classement, c’est toujours un choix de critères, donc un biais, un part pris. Et quand un seul classement ou un seul acteur domine quasi-sans partage comme Web of Science avec l’impact factor, ça peut être très gênant pour certaines revues ou certains auteurs qui tentent d’émerger. En clair et en termes financiers : ça a tendance à figer les parts de marché.

D’où l’importance des initiatives libres et gratuites comme :

  • GetCited, qui indexe non seulement des revues mais aussi des ouvrages, des actes de colloque et des rapports
  • et, en juridique, de la base de données tenue par John Doyle [1] : Most-Cited Legal Periodicals : U.S. and selected non-U.S. (Law Journals : Submissions and Ranking ; chiffres (impact factor etc. + coûts depuis 2003 sur les law reviews américaines, canadiennes et anglaises).

Mais ces classements existent et ceux qui veulent évaluer revues juridiques et auteurs (exemples : pour déterminer où publier un article d’un avocat, ou pour une politique d’acquisition en BU) les utiliseront à défaut d’autre chose ...

Vivement, donc, de vrais classements, avec des méthodes "béton" : des classements différents et concurrents, dont les méthodes seraient objectives et publiées, les noms des auteurs connus et qui associeraient au moins en partie les revues à leur création.

Emmanuel Barthe
documentaliste juridique

Notes

[1Université de Washington. Doyle est également l’auteur du Current Law Journal Content (TOC des law reviews US, canadiennes et anglaises).