réactions à l'article «Bibliométrie : quand les mathématiciens s’en mêlent»
-
Bibliométrie : quand les mathématiciens s’en mêlent
12 février 2009, par Marie
Un moyen simple d’augmenter l’impact des publications françaises
Je voudrais simplement suggérer ici un moyen simple d’augmenter l’impact des publications françaises.
Il suffit, comme le font de façon naturelle par exemple les italiens et les anglo-saxons, de placer en référence dans ses articles des publications d’autres équipes françaises, c’est-à-dire de ne pas oublier de citer les travaux effectués en France ayant un rapport avec le sujet traité. Il s’agit de développer un comportement de solidarité collective de bon aloi, mais contraire à un certain auto-snobisme français en vigueur. -
Bibliométrie : quand les mathématiciens s’en mêlent
10 décembre 2008, par Jean-Jacques
Cette étude sur l’analyse de l’usage des indices de citations est vraiment passionnante pour moi qui suis un grand amateur de citations, qui les classe à tout va, les recoupe, les archive... merci d’avoir fait un résumé en français car le document en anglais est loin d’être compréhensible quand on a un anglais un peu trop basique comme moi.
-
Bibliométrie : quand les mathématiciens s’en mêlent
6 octobre 2008, par dusaule
Pas de surprise en lisant cet article : le problème est le même dans toutes les administrations avec les indicateurs demandés pour les BOP (budgets opérationnels de programmation)
-
Bibliométrie : quelques lectures
22 septembre 2008
- quand les mathématiciens s’en mêlent (bis)
Un article de Jean-François Méla (10 septembre 2008) sur son blog :
Ce que les mathématiciens ont à dire sur les statistiques bibliométriques- quand les canadiens s’en mêlent
Un article de Yves Gingras, sociologue des sciences, chercheur au CRIST (Centre universitaire de recherche sur la science et la technologie), UQAM, l’Université de Montréal et l’Université de Sherbrooke.
La fièvre de l’évaluation de la recherche. Du mauvais usage de faux indicateurs. CIRST – Note de recherche 2008-05, page 7. 3.2 (lien vers le pdf)
Voir aussi site perso de Yves Gingras
Bonne lecture
- quand les mathématiciens s’en mêlent (bis)
-
Bibliométrie : quand les sociologues s’en mêlent
28 juillet 2008, par Eliane Daphy
Un article intéressant et argumenté sur l’évaluation des laboratoires CNRS avec les outils bibliométriques Social Sciences Citation Index (SSCI) et GoogleScholar (texte intégral en ligne) :
Daniel Bertaux*, 2008 (4 avril), « Peut-on construire des indicateurs de notoriété des centres de sociologie ? », Socio-logos**, Numéro 3.*Daniel Bertaux a été membre élu de la section 36 du CoNRS (Comité national de la recherche scientifique) de 2000 à 2004. Présentation sur l’ASF ; wikipedia
** Socio-logos est la revue électronique de l’Association française de sociologie.
elianedaphy
-
Bibliométrie : quand les mathématiciens s’en mêlent
9 juillet 2008, par Yves Gingras
Vous écrivez que "Malgré l’importance de plus en plus grande accordée à ces indicateurs, il n’existe pas d’études sérieuses mettant en doute les affirmations de leurs promoteurs (Hirsch par exemple) ou des utilisateurs."
Il existe un article récent qui montre clairement que l’indice h n’a en fait aucune valeur en tant qu’indicateur de la recherche. Voir : Van Leeuwen, T. Testing the validity of the Hirsch-index for research assesment purposes, Research Evaluation, June 2008, vol. 17, p. 157-160.
De plus il est strictement faux sur le plan bibliométrique que, comme l’affirme Hirsch, "2 scientifiques ayant un même index h sont comparables en terme d’impact scientifique". L’indice h est un exemple de ce que j’appelle la "bibliométrie sauvage" effectuée par des scientifiques qui s’improvisent dans le domaine de l’évaluation de la recherche. Enfin il est intéressant de noter que le titre du texte de Hirsch est "An index to quantify an individual’s scientific research output," alors qu’en fait il ne quantifie pas "le ouput" mais une combinaison de quantité (output) et de "qualité" (citations) ce qui donne un indice hétérogène peu fiable. Comme le montre l’article de Van Leeuwen, l’indice h est en fait fortement correlé (0.8 environ) avec le nombre d’articles ce qui montre clairement qu’il n’ajoute en fait rien de nouveau et est redondant avec la simple mesure de productivité !
-
Bibliométrie : quand les mathématiciens s’en mêlent
9 juillet 2008, par eric Matzner-Lober
Bonjour,
je suis tout à fait d’accord avec vous concernant les indices. Le texte que j’ai rédigé est seulement un résumé de l’article "Citation Statistics" écrit en 2008.
-
-
Bibliométrie : quand les mathématiciens s’en mêlent
2 juillet 2008, par Corellou
On peut également regretter au delà de l’utilisation de facteurs statistiques qui introduisent forcémment un biais dans l’évaluation, que l’indice h ne prenne pas en compte la position de l’auteur parmi les co auteurs d’un article. Ainsi on peut retrouver des collaborateurs mineurs à de nombreux travaux annexes à leur thématique principale avec un indice h plus élevé que des auteurs principaux d’article, dont l’investissement et la prise de risque est sans commune mesure avec celle "des butineurs". Ceci aurait-il échappé à ceux qui s’occupent de mettre en place de tels indices ou est ce prémédité ?