Sciences dessus dessous

Sciences dessus dessous - Auteur
  • Jean-François Cliche

    Ce blogue suit pour vous l'actualité scientifique, la décortique, et initie des échanges à son sujet.
  • Lire la suite »

    Partage

    Lundi 12 novembre 2012 | Mise en ligne à 14h56 | Commenter Commentaires (9)

    L’influence des grandes revues scientifiques s’étiole

    Intéressante dépêche passée plus ou moins inaperçue, la semaine dernière : d’après une étude de bibliométrie faite à l’Université de Montréal, l’influence des revues les plus prestigieuses en sciences, comme Nature ou Cell, a passablement décliné au cours des 20 dernières années.

    Pour en venir à cette conclusion, le chercheur en bibliothéconomie Vincent Larivière a analysé pas moins de 820 millions de citations (pour 25 millions d’articles) de 1902 à 2009. Et il ressort de cet échantillon que si les découvertes les plus marquantes ont très souvent été publiées dans les «grands noms» de la publication savante jusqu’aux environ de 1990, ces derniers semblent avoir perdu du gallon depuis. En 1990, parmi les 5 % des articles les plus cités, près de la moitié (45 %) étaient publiés dans les revues les plus prestigieuses — à plus «haut facteur d’impact». Or en 2009, cette proportion avait descendu à 36 %.

    La raison de ce déclin, avance M. Larivière, est vraisemblablement l’arrivée d’Internet. Au lieu d’être plus ou moins «prisonniers» des grandes revues — qui étaient les seules auxquelles toutes les universités s’abonnaient —, des moteurs de recherche comme Google Scholar ont permis aux chercheurs de «butiner» davantage d’une revue à l’autre, et donc d’élargir leurs horizons documentaires.

    L’étude a été publiée dans le Journal of the American Society for Information Science and Technology, et a trouvé un écho dans certains médias spécialisés, notamment The Scientist.

    M. Larivière en profite aussi pour critiquer au passage la notion de facteur d’impact — soit grosso modo le nombre de fois que les articles d’une revue sont cités sur une période de deux ans, divisé par le nombre d’articles publiés —, qui sert souvent à évaluer la qualité des publications savantes et même celle des chercheurs. Il s’agit, estime-t-il, d’un calcul quelque peu déformant, car il inclut tous les textes publiés dans un magazine, ce qui avantage les périodiques qui publient beaucoup d’éditoriaux, de nouvelles et de lettres à l’éditeur et défavorisent ceux qui se concentrent sur les articles savants stricto sensu.

    En outre, souligne-t-il, la période de deux ans est trop courte, ou du moins on ne devrait pas l’appliquer indifféremment à toutes les disciplines.


    • Le nombre de revues augmente, alors la proportion de celles-ci qui sont formées par les “grandes revues” diminue forcément. Tout comme le nombre de pays faisant de la bonne science augmente, alors la proportion des bons articles scientifiques provenant des USA, ou de la troïka France-Allemagne- Grande-Bretagne, diminue forcément.

      De plus, avec le taux de citations disponible pour chaque article, il y a maintenant 2 manières d’impressionner: publier dans les revues les plus prestigieuses, ou publier ailleurs un article qui est cité aussi souvent que l’article moyen des revues les plus prestigieuses. Un article cité 100 fois en 10 ans est ce qu’il est, peu importe où il est publié. En fait, un article cité 100 fois en 10 ans dans une revue moyenne a probablement une plus grande valeur qu’un article cité 100 fois en 10 ans dans une revue très prestigieuse, étant donné qu’il y a une tendance naturelle à plus citer, à valeur égale, les articles venant des revues les plus prestigieuses (le facteur publicité et branding).

    • En passant, avis aux journalistes, qui ont tendance à ne carburer qu’à Science, Nature, Cell, PNAS, the Lancet et the New England Journal of Mecicine. Sauf que je ne peux les blâmer, puisque de tels journaux publient effectivement une très bonne proportion des articles qui sont parmi les 1 % les plus cités. Mais il faut savoir ne pas snober un article publié ailleurs.

      Le gros avantage des revues les plus prestigieuses: on peut immédiatement faire l’hypothèse que l’article a une grande valeur alors que pour un article publié dans une revue plus près de la moyenne il faut attendre au moins 3 ou 4 ans avant de savoir si l’article est fréquemment cité..

    • Verra-t-on un jour un système efficace de libre accès?

      http://www.youtube.com/watch?v=L5rVH1KGBCY&feature=share

    • Ok, je suis complètement à côté de la plaque, mais faut que je le dise à quelqu’un: Les supersymétries, c’est finiiiiiiii!

      L’expérience LHCb vient d’observer un mode de désintégration rare du quark de beauté qui infirme la plupart des théories supersymétriques (SUSY) et l’existence des particules supersymétriques et reconfirme le modèle Standard (Weinberg-Salam-Glashow).

      http://www.bbc.co.uk/news/science-environment-20300100

      J’attends un retour d’appel pour en parler ici. Je vous promets un billet pour demain.
      JFC

    • Je suis tout à fait d’accords avec honorable. Le facteur d’impact ne veut pas dire grand chose, si ce n’est que les arbitres font plus ou moins bien leur travail. S’il y a quelque chose qui devrait être évaluer c’est bien cela.

      Cette semaine ma moyenne de rejet est passée à 64%. Je suis épaté de voir le genre d’article que certains «chercheurs» tentent de faire publier. Le pire, c’est que j’ai dû rejeter un article qui avait été modifié après un premier rejet et aucun des commentaires des arbitres ne portaient sur les points que j’ai identifié sur la version révisée. J’ai un copain qui m’a raconté avoir eu exactement le même genre d’expérience avec un article qu’il avait révisé.

    • Une manière d’augmenter artificiellement le facteur d’impact d’un journal scientifique est d’inclure de nombreuses revues (review article) parmi les articles acceptés. C’est ce que font d’ailleurs nombre des revues “prestigieuses”. Les articles de revue sont, à vue de nez, aisément citées 3 ou 4 fois plus souvent que les articles de recherche.

      Quand un journal contient 10 ou 20 % d’articles de revue, cela fait monter à la hausse son facteur d’impact. Un journal typique contient, je dirais, moins de 2 % des articles qui seront des revues.

    • “à la hausse” était superflu, évidemment…

    • Je lisait avec beaucoup d’intérêt les échanges sur le facteur d’impact et les biais dans les citation , bien que je soit depuis longtemps assez loin de l’action directe et moins au fait du sujet , je ne peut m’emêcher de faire un lien entre la tendance éénoncé et la pratique intensive de la ”convergence ” dans les médias généraliste …

      Plusieurs chaines ( elsevier ex ) multiplient les titre sur des sujets semblables ( presque en double ) … y aurait -il une sorte de pratique de la convergence dans les revues scientifique ….

      Et l’unanimité rare entre Honorable et Yvan Dutil nous laisse deviner l’ampleur du problème…! :-)

      Quand on voit l’importance démesuré que prend dans les médias généraux un fait aussi banal que le dernier lécheage profond d’agmydale à Occupation Double on ne peut que constater l’exération auquel cela conduit … Que la science nous en préserve!

    • @honorable Dans le domaine de l’énergie, il y a une revue qui s’appelle Renewable and Sustainable Energy review. Son facteur d’impact est de 6,6, ce qui est à peu près 3x, celui des autres revues du domaine. Comme un bon article de revue peut facilement avoir quelques dizaines de citations, le reste doit être vraiment de la scrap. Ceci dit, il parait que la majorité des articles scientifiques ne sont jamais cités!

    Vous désirez commenter cet article?   Ouvrez une session  |  Inscrivez-vous

    publicité

  • Catégories



  • publicité





  • Calendrier

    novembre 2012
    D L Ma Me J V S
    « sept   déc »
     123
    45678910
    11121314151617
    18192021222324
    252627282930  
  • Archives