Qui veut parler des origines de la bibliométrie devra d’abord parler de scientométrie; et qui veut parler de scientométrie commence inévitablement par aborder les origines de la production scientifique, son objet d’étude.
Les racines de la bibliométrie remontent à 1665, année où l’on voit apparaître les deux premières revues scientifiques : le Journal des Sçavans en France et, quelques mois plus tard, les Philosophical Transactions en Angleterre (Harmon & Gross, 2007). Fondée par Denis de Sallo, conseiller au parlement de Paris et amateur de sciences, la première de ces revues présentait essentiellement des comptes-rendus de ce qui se faisait ailleurs en Europe et devint le lieu principal de publication de l’Académie royale des Sciences de Paris. Parallèlement, les Philosophical Transactions se voulaient des rapports publiés d’une vingtaine de pages relatant des expérimentations de la Royal Society of London (mais aussi d’autres pays tels la France, les Pays-Bas et l’Allemagne).
De Paris à Londres, en passant par une Italie aux revues savantes nombreuses mais éphémères, la production scientifique semblait déjà là pour rester à la fin du XVIIe siècle (Waquet, 1983). Le XVIIIe siècle allait d’ailleurs bien donner suite à cette lancée. À en croire Gisbert Cuper, contemporain de l’époque, historien académique néerlandais et farouche défenseur de la Bibliothèque de l’Athenaeum de Deventer, le XVIIIe siècle pouvait même être proclamé « siècle des journaux » (Cuper, 1743). Le XIXe siècle n’allait pas ralentir la cadence, bien au contraire : le nombre de revues savantes allait décupler deux fois en l’espace de cent ans : soit de 100 à 1000 entre 1800 et 1850 puis jusqu’à 10 000 à l’aube de 1900 (Chaubert et Martin, 2011).
Cette production de plus en plus foisonnante d’écrits scientifiques n’avait toutefois guère les formats qu’on connaît aujourd’hui. Elle était plutôt irrégulière et inconstante dans la présentation explicite de ses méthodes, limitant souvent les articles à quelques paragraphes qui décrivaient des rapports de découvertes tout en laissant souvent le lectorat sur sa faim quant aux détails graphiques ou aux équations élaborées pour éclairer le sujet.
C’est l’aube du XXe siècle qui nous fera voir les premiers écrits arborant un acabit qui nous est plus familier. La période qui précède ce dernier ayant vu naître un développement industriel avec une vitesse fulgurante, ses conséquences auront permis de réduire les coûts dispendieux d’impression des figures et des équations illustrées dans les articles pour ainsi mieux transmettre à grande échelle les démonstrations des découvertes savantes.
C’est aussi au début du XXe siècle qu’on voit les premières publications scientifiques traiter de… publications scientifiques. La scientométrie va effectivement faire ses premiers pas avec les travaux respectifs d’Alfred James Lotka et de Samuel Clement Bradford; le premier étant un mathématicien américain et le second, un bibliothécaire mathématicien d’Angleterre. On doit à ces deux hommes les premières lois à l’origine de la bibliométrie. Publiée en 1926, celle de Lotka va s’intéresser à l'autorat et établira que pour un domaine donné, moins d’un tiers des chercheurs et chercheuses publie plus d’un article; confirmant ainsi que dans toute discipline traitée, ce sera une minorité de spécialistes de ce domaine qui domineront les statistiques en nombre de publications (Lotka, 1926).
En 1934, Bradford ajoutera sa contribution traitant cette fois des revues savantes elles-mêmes. Il fera la démonstration pratique qu’approximativement 33% des articles d’un domaine d’étude seront regroupés dans un nombre réduit de revues, alors que les deux autres tiers seront répartis exponentiellement dans un corpus de périodiques de plus en plus variés (Bradford, 1934). Ainsi naîtra la problématique de la rentabilité du nombre d’abonnements pour les bibliothèques cherchant à servir des publics spécialisés dans une discipline.
Le mérite d’officialiser la scientométrie comme discipline à part entière revient toutefois à quatre autres individus : l’Américain Eugene Garfield, le Britannique Derek John de Solla Price, le Russe Vassily Vassilievich Nalimov et le Hongrois Tibor Braun.
On doit à Garfield d’avoir publiquement initié en 1955 la réflexion sur la création d’un index de citations pour les revues savantes en prenant pour modèle le Shepard’s Citator : seul index de citations en existence, lequel était utilisé par le Barreau et la Cour des États-Unis depuis 1873; il couvrait l’ensemble des décisions judiciaires du pays (Wouters, 2006). Son idée semée, le linguiste et chimiste de formation allait lentement mais sûrement en faire un projet aboutissant à la création de l’Institute for Scientific Information (ISI) entre 1956 et 1961. C’était le coup d’envoi pour développer un système mesurant la production littéraire scientifique en se basant sur les citations d'autres travaux dans chaque document produit.
Éminent historien des sciences et collègue très intéressé de Garfield par son projet, Price fut parmi les premiers à siéger dans le comité directeur de l’ISI dès sa création. De ce fait, c’est lui qui déclenche la seconde étape de la naissance officielle de la scientométrie. Price théorise l’idée d’une science des sciences avec un premier ouvrage qu’il publie en 1963 : Little Science, Big Science.
Ce livre influent deviendra la pierre d’assise d’une définition de la scientométrie alors que son auteur y énonce les quatre lois mathématiques qui la composent : celle voulant que le volume des publications scientifiques soit voué à constamment augmenter; celle annonçant que cette même augmentation connaîtra tôt ou tard des limites logistiques liées aux producteurs de ces publications; celle affirmant qu’une élite plutôt improductive de la communauté scientifique profitera de la productivité globale de ce phénomène; enfin, la loi stipulant que des collèges invisibles de scientifiques seront issus de la production littéraire scientifique déployée (Price, 1963).
En dépit de toutes ces qualités référentielles aux principes de la scientométrie, pas une seule fois Price n’y mentionne le mot dans son livre. C’est plutôt avec Nalimov que le terme apparaît sous forme russe pour la première fois en 1969, lorsqu’il publie l’article intitulé "Naukometrya". Statisticien et polyglotte, Nalimov embrasse la scientométrie après avoir lu un article en italien de Price en 1966. Il se fixe alors l’objectif de proposer un modèle mathématique et informationnel où l'examen des citations au sein des publications constitue un critère essentiel à prendre en compte. Suivant les enseignements de Price, et tissant au passage des liens avec Garfield, Nalimov finit par développer son “collège invisible”, où il contribue à créer des échanges entre scientifiques de l’Europe de l’Est. Parmi eux figure le chimiste Tibor Braun. Avec l’aide de Nalimov, qui le présentera à son tour à Garfield et Price, il fondera et présidera en 1978 le premier véhicule officiel de la science des sciences: la revue Scientometrics.
Le pas à faire entre Scientométrie et Bibliométrie s’est pratiquement emboîté en même temps que les fondements officiels de la première. Comme la scientométrie, la bibliométrie connaît l’envol de sa nomenclature en 1969, quand l’Américain Alan Pritchard utilise le terme dans son article “Statistical Bibliography or Bibliometrics?”. Le bibliothécaire et pionnier de la littérature informatique y définit son sujet comme l’application des mathématiques et des statistiques à la production littéraire et aux médias de communication (Pritchard, 1969). Mais le titre de l’article de Pritchard trahit aussi l’usage des pratiques bibliométriques bien avant les déclarations de l’auteur. On peut effectivement retrouver l’usage des statistiques bibliographiques aussi loin qu’au XIIe siècle, dans la création d’index de citations bibliques (Weinberg, 1997). Quant au terme bibliométrie, c'est en fait à Paul Otlet qu’on doit véritablement son premier emploi. Ce précoce visionnaire belge des sciences de l’information utilise le mot dans son Traité de la documentation en 1934, alors qu’il le définit par la mesure de la quantité produite de livres chez chaque éditeur (Otlet, 2021). La contribution de Pritchard sera finalement de mettre à jour une pratique qui, à l’époque où il publie son article, commence à prendre une importance fondamentale et percutante dans le monde des sciences.
L’émergence de la scientométrie, à laquelle se collera celle de la bibliométrie, coïncide avec un moment clé de l’histoire des sciences : les années de l’après-guerre. Pour encourager les innovations qui étaient entrées officiellement dans l’ère informatique durant la Seconde Guerre mondiale, les gouvernements et institutions scientifiques prennent de plus en plus part aux efforts de recherche et développement. Les politiques et investissements qui en résultent vont accélérer la production scientifique et voir une commercialisation de plus en plus active de la science. La propriété intellectuelle est alors devenue un enjeu incontournable par l’entremise d’une prolifération de brevets et d’articles savants (Hetu, 2018). C’est conséquemment à cette nouvelle réalité, où la performance trouve un terrain de jeu vierge, que s’arriment des nouveaux outils de mesure pour bien s’orienter et mesurer l’impact des avancées. Ainsi est interpellée la bibliométrie. Le Science Citation Index (SCI) de Garfield allait alors trouver une vocation tangible, utilitaire et profitable, au point d’éventuellement exercer une influence sur la science.
Lorsqu’il est lancé officiellement en 1964, le SCI offre un moyen de faire la démonstration pragmatique des théories scientométriques que Price publiait l’année d’avant. Son apparition arrive aussi avec les débuts de l’automatisation en milieu bureaucratique grâce aux premières intégrations professionnelles des ordinateurs à partir du milieu des années ‘60. Le momentum de Garfield ne pouvait mieux tomber pour mettre en œuvre ses ambitions de mesurer la production scientifique dans toute sa diversité; chose qui était difficilement envisageable à court terme sans l’aide de l’informatique. Combinée à cette dernière, la bibliométrie permettait de décloisonner les domaines scientifiques auparavant très compartimentés et rarement comparés entre eux dans leurs corpus de publications respectives. Le premier impact scientifique de la bibliométrie allait donc être de rendre possible le tracé d’un portrait du monde des sciences qui n’avait jamais été représenté auparavant, offrant une passerelle incontournable pour faciliter les orientations de la politique de recherche (Pontille et Torny, 2013).
Le deuxième impact scientifique de la bibliométrie arrive en 1975, lorsque le SCI produit son premier exemplaire du Journal of Citation Reports (JCR). Ce document marquera un tournant décisif : par les résultats publiés résultant des algorithmes mesurant les citations, il proposera de comparer les revues elles-mêmes et non plus les articles des revues, comme on le faisait auparavant (Pontille et Torny, 2013). Ce changement de cap permettra aux revues moins notoires de se mettre en valeur. Les citations qu’on leur associera allaient désormais primer sur les auteurs, les autrices et les articles cités; de même, une hiérarchie plus officielle de revues savantes allait commencer à voir le jour. Cette hiérarchie trouvait en effet avec le JCR une référence plus universellement acceptée que le jugement des pairs sur la qualité d’une revue dans un domaine scientifique donné (Pontille et Torny, 2010).
On voit le troisième impact se manifester dans les années ‘80, alors que la communauté scientifique reconnait progressivement le potentiel inhérent à l'existence de bases de données d'articles savants. Réalisant que la collecte des références incluses dans ces articles donne une vue d'ensemble du paysage scientifique à étudier, elle souhaite maintenant concrétiser à l’échelle planétaire la vision que Garfield avait eu 20 ans plus tôt. C’est dans cette mouvance que les premiers groupes de recherche bibliométrique engagés dans l'évaluation sont créés. Au groupe pionnier fondé aux États-Unis en 1968 par Francis Narin, soit Computer Horizons Inc. Research (devenu The Patent Board en 2003), s'ajoutent désormais des équivalents en Angleterre (le Science Policy Research Unit de la University of Sussex), aux Pays-Bas (Université de Leiden), en Australie (Université nationale australienne), en Espagne (Centre d’Information et de Documentation scientifique du CISC de Madrid) et en Hongrie (Information Science and Scientometric Research Unit à la bibliothèque de l'Académie hongroise des sciences) (Hicks et Melkers, 2013).
Lorsqu’en 1986, le gouvernement des États-Unis fait valoir par l’entremise de l'Office of Technology Assessment que les indicateurs bibliométriques peuvent être utiles dans l'évaluation de la recherche, le quatrième et dernier impact scientifique de la bibliométrie commence alors à se confirmer (OTA, 1986). À compter des années ‘90, on constate effectivement une tendance de plus en plus affirmée d’imposer aux membres de la communauté de la recherche de publier dans les revues les plus réputées. C’est le cas notamment pour la Deutsche Forschungsgemeinschaft (DFG), qui encourage les candidats et candidates à soumettre leurs cinq articles publiés ayant reçus le plus de citations, ou encore pour l’Australian Research Council (AFC), qui s’en remet aux outils bibliométriques plutôt qu’aux opinions par les pairs lorsque vient le temps de choisir des personnnes éligibles (Bornmann et Leydesdorff, 2014).
Avec l’arrivée d’Internet et de sa révolution numérique en 1991, le JCR est voué à prendre la forme de Web of Science: une base de données mise en ligne en 1997 dont l’accès conféré aux milieux académiques permet de rendre dramatiquement plus accessibles et nombreuses les expérimentations sur la mesure des sciences. Mais l’Internet ouvre aussi tout un monde de possibilités. De nouveaux joueurs vont ainsi remettre en question les balises établies par Garfield, retraçant l’échiquier des références à suivre pour mesurer le prestige scientifique tout en élargissant l’envergure de ce qui peut être mesuré.
Deux de ces nouveaux joueurs s'imposent sérieusement à partir de 2004 : le longuement établi et réputé éditeur scientifique Elsevier d’une part, la jeune et ambitieuse entreprise technologique Google de l’autre. On voit chez le premier l’apparition de Scopus, outil bibliométrique qui se veut le concurrent direct de Web of Science en comblant de nombreuses lacunes remarquées avec l’outil de l’ISI. Mais pour s’assurer de participer à l’impact scientifique déjà entamé, la stratégie principale d'Elsevier sera surtout d’être plus exhaustif dans l’indexation des revues pour sa base de données : en plus d’accepter les revues que son compétiteur considérait comme trop marginales pour être indexées, l’éditeur néerlandais s'efforce plus que l’ISI de couvrir les revues en sciences humaines et sociales ainsi que les revues dans une langue autre que l’anglais (Pontille et Torny, 2013).
Au même moment où Elsevier lance Scopus, Google propose Scholar : son outil de recherche spécialisé dans la publication exclusivement académique et scientifique. Si son peu d’options de tri et de mesures trahit un manque de rigueur et le fait qu’il n’est pas a priori conçu à des fins bibliométriques, Scholar permet tout de même de suivre les productions citantes et citées (Giles, 2005). De ce fait, Google fera compétition à Web of Science et à Scopus sur essentiellement deux fronts : sa gratuité (les deux autres outils étant coûteux) et son impressionnante exhaustivité, laquelle va indexer littéralement toute production numérique savante en texte intégral, archivée sur des sites personnels ou dans des dépôts institutionnels, et ce, quels que soient la langue et le genre de document (Pontille et Torny, 2013).
La bibliométrie prend racine dans une réalité qui fut toujours fondamentale pour légitimer la science : le fait de communiquer ses découvertes. Pour avoir un impact, cette communication se doit d’être diffusée, évoquée et rediffusée; elle doit faire écho dans les milieux concernés et chez les personnes intéressées. Or avant l’arrivée de l’ISI et la genèse du JCI en 1961, il n’existait aucune unité de mesure calculée pour évaluer la portée de diffusion de ces échos, qui sont en fait des citations.
Cependant, de premières approches systémiques pour mesurer les publications scientifiques avaient déjà été tentées bien avant 1961. Ce n'étaient pas les citations, mais plutôt la production des revues qui était alors observée. La plus ancienne de ces approches connue remonte à 1903 aux États-Unis (Cattell, 1903). Elle est le fruit de James McKeen Cattell, tout premier professeur universitaire de psychologie du continent nord-américain et éditeur de la revue Science de 1895 à 1944. Intrigué qu’il était sur la productivité des chercheurs et chercheuses de son pays partageant son domaine d’étude pour les comparer à ceux de l’Europe, là où la psychologie comme discipline était née, Cattell s’est attaqué à l’index des 25 volumes de la revue Zeitschrift für Psychologie. En y examinant et triant les milles premières références, il constata notamment que les États-Unis publiaient davantage de rapports d’expérience, mais que la France et l’Allemagne dominaient sur le nombre d’essais théoriques (leurs nombres d’articles du genre étant le double de ceux des chercheurs américains) (Godin, 2006).
En Angleterre de 1917, les zoologistes Francis Joseph Coles et Nellie Barbara Eales ont également fait figure de précurseurs en publiant une étude statistique sur la littérature anatomique produite entre 1850 et 1860 pour montrer ses fluctuations dans la publication scientifique (Rostaing, 1996). Dix ans plus tard, un couple californien formé de deux spécialistes de chimie au Pomona College, Paul Luther Karl et Elsa Mae Gross, établissent les premières véritables pratiques bibliométriques comme on les connaît aujourd’hui. Le couple Gross comptabilise en effet les citations (excluant les auto-citations) émises avant 1926 dans le Journal of American Chemical Society (Gross et Gross, 1927). Triant ensuite les revues recensées en ordre décroissant du nombre de citations reçues, les Gross établissent pour la première fois un outil bibliométrique servant à la gestion de collections d’une bibliothèque basée sur l’impact des revues à retenir. Dans les vingt-cinq années qui ont suivi, ce ne sont pas moins de dix-huit autres scientifiques, provenant des États-Unis, qui ont calqué l’initiative des Gross pour d’autres domaines de recherche (Archambault et Larivière, 2009).
Si l’utilité des avancées du couple Gross est indéniable, ces dernières demeurent toutefois laborieuses et exigeantes de temps investi tout en se ne limitant exclusivement qu’au domaine de la chimie. Il en va de même pour les scientifiques qui leur succèderont dans leurs autres domaines respectifs. Ce que Garfield propose en 1963 va pallier ces restrictions alors qu’avec son collègue Irving H. Sher, il définit pour le première fois à quoi ressemble ce qu’il appelle le Facteur d’Impact de Revue (FI, ou en anglais Journal Impact Factor ou JIF) :
Dans les méthodes habituelles de décompte des citations… l'importance d'une revue est déterminée par le nombre absolu de citations qu'elle contient. Cependant, ce décompte reflète en grande partie le fait que plus d'articles sont publiés dans cette revue que la plupart. Cette approche n'est pas beaucoup plus sophistiquée que de classer l'importance d'une revue en fonction de la quantité d'articles publiés. La première étape pour obtenir une mesure d'importance plus significative consiste à diviser le nombre de fois qu'une revue est citée par le nombre d'articles qu'elle a publiés (Garfield et Sher, 1963).
Cette lancée officielle du facteur d’impact demeure toutefois incomplète : les auteurs n’y précisent pas à combien d’années de publications le facteur d’impact doit s’appliquer pour une revue donnée. Entrent alors en scène deux spécialistes britanniques des sciences de l'information : John Martyn et Alan Gilchrist. En 1968, ils publient les résultats d’une expérience qui testa le Facteur d’Impact de Garfield à même les notices trouvées dans le JCI, et ce, afin d’y dresser une liste hiérarchique des revues britanniques les plus citées en sciences et technologies pour l’an 1965. N’ayant aucune balise temporelle prescrite pour leur expérience, ils ont tout naturellement opté pour une fenêtre de 2 années antérieures à l’année choisie. Afin de justifier leur choix, les deux auteurs ont évoqué l'économie en temps et en ressources pour obtenir les données. (Martyn et Gilchrist, 1968). Même si elle n'optimise pas un portrait bibliométrique qui aurait donné des résultats plus rigoureux avec une fenêtre de 5 ans, cette décision arbitraire fut reconnue par Garfield pour sa logique économique toute naturellement imposée. Dans Citation analysis as a tool in journal evaluation, un article phare qu’il publie en 1972 et qui présente plus substantiellement son Facteur d’Impact, le père de l’ISI et du JCI utilise d’autant plus cette fenêtre temporelle de 2 ans comme exemple et l’approuve implicitement comme un modèle à suivre (Garfield, 1972; Archambault et Larivière, 2009). Aussi, lorsqu’il lance le JCR trois ans plus tard, c’est avec cette même fenêtre temporelle de 2 ans que Garfield propose aux bibliothécaires et chercheurs d’utiliser son facteur d’impact pour mesurer les revues qu’il a indexées. Cette pratique restera la principale utilisée en bibliométrie pour les quarante années à suivre.
Le FI fait toutefois l’objet de nombreuses critiques dès ses premières années d’usage. Parmi ses reproches les plus tenaces, il faut noter son manque de rigueur à départager les degrés d’importance d’une citation à l’autre, traitant toutes ces dernières sur un même pied d’égalité sans tenir compte de leur provenance. Les citations de revues plus prestigieuses sont donc traitées de la même manière que celles de revues peu connues; un détail dont s’est soucié la National Science Foundation (NSF) qui n’a pas tardé à exiger une autre mesure d’impact plus adaptée aux orientations de son financement à la recherche.
La NSF a confié la création de cette mesure d’impact à l’ingénieur et chimiste américain Francis Narin qui, au sein de son entreprise Computer Horizons Inc. Research, avait les moyens et les outils pour “nettoyer” les données du SCI et organiser notamment les articles et revues selon les pays de provenance, disciplines, groupes de recherche, etc. Mais Narin avait surtout l’intention d’utiliser le SCI pour combler les lacunes du FI de Garfield. Le fruit de ses efforts paraît en 1976 dans Citation influence for journal aggregates of scientific publications: Theory, with application to the literature of physics, un article co-rédigé avec Gabriel Pinsky. Narin y fait alors état d’un algorithme pouvant calculer une mesure d’impact bibliométrique baptisée Influence Weight (IW) (Pinsky & Narin, 1976). Cet indicateur permet de repérer les revues de prestige en se basant sur le principe voulant que plus une revue est citée par une revue prestigieuse, plus cette revue devient à son tour prestigieuse (Narin, 1976). Aussi comblée que fût la NSF de ces résultats pour ses besoins, Narin les avait seulement expérimentés pour les domaines de la physique et de la biochimie (Pontille et Torny, 2013). Vu l’ampleur considérable de travail que la tâche avait exigée pour y arriver, l’ambition d’appliquer l’IW aux autres domaines scientifiques s’annonçait trop colossale pour satisfaire la demande de la NSF dans un court laps de temps. L’IW dut donc attendre les avancées de l’ère numérique des années ‘90 pour commencer à offrir une véritable première alternative au JIF.
C’est chez Google qu’on récupère l’algorithme de Narin pour le modifier et l’adapter afin qu’il devienne le PageRank : une mesure créée par le cofondateur de la célèbre compagnie, Lawrence Page, dans le but d’évaluer la fréquentation des pages web et leur popularité (Kleinberg, 1999; Page et al., 1999). Ce qui fait naître les webmetrics et les altmetrics est ensuite récupéré en 2006 en bibliométrie lorsque, dans son article Journal Status, l’expert en infométriques Johan Bollen remarque à quel point le PageRank serait pertinent s’il était adapté pour mesurer le prestige des revues scientifiques (Bollen, Rodriguez & Van de Sompel, 2006). L’IW refait alors surface et se voit vite converti puis subdivisé en deux variantes rapidement reconnues comme nouveaux standards de mesure d’impact : l’Eigenfactor d’abord, est proposé par le biologiste américain Carl T. Bergstorm en 2007 pour le compte de l’ISI et Web of Science; il est suivi du SCImago Journal Rank (SJR), présenté par Lisa Colledge et son équipe en 2010 au nom d’Elsevier et Scopus (Bergstorm, 2007; Colledge et al., 2010).
Avec le H-factor qui apparaît également en 2006 pour mesurer l’impact des auteurs et des autrices, la table était maintenant mise pour développer d’autres indicateurs d’impact dans la décennie qui allait suivre.
Texte produit à l'origine par Pierre Poissant Marquis, TÉLUQ.