Aller au contenu principal

Mesures de collaboration

Présentation

Les mesures de collaboration (ou co-publication) sont classées parmi les indicateurs relationnels au même titre que les co-citations ou la co-occurrence des termes.

La collaboration est considérée une des compétences clé dans la recherche scientifique. Elle peut être un critère essentiel dans l’évaluation académique (embauche et promotion), en autant que les collaborations intra-muros (entre les membres du même établissement) et extra-muros (inter-établissements et inter-pays) impactent le prestige des universités, la mobilité des chercheurs et chercheuses et l’engagement des fonds. La collaboration joue un rôle important dans le classement mondial des universités, comme c’est le cas du classement de l’Université de Leiden.

Créateur(s)

De Solla Price et Beaver ont posé les fondements théoriques de la co-publication dans l’édition scientifique. Le calcul a évolué au fil du temps (voir la section Historique plus bas).

Objectif

Ces mesures visent à établir la proportion des publications scientifiques collaboratives dans chaque domaine de connaissances et dans l’ensemble de l’écosystème éditorial.

De par le dépouillement des auteurs et autrices cosignataires, il est également possible d’établir un index collaboratif et de cerner les individus les plus influents.

Article(s) fondateur(s)

De Solla Price, D. J. et Beaver, D. (1966). Collaboration in an invisible college. American Psychologist, 21(11), 1011‑1018. https://doi.org/10.1037/h0024051

 

Historique

L’analyse de la collaboration scientifique est un volet important de la scientométrie en raison de la prépondérance de la co-publication dans l’ensemble des champs scientifiques (Glänzel & Schubert, 2005). Elle repose toutefois sur les pratiques éditoriales d’attribution et de répartition du crédit auctorial, phénomène qui est tout sauf uniforme. La recherche collaborative a été étudiée par des sociologues, historiens, économistes et philosophes sous différents angles, avec différents méthodes et objectifs.

Le sociologue De Solla Price a été le premier à sonder la collaboration scientifique. Dans son ouvrage "Little Science, Big Science" (1966), Price emploie le terme invisible colleges (collèges invisibles) pour désigner les communautés informelles d'universitaires et de professionnels qui partagent des publications et des idées sans égard aux limitations géographiques ou au rattachement institutionnel.

Toutefois, on doit à Beaver et Rosen (1978, 1979) les premiers essais historiques et sociologiques sur la co-publication, entendue comme une opportunité de reconnaissance et d’avancement à l’intérieur des communautés savantes et comme facteur multiplicateur de la productivité. Selon eux, la recherche collaborative remonte au XVIIe siècle et a pris de l’ampleur au XIXe siècle, à l’époque où débute la professionnalisation de la science.

Toujours à la fin des années 1970, on voit paraître les premières analyses statistiques à grande échelle sur la fréquence des articles coécrits. Elles démontraient la haute corrélation entre la collaboration et la productivité de la recherche, ainsi qu’entre la collaboration et le financement de la recherche; le degré de collaboration semble varier d’une discipline à l’autre et être tributaire de l’infrastructure économique et politique.

L’étude de Frame et Carpenter (1979) révélait, à partir des données d’adresses de Science Citation Index (SCI), que 163 pays sur 167 avaient contribué, depuis 1973, avec au moins un article « international » aux revues indexées dans la base de données. La méthode de calcul était un ratio entre le nombre d’articles co-signés avec au moins une personne autrice étrangère et l’ensemble d’articles correspondant à un pays (foreign co-authorship ratio), ratio qu'on décrivait comme l’indice de « coopération » des pays. Cette étude illustrait également que la proportion de la collaboration internationale est inversement proportionnelle à la taille de la communauté scientifique nationale. Pour ce qui est des particularités disciplinaires, les sciences fondamentales (physique, mathématiques, chimie) seraient plus portées à la collaboration inter-pays que les sciences appliquées (ingénierie, biomédecine, etc.).

Schubert et Braun (1990) poursuivaient cette investigation et avançaient le premier classement des 36 pays les plus « productifs » pour l’intervalle 1981-1985, dans ce qu’on a appelé Cooperation index :

The 36 most productive countries ranked by cooperation index

Il faudra toutefois attendre l’arrivée des index bibliographiques multidisciplinaires en ligne dans les années 2000 pour voir se multiplier les études d’envergure sur des réseaux collaboratifs, nationaux et internationaux.

En utilisant les données bibliométriques de Web of Science, certains ont adapté le modèle des réseaux de co-citations aux réseaux de co-autorat. Si les nœuds d’un réseau de citations sont les articles, les nœuds d’un réseau de co-autorat sont les signataires des articles (voir exemple ci-dessous). L’étude des collaborations par le biais de la théorie des réseaux permet d’identifier les auteurs, autrices et pays les plus collaboratifs et le degré de collaboration (nombre de publications communes); vues sur une période, ces collaborations révèlent la croissance, le déclin, voire la disparition de certains sujets, ou encore les mutations à l’intérieur d’une communauté de recherche.

Graphique représentant deux réseaux de citation

Dans une carte relationnelle, la distance entre les nœuds traduit la force de la relation (nombre de publications en commun). La centralité d’un nœud (Author 2 dans la figure ci-dessus) est reliée à l’intensité de la collaboration (nombre de connections avec d’autres nœuds).

Définitions et principes

La co-signature d’un article est la marque par excellence de la collaboration entre deux ou plusieurs personnes autrices et, implicitement, entre différents établissements. L’étude sur la collaboration peut se faire à plusieurs niveaux, en fonction de l’entité étudiée : individu, institutions, pays, groupe de pays, régions, revues, publications individuelles, champs et sous-champs disciplinaires.

L’étude de la collaboration repose sur les coordonnées de l’auteur ou l'autrice, plus précisément sur l’affiliation institutionnelle telle qu’elle apparaît dans la signature éditoriale. Or, la co-signature n’est pas une garantie de la contribution (voir la paternité honorifique ou honorary co-authors) et ne reflète pas le degré de contribution de chacun. D’un autre côté, toutes les personnes contributrices ne reçoivent pas nécessairement le crédit de la paternité intellectuelle.

On distingue trois principales méthodes de comptage :

  • Comptage intégral (Complete count ou Total count) = chaque auteur et autrice obtient crédit égal, sans égard au nombre de signataires;
  • Comptage linéaire (Straight count) = seulement la première personne autrice reçoit le crédit, car elle est considérée la contributrice principale;
  • Comptage fractionnaire (Adjusted count) = 1 crédit est divisé par le nombre de signataires (lorsqu’il y en a deux, chacun reçoit un crédit de 0,5; lorsqu’il y en a 5, chacun reçoit 0,2, etc.).

Le comptage intégral a reçu le plus d’adhésion dans la littérature; cette méthode est la plus fréquente dans les études bibliométriques sur la co-publication.

Plusieurs formules et méthodes de calcul de la collaboration ont été proposées au fil du temps.

Pour comparer l’intensité de la collaboration dans deux champs d’études ou bien pour voir l’évolution de la co-publication à l’intérieur d’un champ, deux méthodes ont été développées au début des années 1980 :

  • la moyenne des collaborations par publication dans un secteur de recherche (Collaborative Index ou l’index de collaboration de Lawani)
  • la proportion des publications collectives (Degree of collaboration, ou le degré de collaboration de Subramanyam)

Le Collaborative Index (CI) de Lawani est calculé comme suit :

CI=  (∑_(j=1)^k▒〖1/j f_j 〗)/N


CI = index des collaborations (Collaborative Index);
N = nombre total d’articles publiés dans une discipline sur une certaine période;
fj = nombre d’articles écrits par j-auteurs ou autrices dans une discipline;
k = le plus grand nombre de collaborations dans une discipline.

Selon Subramanyam (1983), le degré de collaboration (DC) à l’intérieur d’un champ d’étude peut être mesuré selon la formule :

DC=1-f1/N

Cette mesure est plus facile à interpréter puisque le résultat se situe entre 0 et 1, la valeur nulle étant toujours attribuée aux publications d'une seule personne autrice.

Ajiferuke et al. (1988) ont critiqué les deux indicateurs antérieurs pour leur application limitée. On proposait en retour un coefficient de collaboration (CC) qui pourrait être appliqué lors du calcul fractionnaire (division du crédit entre plusieurs auteurs et autrices) et donc différencier entre différents niveaux de collaboration.
CC=1-(∑_(j=1)^A▒f_j/j)/N
Plus proche est le CC de 1, plus forte est la collaboration; inversement, plus la valeur du coefficient est proche de 0 moins il a de collaboration.

Avec Egghe (1991), on voit la nécessité d’adopter une mesure normalisée de calcul pour des analyses plus granulaires, en utilisant la méthode visuelle des graphes. Son coefficient de collaboration normalisé se calcule comme suit :
〖CC〗^*=A/(A-1)(1-(∑_(j=1)^A▒f_j/j)/N)


CC* = coefficient de collaboration normalisé;
A = nombre de collaborateurs et collaboratrices

Les trois méthodes de calcul peuvent être combinées, tel qu’illustré par le tableau ci-dessous.

Tableau présentant le coefficient de collaboration, l'index de collaboration et le degré de collaboration

On peut adopter ce modèle de présentation matricielle aux revues, aux auteurs et autrices ou aux institutions.

Toutefois, la méthode la plus populaire dans les études bibliométriques récentes (depuis 2010) est celle des cartographies. Les cartes peuvent être produites à l’intérieur des agrégateurs comme SciVal ou Dimensions ou à l’aide des logiciels dédiés comme Gephi ou VOSviewer.

Exemple de réseau collaboratif créé avec VOSviewer :

Réseau collaboratif présenté en cartographie à l'aide de VOSviewer

 

Points forts et précautions

Points forts

  • Mise en lumière des affinités intellectuelles et/ou des cohésions sociales entre les scientifiques, malgré le manque d’information sur les raisons d’une telle cohésion;
  • Identification des spécialités phares ainsi que des individus, voire des établissements, les plus éminents dans chaque domaine;
  • Comparaisons chronologiques faisant également ressortir l’évolution des habitudes collaboratives sur une certaine période.

Points faibles et précautions

  • Analyse des publications collectives par champ disciplinaire dépendant grandement des critères de classification des revues (catégories thématiques pouvant varier d’un répertoire à l’autre);
  • Abus potentiels de la part des auteurs et autrices : népotisme, favoritisme, etc.
  • Aucune prise en compte des différents degrés de contribution (p. ex: saisie de données vs pilotage d’une équipe de recherche) et donc du réel niveau de performance et d’implication;
  • Manque de fiabilité quant à l’affiliation des chercheurs et chercheuses (p. ex: changement d’employeur, affiliations multiples, statut de chercheur ou chercheuse invité·e);
  • Analyse bibliométrique limitée à la publication, une forme d’expression de collaboration parmi plusieurs autres.

Références

Abramo, G., D’Angelo, C. A. et Rosati, F. (2014). Relatives in the same university faculty: nepotism or merit? Scientometrics, 101(1), 737‑749. https://doi.org/10.1007/s11192-014-1273-z
Ajiferuke, I., Burell, Q. et Tague, J. (1988). Collaborative coefficient: A single measure of the degree of collaboration in research. Scientometrics, 14(5), 421‑433. https://doi.org/10.1007/BF02017100
Andrés, A. (2009). Measuring academic research: how to undertake a bibliometric study. Chandos Publishing.
De Solla Price, D. J. et Beaver, D. (1966). Collaboration in an invisible college. American Psychologist, 21(11), 1011‑1018. https://doi.org/10.1037/h0024051
Ebadi, A. et Schiffauerova, A. (2015). How to become an important player in scientific collaboration networks? Journal of Informetrics, 9(4), 809‑825. https://doi.org/10.1016/j.joi.2015.08.002
Egghe, L. (1991). Theory of collaboration and collaborative measures. Information Processing & Management, 27(2), 177‑202. https://doi.org/10.1016/0306-4573(91)90048-Q
Gauffriau, M., Larsen, P. O., Maye, I., Roulin-Perriard, A. et von Ins, M. (2007). Publication, cooperation and productivity measures in scientific research. Scientometrics, 73(2), 175‑214. https://doi.org/10.1007/s11192-007-1800-2
Glänzel, W. et Schubert, A. (2005). Analysing Scientific Networks Through Co-Authorship. Dans H. F. Moed, W. Glänzel et U. Schmoch (dir.), Handbook of Quantitative Science and Technology Research (p. 257‑276). Kluwer Academic Publishers. https://doi.org/10.1007/1-4020-2755-9_12
Hamers, L., Hemeryck, Y., Herweyers, G., Janssen, M., Keters, H., Rousseau, R. et Vanhoutte, A. (1989). Similarity measures in scientometric research: The Jaccard index versus Salton’s cosine formula. Information Processing & Management, 25(3), 315‑318. https://doi.org/10.1016/0306-4573(89)90048-4
Katz, J. S. et Martin, B. R. (1997). What is research collaboration? Research Policy, 26(1), 1‑18. https://doi.org/10.1016/S0048-7333(96)00917-1
Laudel, G. (2002). What do we measure by co-authorships? Research Evaluation, 11(1), 3‑15. https://doi.org/10.3152/147154402781776961
Lawani, S. M. (1980). Collaboration and the quality of research productivity. IITA Research Briefs, 1(3), 6‑8.
Lundberg, J., Tomson, G., Lundkvist, I., Sk?r, J. et Brommels, M. (2006). Collaboration uncovered: Exploring the adequacy of measuring university-industry collaboration through co-authorship and funding. Scientometrics, 69(3), 575‑589. https://doi.org/10.1007/s11192-006-0170-5
Rostaing, H. (1996). La bibliométrie et ses techniques. Sciences de la Société. https://hal.archives-ouvertes.fr/hal-01579948
Schubert, A. et Braun, T. (1990). International collaboration in the sciences 1981–1985. Scientometrics, 19(1‑2), 3‑10. https://doi.org/10.1007/BF02130461
Subramanyam, K. (1983). Bibliometric studies of research collaboration: A review. Journal of Information Science, 6(1), 33‑38. https://doi.org/10.1177/016555158300600105