Les préimpressions offrent une étape unique par rapport aux soumissions aux revues : l’itération des versions. Après avoir reçu des commentaires de lecteurs, des suggestions de collaborateurs ou une première évaluation critique, vous pouvez mettre à jour directement la préimpression en v2, v3, etc. Les revues traditionnelles ne disposent pas de cette étape, de sorte que presque personne ne vous enseigne comment la gérer.

Il en résulte que beaucoup de mises à jour v2 sont académiquement justifiées, mais le traitement du langage et de la structure est inadéquat, ce qui amène les lecteurs à penser « cette recherche subit des corrections répétées, elle n’est pas stable ». bioRxiv et medRxiv conservent publiquement toutes les versions historiques. Les lecteurs qui cliquent sur « version history » peuvent voir les différences à chaque mise à jour. La façon dont ces différences sont présentées affecte directement le jugement des lecteurs sur la fiabilité de la recherche.

Ci-dessous figurent les cinq erreurs les plus courantes commises par les auteurs non-natifs lors des mises à jour v2/v3. Chaque erreur est accompagnée d’exemples de révision directement applicables.


1. La version note écrite comme un journal de commit, les lecteurs ne voient pas quels sont les changements académiques

bioRxiv et medRxiv exigent que les auteurs remplissent une section « What’s new in this version » ou « Summary of changes » lors du téléchargement d’une nouvelle version. Ce texte, tout comme le résumé de v2, est un point clé sur lequel les lecteurs se basent pour décider s’ils doivent relire.

Nombreux sont les auteurs qui rédigent cette section comme un journal de commit : « Updated Figure 3. Added Supplementary Figure 5. Revised Discussion. » Les lecteurs ne savent pas distinguer les corrections de mise en page des mises à jour au niveau des conclusions.

Exemple typique :

Updated figures. Added new analysis. Revised text. Fixed typos. Updated references.

Ce passage est pratiquement vide de sens. Si un lecteur a déjà lu v1, il ne peut pas déterminer s’il a besoin de relire v2 complètement.

Stratégie de révision :

Classez la version note selon trois niveaux : « changements au niveau des conclusions / changements au niveau des données / changements au niveau du texte ». Les mises à jour au niveau des conclusions ou des principales conclusions viennent d’abord, avec une indication claire de leur impact ; les nouvelles données ou analyses viennent ensuite ; la mise en page, la terminologie et les références viennent en dernier.

Version révisée :

Changes in v2:

  • Primary conclusion unchanged. Main figures and effect sizes updated with n = 28 additional patients recruited between Oct 2025 and Jan 2026. HR for the primary outcome shifted from 2.1 to 2.4 (95% CI 1.5–3.8); direction and significance preserved.
  • Added a new sensitivity analysis (new Supplementary Figure S5) addressing confounding by prior treatment.
  • Revised Discussion to engage with feedback from preprint readers regarding generalizability; no new claims added.
  • Minor typographical and reference corrections.

Après cette lecture, les lecteurs savent : conclusions identiques, données élargies, Discussion étoffée. Ils peuvent directement décider s’il faut relire.


2. Le résumé et le texte de la nouvelle version ne sont pas cohérents

L’étape la plus sujette aux erreurs lors de la mise à jour v2 est la synchronisation du résumé avec le texte principal et les figures. Scénario typique : l’auteur ajoute des patients en réponse aux commentaires, met à jour la valeur de n et la taille de l’effet dans le texte, mais le résumé contient encore les anciens chiffres de v1.

Une fois que les lecteurs détectent cette incohérence par comparaison croisée, ils douteront immédiatement de toutes les données. C’est encore plus dommageable pour la crédibilité qu’une petite erreur dans v1.

Problème typique :

Abstract: We analyzed 186 patients with newly diagnosed type 2 diabetes… Methods: A total of 214 patients were enrolled (93 in the control arm and 121 in the intervention arm)…

Le 186 du résumé provient de v1, le 214 de Methods provient de v2. Les lecteurs qui découvrent cette incohérence perdront confiance dans l’ensemble de la recherche.

Stratégie de révision :

Avant de télécharger v2, effectuez une vérification spécifique de la cohérence numérique. Dressez une liste de ces catégories de chiffres et vérifiez que chaque valeur est identique dans le résumé, Methods, Results, Discussion, légendes de figures et légendes de tableaux :

  1. Taille de l’échantillon (global et par groupe)
  2. Durée du suivi
  3. Taille de l’effet et statistique du résultat principal
  4. Taille de l’effet des résultats secondaires
  5. Pourcentages clés (taux de réponse, taux d’événement, taux d’attrition, etc.)

Il est recommandé d’ajouter une vérification gelée à votre processus de versioning : avant soumission, un collaborateur doit examiner indépendamment le résumé et les figures v2, puis procéder au téléchargement.


3. Le texte principal a été mis à jour, mais les légendes de figures et de tableaux utilisent le langage de v1

C’est le problème le plus insidieux des mises à jour v2. L’auteur a harmonisé la terminologie clé dans le texte principal (par exemple, remplacé « responder » par « sustained responder »), mais a oublié de mettre à jour les légendes de la Figure 3 et du Tableau 2.

bioRxiv et medRxiv utilisent des figures indépendantes au format PDF/PNG. Les auteurs concentrent généralement leurs efforts sur le PDF principal et négligent la synchronisation du texte des figures. Il en résulte que les lecteurs voient « responder » dans la Figure 3 et « sustained responder » dans le texte principal, sans savoir s’il s’agit de deux concepts différents.

Scénario typique :

  • Texte Methods : « We defined sustained responders as patients with continuous tumor shrinkage for at least 6 months. »
  • Légende Figure 3 : « Kaplan-Meier curves of overall survival in responders versus non-responders. »

Les deux termes coexistent et le lecteur doit s’arrêter pour vérifier, interrompant son rythme de lecture.

Stratégie de révision :

Avant de télécharger v2, alignez toute la terminologie dans les légendes, tableaux, étiquettes d’axes et légendes de figures avec le texte principal. Procédez ainsi :

  1. Dressez une liste des termes clés qui ont changé dans v2 par rapport à v1
  2. Pour chaque terme, recherchez le mot original de v1 dans le PDF du texte principal et tous les PDF des figures, et confirmez que tous les cas ont été remplacés
  3. Vérifiez particulièrement que la légende et la description de chaque figure utilisent la même terminologie que le texte principal

La cohérence terminologique est un signal direct du professionnalisme du langage, particulièrement important pour v2, où les révisions sont publiques.


4. v2 change discrètement la conclusion principale, mais ne le signale pas dans la version note

C’est l’erreur qui affecte le plus la crédibilité. L’auteur change, dans v2, sa conclusion de v1 « compound X reduces tumor volume significantly » en « compound X marginally reduces tumor volume in a subset of models » basée sur de nouvelles données ou une réanalyse, mais note simplement « Updated analysis » dans la version note.

Sur le plan de l’intégrité académique, ce procédé est problématique. Les lecteurs qui ont lu v1 et l’ont partagé ont besoin de savoir si vos conclusions ont changé.

Version note non recommandée :

v2: Updated analysis and revised text.

Version note recommandée :

Changes in v2 (conclusion-relevant):

  • The primary efficacy claim has been narrowed. In v1 we reported that compound X significantly reduced tumor volume across all three xenograft models. On re-analysis with a pre-registered statistical plan submitted during v1 review, the effect is statistically significant only in the two MSI-H models and not in the MSS model.
  • All figures, the abstract, and the discussion have been updated to reflect this narrower claim.
  • The original v1 preprint remains publicly accessible via the version history for transparency.

Signaler clairement les « changements au niveau des conclusions » n’amène pas les lecteurs à penser que la recherche est instable ; au contraire, cela renforce leur confiance dans votre rigueur. Masquer les changements de conclusion a l’effet inverse : une fois découvert (ce qui arrive souvent dans les sections de commentaires des préimpressions), la crédibilité de la recherche en souffre gravement.


5. Réitération en v2, v3 sans amélioration de la qualité du langage

Le dernier type de problème est structurel : beaucoup de préimpressions changent de données plusieurs fois et ajoutent plusieurs analyses de v1 à v3, mais la qualité du langage reste au niveau du brouillon initial de v1. Chaque fois qu’un lecteur ouvre une nouvelle version, il voit les mêmes voix passives, les mêmes longs syntagmes nominaux, les mêmes redondances.

Cette itération « données seulement, pas de langage » crée un jugement implicite chez les lecteurs avertis : l’auteur ne se soucie pas de la qualité du langage, et l’article sera probablement rejeté par la revue cible pour des « language issues ». Ce jugement réduira la probabilité qu’ils ouvrent v4.

Approche recommandée :

À chaque mise à jour de version, dédiez au moins une session à un polissage global du langage, plutôt que de simples retouches locales. Procédez ainsi :

  1. De v1 à v2 : concentrez-vous sur le résumé et la Discussion. Ces deux sections sont celles que les lecteurs sont les plus susceptibles de citer en extrait.
  2. De v2 à v3 : si vous préparez une soumission à une revue, effectuez une amélioration générale du langage pour l’Introduction, Methods et Results. Voir les cinq ajustements de langage les plus souvent oubliés lors de la transition de préimpression à soumission de revue
  3. Avant chaque téléchargement, relisez une fois les cinq catégories d’erreurs de langage dans le résumé de préimpression et faites une vérification croisée

L’amélioration de la qualité du langage n’a pas besoin d’être faite en une seule fois. Pourvu que chaque v2 et v3 donne aux lecteurs l’impression que « cet article s’améliore » plutôt que « cet article subit des corrections », la crédibilité de la préimpression s’accumulera continuellement.


Liste de vérification avant téléchargement v2

  1. Hiérarchisation de la version note : avez-vous écrit les changements selon trois niveaux « conclusions / données / texte » ? Les changements au niveau des conclusions sont-ils clairement signalés ?
  2. Cohérence numérique : tous les chiffres clés du résumé, Methods, Results, Discussion, légendes de figures et légendes de tableaux correspondent-ils aux dernières valeurs v2 ?
  3. Cohérence terminologique : la nouvelle terminologie introduite ou modifiée en v2 a-t-elle été synchronisée dans tous les textes des figures ?
  4. Transparence des changements de conclusion : la conclusion principale a-t-elle subi un changement de direction, de significativité ou d’applicabilité après v1 ? Si oui, la version note le dit-elle clairement ?
  5. Amélioration du langage : cette mise à jour v2 comprend-elle au moins un module (résumé, Discussion ou Introduction) qui a reçu un polissage global du langage, plutôt que seulement des changements de données ?

Si vous préparez une mise à jour v2 ou v3, ou si vous vous demandez comment rédiger une version note en conservant l’intégrité académique tout en évitant que les lecteurs ne pensent que la recherche est instable, n’hésitez pas à envoyer votre v1 et votre liste de changements prévus à contact@scholarmemory.com. Je vous fournirai un échantillon gratuit de révision des différences de version pour vous aider à déterminer quels ajustements au niveau du langage vous devrez effectuer dans votre nouvelle version.