OPEN SCIENCE : 3 questions à Sylvain Massip PDG et fondateur d’Opscidia

Sylvain, pouvez-vous vous présenter ?

 

« Je suis physicien de formation, et passionné par la recherche scientifique en général. J’ai étudié à Centrale Paris, puis j’ai fait un doctorat à l’Université de Cambridge, où j’ai travaillé sur les cellules photovoltaïques de troisième génération. J’ai ensuite rejoint une toute jeune start’up parisienne dont j’ai dirigé l’équipe de R&D pendant 7 ans.

Pendant ces dix ans en doctorat puis en start’up, j’ai eu l’occasion de participer, puis de créer et d’animer de très nombreux projets de partenariats entre recherche académique et industrie.

Par ailleurs, j’ai fini mon doctorat en 2011, quelques mois avant que ne débute « the cost of knowledge », le mouvement de boycott d’Elsevier par des mathématiciens de Cambridge et Oxford. C’est comme cela que j’ai commencé à suivre les questions liées à l’accès ouvert aux résultats de la recherche scientifiques.

Et c’est en combinant ces deux éléments que m’est venue l’intuition à l’origine d’Opscidia : c’est en promouvant la réutilisation des résultats de la recherche au-delà de la sphère académique que l’on pourra développer un nouveau modèle pour la publication scientifique.

Après avoir mûri cette idée pendant quelques années, je me suis associé avec Charles Letaillieur, ingénieur télécom et ami de longue date. Charles a passé 10 ans à concevoir des solutions web pour l’ouverture des données publiques, et pour la digitalisation des services publics. Ce qu’il a vu dans le domaine de l’administration est assez similaire à ce que l’on voit dans le domaine de la recherche. Son expérience et ses compétences sont donc le parfait complément aux miennes, et nous avons donc créé ensemble Opscidia. »

 

Que fait Opscidia ?

 

« Opscidia est une toute jeune société qui promeut l’open access pour les publications scientifiques. Notre pari est que les publications scientifiques ouvertes ne doivent pas être vues comme un coût, mais plutôt comme une opportunité pour innover et pour faciliter la réutilisation des résultats de la recherche dans la société.

Nous développons donc d’une part une plateforme pour la publication scientifique, (avec peer-review) qui est open source, open access et gratuite pour l’auteur, c’est à dire sans APC. (La version beta est ici)

D’autre part, nous développons des outils de veille technologique et scientifique basés sur l’analyse par NLP de l’ensemble des publications open access. Ces outils sont destinés à tous ceux qui sont susceptibles de réutiliser les résultats de la recherche (entreprises, pouvoirs publics, professionnels de la santé, etc.)

Ces deux activités se renforcent mutuellement: notre activité d’éditeur nous permettra de concevoir de meilleurs outils de veille et nos outils de veille nous permettront de financer notre activité d’éditeur. »

 

Quelle est votre vision des prochains défis dans votre secteur ?

 

« Le secteur de la publication scientifique fait face à de nombreux défis. Schématiquement, je les classerais en trois catégories :

 

  • Il y a d’abord la question de l’accès aux publications scientifiques. Les prix des abonnements aux revues ont atteints de tels sommets que plus personne n’est en mesure de les payer. Même les universités californiennes ont arrêté leurs souscriptions. On imagine alors à quel point le problème est insoluble pour les pays en développement. Mais au-delà de cette question de l’accès aux connaissances, il y a l’accès à la publication, qui est un élément très important pour faire grandir la recherche des pays en développement. Le changement de modèle qui consiste à faire payer la publication par celui qui l’écrit plutôt que par celui qui la lit permet certes de disséminer largement les connaissances, mais il coupe les petites institutions ainsi que les pays en développement de la possibilité de partager leurs résultats. Nous espérons que notre modèle d’accès ouvert gratuit pour les chercheur sera en mesure d’améliorer cette situation.

 

  • Le second grand défi est celui de la reproductibilité. Il faut que les lecteurs des publications scientifiques, qu’ils soient académiques, industriels ou simples citoyens, soient en mesure de faire confiance à ce qu’ils lisent. Pour cela, des innovations sont nécessaires pour améliorer la transparence des résultats (données ouvertes, protocoles pré-enregistrés, partage et revue par les paires des logiciels). La revue par les paires, également, est un système qui a besoin d’être amélioré et modernisé. De nombreuses innovations sont en cours dans ce domaine, elles seront très importantes. Notre objectif est d’implémenter le plus possible de ces innovations dans notre plateforme, et ensuite de laisser les comités éditoriaux choisir de s’en saisir ou non, en fonction des problématiques spécifiques à leur discipline et à leur communauté.

 

  • Le troisième grand défi est celui de la réutilisation des résultats de la recherche. Cela concerne les académiques eux-mêmes, mais aussi les décideurs politiques, le secteur privé et les citoyens. Avec l’explosion du nombre d’articles scientifiques produits, il est quasiment impossible pour une personne de suivre l’ensemble des connaissances produites sur un sujet. Cela rend la question de la curation d’autant plus importante. Il faut aussi prendre en compte que, de plus en plus, les articles seront lus et analysés par des algorithmes. Les technologies de recherche automatique dans les corpus telles que celles que nous développons auront un rôle à jouer pour tirer le maximum de la recherche et la publication scientifique devra y être adaptée. »

OPEN SCIENCE : 3 questions à Arnaud Legrand sur la Recherche reproductible

Lors de la Session du 12 novembre, Arnaud Legrand reviendra sur ce qu’il convient d’appeler la crise de la reproductibilité et de crédibilité qui a frappé à peu près tous les domaines scientifiques.

 

Arnaud, pouvez-vous vous présenter ?

Arnaud Legrand« Je suis chercheur au CNRS à l’Université de Grenoble depuis 2004. J’ai obtenu mon doctorat de l’École Normale Supérieure de Lyon en 2003, et ma thèse d’habilitation en 2015. Mes travaux de recherche portent sur l’étude des infrastructures informatiques distribuées à grande échelle utilisées pour le calcul scientifique. Cela recouvre les questions d’optimisation liées à l’exploitation de ces plateformes (ordonnancement, optimisation combinatoire, théorie des jeux) et les techniques d’évaluation de performance (simulation, visualisation, analyse statistique). Je suis l’un des concepteurs du projet SimGrid, un outil de simulation open source dont le but est de faciliter la recherche dans le domaine de l’optimisation des systèmes parallèles et distribués. Depuis 5 ans, je participe à la promotion de meilleures pratiques expérimentales et à l’amélioration de la méthodologie scientifique à travers des tutoriels, des conférences et des cours. »

 

Qu’est-ce que la recherche reproductible ?

« La Recherche Reproductible a pour objectif de rendre l’ensemble du processus de recherche derrière les études scientifiques le plus transparent possible de manière à ce qu’un lecteur d’un article puisse aisément en reproduire les résultats. Par exemple, lorsque des résultats ont été obtenus par des calculs, la personne qui consulte ces résultats doit pouvoir avoir accès aux logiciels et à la façon dont ils ont été utilisés pour pouvoir les vérifier, les reproduire à l’identique, et les réutiliser dans un autre contexte. Les problématiques et enjeux de la Recherche Reproductible concernent tous les domaines de la science mais appliquer ce principe de transparence à des fins de reproductibilité nécessite des changements d’habitudes profonds. »

 

On parle de crise de reproductibilité…

« La crise de la reproductibilité fait référence à la crise dans le domaine des sciences selon laquelle de nombreux résultats publiés sont difficiles, voire impossibles à reproduire. Ce terme est apparu dans les années 2000 et a gagné en popularité au milieu des années 2010 suite à plusieurs scandales, notamment en psychologie ou en médecine. Mais quel que soit le domaine et tout scandale mis à part, la majorité des chercheurs (voir par exemple l’étude « 1,500 scientist lift the lid on reproducibility » publiée par Nature en 2016) reconnaissent avoir déjà été incapables de reproduire l’expérience scientifique d’un autre chercheur, voire parfois même une de leurs propres expériences.

Selon les domaines, les causes de non-reproductibilité peuvent être liées à des facteurs sociaux (fraude, conflit d’intérêt, pression à publier, …), méthodologiques ou techniques. Il peut s’agir par exemple de pratiques statistiques hasardeuses, de problèmes liés aux données (collecte, biais, mauvaise interprétation, …) ou au calcul (bugs, typage, instabilité numérique), à la perte d’information à n’importe quelle étape du processus de recherche qui est devenu de plus en plus complexe et de plus en plus fragmenté. Bien souvent le premier point de blocage tient au fait que l’information (code, données, protocole de collecte) n’est tout simplement pas disponible en dehors du laboratoire d’origine. »

 

Quels sont les solutions et outils à disposition pour faire face à cette crise ?

« Le problème a de nombreuses facettes et plusieurs pistes sont donc explorées pour améliorer la reproductibilité des études. De nouveaux outils sont apparus et sont en train de se populariser, à des vitesses différentes selon les disciplines, et de nouvelles pratiques de recherche et de publication sont en train de se mettre en place. Cela fait partie du mécanisme d’auto-correction de la communauté scientifique. Cela sera-t-il suffisant ? »


Découvrez en plus :