Catégories
Entrepreneuriat Généralités Recherche exploratoire

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux

« [DeSci] transformed my research impact from a low-impact virology article every other year to saving the lives and limbs of actual human beings » Jessica Sacher, co-fondatrice de Phage Directory

Dans un précédent article, l’un des tous premiers publiés sur Resolving Pharma, nous nous étions intéressés aux problématiques posées par le rôle centralisateur des éditeurs scientifiques, qui en plus de poser des questions financières et éthiques, est un frein à l’innovation et à la recherche scientifique. A l’époque, nous avions, en plus de dresser ce constat, proposé des pistes de réflexions pour changer de modèle, en utilisant notamment les NFTs et la Blockchain. Depuis plusieurs mois, et grâce à la popularisation du Web3 et des DAOs, émergent des quatre coins du monde des initiatives en faveur d’une science permettant de faciliter l’intelligence collective, de redessiner les méthodes de financement et de publication de la recherche et, in fine, de réduire considérablement le chemin entre le laboratoire et les patients. Il est temps d’explorer cette révolution dont nous sommes encore à l’année zéro et que l’on appelle la DeSci pour Science Décentralisée.

De la nécessaire émergence de la DeSci

Une histoire est souvent prise en exemple dans le monde de la DeSci, tant elle illustre toutes les inefficiences de la science actuelle : celle de Katalin Kariko, biochimiste hongroise ayant mené de nombreuses recherches à partir des années 1990 (sur l’ARN messager vitro-transcrit) qui seront à l’origine, quelques décennies plus tard de plusieurs vaccins contre le Covid-19. En dépit des aspects novateurs des recherches menées par Katalin Kariko, elle ne put bénéficier des bourses de recherche nécessaires à leur poursuite pour des raisons de rivalités politiques : l’Université de Pennsylvanie dans laquelle elle se trouvait avait fait le choix de privilégier les recherches portant sur des thérapies ciblant directement l’ADN. Le manque de moyens entraina le manque de publications et K. Kariko fut rétrogradée dans la hiérarchie de son unité de recherche. Cet exemple démontre les conséquences délétères que peut avoir une organisation centralisée de l’attribution des financements (principalement les institutions publiques et les fondations privées) et de la gestion de la réputation des scientifiques (les éditeurs scientifiques).

Combien de chercheurs passent davantage de temps à chercher des financements qu’à travailler sur des sujets de recherche ? Combien de dossiers différents dans la forme doivent-ils remplir pour accéder à ces financements ? Combien de recherches prometteuses mais trop risquées ou trop peu conventionnelles sont abandonnées faute de financement ? Combien d’Universités paient des fortunes aux éditeurs scientifiques pour accéder aux connaissances scientifiques qu’elles ont-elles-même contribuées à établir ? Combien de résultats, parfois pervertis par les logiques de publication des éditeurs scientifiques, s’avèrent in fine non-reproductibles ? Avec toutes les barrières à l’échange de données relatives à la publication scientifique, la Science est-elle encore l’entreprise d’Intelligence Collective qu’elle doit être ? Combien de progrès scientifiques pourtant industrialisables et brevetés n’iront finalement pas jusqu’au marché faute de structures entrepreneuriales suffisamment solides et financées pour les porter (bien que des progrès considérables ont été réalisés ces dernières décennies pour permettre aux chercheurs de créer leurs start-up) ?

La DeSci, que nous pourrions tenter de définir comme étant un système d’organisation de la Science permettant, en s’appuyant sur les technologies et les outils Web3, à chacun de financer et de prendre part à la recherche et à la valorisation scientifique en échange de retour sur investissement ou de rémunération, se propose de répondre à toutes les problématiques mentionnées ci-dessus.

Dans un premier temps, cet article s’intéressera aux bases techniques de la Science Décentralisée puis explorera quelques cas d’usage dans lesquels la décentralisation pourrait améliorer l’efficience de la Science.

Tout comprendre au Web3, aux DAOs et à la Science Décentralisée

A l’origine du Web, de très profondes barrières à l’entrée existaient pour les utilisateurs souhaitant émettre des informations : en effet, avant les blogs, les forums et les réseaux sociaux, il fallait être en mesure de rédiger soi-même le code de son site Internet ou de payer quelqu’un pour le faire afin de pouvoir partager du contenu.

Avec l’arrivée, nous l’évoquions, des blogs et des réseaux sociaux, le Web2 a pris un visage différent : l’expression est devenue considérablement plus facile. En revanche, elle s’est accompagnée d’une grande centralisation : les plateformes de réseaux sociaux disposent des contenus que leurs utilisateurs publient et les exploitent commercialement (au travers de revenus publicitaires notamment) sans reverser un centime aux utilisateurs de leurs services.

Le Web3 est une nouvelle version d’Internet dans laquelle la notion de propriété a été introduite au moyen de la Blockchain. En effet, alors que le Web2 était construit sur des infrastructures centralisées, le Web3 utilise la Blockchain. En clair, les échanges de données sont enregistrés sur une Blockchain et peuvent donner lieu à une rétribution en cryptomonnaies ayant une valeur financière mais donnant également, dans certains cas, un pouvoir décisionnel sur les plateformes utilisées par les contributeurs. Le Web 3 est donc un moyen de marquer la propriété d’un contenu ou de rémunérer facilement l’action d’un utilisateur. Le Web3 est sans nul doute la version d’Internet la plus favorable à la création.

Enfin, nous ne pouvons pas évoquer le Web3 sans parler des Decentralized Autonomous Organization (DAOs). Ces organisations sont décrites par Vitalik Buterin, le co-fondateur emblématique de la Blockchain Ethereum, comme étant : « des entités vivant sur Internet et ayant une existence autonome, tout en s’appuyant sur des individus qu’elle embauche pour effectuer les tâches qu’elle ne peut pas faire directement ». De manière plus terre à terre, il s’agit d’assemblées virtuelles dont les règles de gouvernance sont automatisées et inscrites de façon transparente dans une blockchain, permettant ainsi à ses membres d’agir collectivement, sans autorité centrale ni tiers de confiance, et de prendre des décisions selon des règles définies et inscrites dans des Smart-contracts. Leur objectif est de simplifier et de rendre plus sûre, transparente et infalsifiable la prise de décision et l’action collectives. Les DAOs n’ont pas encore révélé leur plein potentiel mais elles ont déjà montré qu’elles pouvaient œuvrer comme des fonds d’investissement, des entreprises ou des associations caritatives décentralisés et efficients. Depuis quelques mois, des DAOs spécialisées dans la Science émergent, basées sur deux innovations technologiques majeures.

Les concepts technologiques sur lesquels s’appuie particulièrement la DeSci :

Pour comprendre le fonctionnement profond de la DeSci et plus particulièrement son immense et révolutionnaire potentiel, il est important de maîtriser deux concepts en particulier, plutôt peu communs dans le très vaste et grandissant domaine du Web3 mais qui se trouvent au cœur d’un certain nombre de projets de DeSci :

  • Les IP-NFTs : Le concept d’IP-NFT a été développé par les équipes de l’entreprise Molecule (dont vous trouverez une interview sur Resolving Pharma). Il constitue une rencontre entre l’IP (la propriété intellectuelle) et les NFTs (les non-fungible tokens) : il permet de tokeniser la recherche scientifique. Cela signifie qu’une représentation d’un projet de recherche est placée sur la Blockchain sous la forme d’un NFT échangeable. Un accord légal est passé automatiquement entre les investisseurs (acheteurs du NFT) et le scientifique ou l’institution qui mène les recherche. Les propriétaires du NFT seront en droit d’obtenir des rémunérations en cas de licensing de la propriété intellectuelle issue des recherches ou de création de start-up à partir de cette propriété intellectuelle.

Figure 1 – Schéma de fonctionnement de l’IP-NFT développé par Molecule (Source : https://medium.com/molecule-blog/molecules-biopharma-ipnfts-a-technical-description-4dcfc6bf77f8)

  • Les Data-NFTs : Beaucoup de projets Blockchain s’intéressent à la patrimonalité de la Data mais l’un des plus aboutis est Ocean Protocol. Un Data-NFT représente un droit d’auteur (ou une licence exclusive) enregistré dans la Blockchain et portant sur un jeu de données. Ainsi, il est possible pour un utilisateur d’exploiter ses données de plusieurs manières : en faisant payer des licences temporaires à d’autres utilisateurs, en vendant ses datasets ou en les collectivisant avec d’autres jeux de données dans le cadre d’un « Data Union ».

Ces deux concepts permettent de rendre sécable et liquide la propriété intellectuelle et ainsi de créer de nouveaux modèles de financement et de collaboration. Prenons un exemple simple : un chercheur peut présenter ses recherches et lever des fonds auprès d’investisseurs avant même qu’un brevet ne soit déposé. En échange, les investisseurs possèdent un IP-NFT qui leur permet de bénéficier d’un certain pourcentage de la propriété intellectuelle et des revenus qui seront potentiellement générés par l’innovation.

Passons désormais à quelques cas d’usage de la DeSci.

Transformer le reviewing scientifique

Lorsqu’un chercheur veut communiquer au reste de la communauté scientifique, il rédige un article qu’il soumet à des éditeurs scientifiques, si ces derniers acceptent le thème de la recherche, ils vont chercher d’autres chercheurs à même de vérifier la validité scientifique de l’article, un processus d’échange avec les auteurs s’ensuit alors : il s’agit du peer-reviewing. Les chercheurs prenant part à ce processus ne sont pas rémunérés par les éditeurs et sont principalement motivés par leur curiosité scientifique.

Ce système, tel qu’il est organisé actuellement – de manière centralisée, fait émerger plusieurs problématiques :

  • Il prend beaucoup de temps : cela prend, dans certaines revues, plusieurs mois entre la première soumission d’un article et sa publication définitive. Ce délai évitable peut être très dommageable à la progression de la science (mais nous y reviendrons plus tard dans cet article !). Par ailleurs, devant l’inflation du nombre d’articles et de revues scientifiques, le système basé sur le bénévolat des reviewers n’est pas dimensionné pour faire face à l’avenir.
  • L’article est soumis aux biais d’appréciation de l’éditeur ainsi qu’à ceux des reviewers, le tout dans un processus opaque, ce qui le rend extrêmement aléatoire. Des études ont montré qu’en soumettant à nouveau un échantillon de papiers déjà publiés et en modifiant les noms et les institutions des auteurs, 89% d’entre eux étaient rejetés (sans que les reviewers ne s’aperçoivent du fait que ces articles étaient déjà publiés)
  • L’intégralité du processus est généralement opaque et indisponible au lecteur final de l’article.

Le peer-reviewing de la Science Décentralisée sera entièrement différent. Plusieurs publications ont démontré la possibilité d’utiliser des DAOs scientifiques thématiques afin de rendre tout le processus plus efficient, équitable et transparent. Nous pouvons ainsi imaginer que la décentralisation pourrait jouer sur différents aspects :

  • Le choix des reviewers ne dépendrait plus uniquement de l’éditeur mais pourrait être approuvé collectivement.
  • Les échanges autour de l’article pourraient être enregistrés sur la Blockchain et seraient ainsi librement accessibles.
  • Plusieurs systèmes de rémunération, financière ou pas, peuvent être imaginés afin d’attirer des reviewers de qualité. Nous pouvons ainsi imaginer que chaque reviewing pourrait faire gagner des tokens permettant de s’inscrire dans un système de réputation (voir ci-dessous), de participer aux prises de décision du DAO mais aussi de participer à des concours dans l’objectif d’obtenir des subventions.

Les systèmes de peer-reviewing décentralisé n’en sont encore qu’à leurs premiers pas et, aussi radicalement prometteurs soient-ils, de nombreux défis restent à surmonter, à commencer par celui de l’interopérabilité entre différents DAOs.

Créer un nouveau système de réputation

La principale proposition de valeur apportée par le système centralisé de la Science est celui du système de réputation des acteurs. Pourquoi souhaitez-vous accéder à des écoles et des Universités prestigieuses, et pourquoi êtes-vous parfois prêts à vous endetter sur de nombreuses années pour cela ? Parce que le fait d’avoir le nom d’une Université donnée sur votre CV vous permettra d’accéder plus facilement aux opportunités professionnelles que vous visez. D’une certaine manière, les entreprises ont délégué une certaine partie de leur recrutement aux écoles et aux universités.  Autre système de réputation, nous l’évoquions plus tôt dans cet article : celui des éditeurs scientifiques, la qualité d’un chercheur n’est-elle pas mesurée au nombre d’articles qu’il a réussi à faire publier dans des revues prestigieuses ?

En dépit de leur coût prohibitif (qui permet aux éditeurs scientifiques de constituer l’une des industries ayant la marge brute la plus haute du monde – difficile de faire autrement lorsque l’on vend quelque chose que l’on obtient gratuitement !), ces systèmes souffrent de graves imperfections : le fait d’être accepté dans une Université et d’obtenir son diplôme reflète-t-il finement l’implication que l’on a eu durant ses études et les compétences que l’on a pu acquérir par diverses expériences à l’intersection du monde universitaire et du monde professionnel ? La réputation d’un scientifique est-elle réellement proportionnelle à son implication dans son écosystème ? Jorge Hirsch, l’inventeur de l’Indice H, ayant pour but de quantifier la productivité et l’impact scientifique d’un chercheur en fonction du niveau de citation de ses publications est d’ailleurs lui-même revenu sur la pertinence de cet indicateur.  Les peer-reviewings, la qualité des cours donnés, l’accompagnement de jeunes chercheurs ou encore l’impact réel de la Science sur la société ne sont en effet pas pris en compte par le système actuel.

Dans le cadre de la DeSci, il sera possible d’imaginer un système basé sur la Blockchain permettant de tracer et d’authentifier les actions d’un chercheur – et pas uniquement le fait de publier des articles – afin de le récompenser à travers des tokens de réputation non échangeables. Le grand défi de ce système de réputation sera encore une fois d’être transversal, interopérable et adopté par différentes DAOs. Nous pouvons imaginer que ces tokens pourront être utilisés pour participer à des votes (dans l’organisation de conférences, dans le choix d’articles, etc) et qu’ils seront eux-mêmes attribués selon des mécanismes de vote (par exemple, les étudiants ayant suivi un cours seront à même de décider collectivement du nombre de tokens à attribuer au professeur).

Transformer les codes de la publication scientifique pour faire émerger l’intelligence collective

La science est une œuvre collective et internationale dans laquelle, actuellement et en tant que chercheur, vous ne pouvez communiquer avec les autres équipes de recherche du monde entier qu’à travers :

  • Des publications dans lesquelles vous ne pouvez pas donner accès à l’ensemble des données générées par vos recherches et expérimentations (on estime qu’environ 80% des données ne sont pas publiées, ce qui participe à la crise de la reproductibilité scientifique
  • Des publications auxquelles les autres chercheurs ne peuvent pas accéder sans payer les éditeurs scientifiques (dans le cas de l’Open Science, c’est l’équipe de recherche à l’origine de la publication qui paie l’éditeur pour que les lecteurs puissent accéder gratuitement à l’article)
  • Des publications qui, par leur forme et les problématiques liées à leur accès, rendent très difficile l’utilisation d’algorithmes de Machine Learning qui pourraient accélérer la recherche
  • Et enfin, des publications scientifiques qui, du fait des durées des mécanismes éditoriaux d’approbation ne reflètent l’état de votre recherche qu’avec plusieurs mois de retard. Des crises sanitaires récentes comme celles du COVID-19 nous ont montré à quel point il pouvait être important de disposer de données qualitatives de manière rapide.

Internet a permis une transformation majeure des manières dont nous communiquons. Le mail et les messageries instantanées permettent, par rapport à la lettre qui mettait des semaines à arriver à son destinataire dans les siècles passés, de communiquer plus souvent et surtout d’envoyer des messages plus courts, à mesure que nous obtenons les informations qu’ils contiennent, sans nécessairement les agréger dans une forme complexe. Seule la communication scientifique, alors même qu’elle se fait désormais majoritairement par le biais d’Internet, résiste à cette tendance, au profit des éditeurs scientifiques et des formes traditionnelles de communication mais aussi et surtout aux dépends du progrès de la science et des patients dans le cas de la recherche biomédicale.

Comment, dans ces conditions, faire émerger l’intelligence collective nécessaire au progrès scientifique ? L’entreprise flashpub.io pense avoir la solution : les micro-publications, constituées d’un titre pensé pour être facilement exploitable par un algorithme de NLP, d’une figure unique, d’une brève description et de liens donnant accès à la totalité des protocoles et des données générées. 

Figure 2 – Structure d’une micro-publication (Source : https://medium.com/@flashpub_io)

Cette idée des micro-publications, si elle n’est pas directement liée à la Blockchain, sera, puisqu’elle permet le partage rapide et facilité de l’information, un remarquable outil d’intelligence collective et assurément, la modalité de communication scientifique la plus adaptée à l’ère à venir de la Science Décentralisée. L’objectif ne sera pas de remplacer les publications classiques mais plutôt d’imaginer une nouvelle manière de faire de la science, dans laquelle le narratif d’une innovation sera construit collectivement tout au long des expérimentations successives plutôt qu’après plusieurs années de travail par une seule équipe de recherche. Des voix contradictoires s’exprimeront et un consensus sera trouvé, ne modifiant pas fondamentalement le modèle classique de la Science mais le rendant plus efficient.

Faciliter le financement de l’innovation et la création de start-up de biotechnologie

Aujourd’hui, le financement de l’innovation, en santé notamment, fait face à un double problème :

  • Du côté des scientifiques et des entrepreneurs : en dépit du développement de nombreux écosystèmes de financement, de subventions non dilutives et de la maturation des fonds de venture capital, la question de la recherche de fonds reste essentielle et problématique pour la plupart des projets. Beaucoup de projets ne survivent pas à ce que l’on appelle la « Vallée de la mort », cette période avant de début des études cliniques durant laquelle lever des fonds est particulièrement compliqué.
  • Du côté des investisseurs : Il est très difficile pour un individu de prendre part au financement de la recherche et aux entreprises de Biotechs de manière satisfaisante.
    • Il peut être Business Angel et entrer tôt au capital d’une start-up prometteuse : cela n’est pas accessible à tous, car il faut un certain capital de départ pour entrer dans une start-up (et encore plus si l’on souhaite diversifier ses investissements pour lisser son risque)
    • Il est possible d’investir en bourse sur des sociétés de biotech cotées : l’espérance de gain est alors bien plus faible, les entreprises étant déjà matures et leurs résultats consolidés.
    • Il est possible de financer la recherche à travers des organismes de charités, mais dans ce cas, aucun retour sur investissement n’est possible et aucun contrôle sur les projets financés ne pourra être exercés.
    • Il est possible d’investir à travers des sites de crownfunding, mais là encore des problèmes structurels sont à mentionner : le choix des entreprises est limité et les investisseurs sont généralement davantage en position de prêteurs que d’investisseurs : ils ne détiennent pas réellement de parts de l’entreprise et seront rémunérés selon un taux annuel défini à l’avance.

L’un des mantras de l’industrie pharmaceutique les plus à la mode en ce moment est de mettre le patient au centre de ses thérapeutiques, ne faudrait-il pas, par cohérence, également lui permettre d’être au centre des systèmes de financement et de développement de ces thérapeutiques ?

La DeSci permettra à chacun – patient, proche de patient ou simplement (crypto)investisseur souhaitant avoir un impact positif sur le monde – via des systèmes d’IP-NFT, de data-NFT ou de tokenisation d’entreprise de financer facilement des projets de drug development quel que soit leur stade, de la recherche académique d’un chercheur à une entreprise déjà constituée.

Ce système de tokenisation des assets permet par ailleurs de générer des revenus complémentaires, à la fois pour l’investisseur et pour le projet cherchant à être financé :

  • Les mécanismes de « prêt lombard » présents dans la Finance Décentralisée permettront également aux investisseurs de générer d’autres types de revenus sur leurs parts des projets. En effet, la DeFi a remis au goût du jour les prêts collatéralisés : un emprunteur peut déposer des actifs numériques (des cryptomonnaies, mais également des NFTs ou des actifs réels tokenisés (entreprises, immobiliers, etc) en échange d’un autre actif (qui représente une fraction de la valeur qu’il a déposée, afin de protéger le prêteur) qu’il pourra investir selon différents mécanismes propres à la Finance Décentralisée et que nous ne développerons pas dans cet article. Ainsi, dans un système classique de private equity, l’argent investi dans une start-up est bloqué jusqu’à la possibilité d’un exit et ne génère pas de rendements autres que ceux attendus du fait de l’augmentation de la valorisation de l’entreprise. Dans le nouveau système décentralisé, une partie de l’argent que vous avez investi peut être placé en parallèle dans l’équivalent crypto d’un compte épargne (simplifions les choses, ce site n’étant pas dédié à la Finance Décentralisée !)
  • Par ailleurs, une autre possibilité pour les projets biotech, qu’ils soient déjà constitués sous forme d’entreprise ou pas, de générer des revenus supplémentaires est de tirer profit de la liquidité des actifs (qui n’existe pas dans le système de financement traditionnel) : il est tout à fait envisageable d’appliquer une taxation de quelque % à chaque transaction d’un IP-NFT ou d’un data-NFT.

Nous sommes dans un monde où il est parfois plus facile de vendre une image de singe pour 3 ou 4 millions de dollars que de lever cette somme pour combattre une pathologie mortelle. Il est temps de le comprendre et d’actionner les bons leviers pour aller chercher l’argent là où il se trouve – parfois très loin des sentiers battus.

Conclusion : une communauté naissante, beaucoup de travail et de grandes ambitions

En dépit d’initiatives à très haut potentiel de l’implication de plus en plus importante d’une communauté scientifique à travers le monde, la DeSci est encore jeune et reste à structurer, de nombreux défis seront à relever pour construire le futur. L’un des principaux, en dehors des aspects relatifs au cadre réglementaire, sera sans nul doute celui de l’éducation au sens large et il n’est pas encore adressé par les projets actuels. En utilisant les outils Web3 pour réinventer la manière dont peut se construire et se financer un cursus de haut niveau (vous serez demain payés pour suivre des formations en ligne – oui oui !), la DeSci se donnera les moyens d’intégrer les esprits les plus créatifs et entrepreneuriaux de son époque, à la manière dont les grands incubateurs ou fonds d’investissement comme Y Combinator ou Tech Stars ont misé sur l’éducation pour créer ou accélérer le développement des entreprises les plus impressionnantes de ces dernières années. Les Universités collaboratives de la DeSci doivent émerger, et la connexion entre l’Ed3 (l’éducation et l’apprentissage à l’ère du Web3) et la DeSci reste encore à mettre en œuvre.

Figure 3 – Présentation de l’écosystème DeSci embryonnaire à la conférence ETH Denver, le 17 février 2022 (depuis 3 mois, l’écosystème en pleine ébullition s’est considérablement enrichi d’autres projets)

Le Web 3.0 et les DAOs ont la grande particularité de permettre de récompenser en equity, ou équivalent, des personnes prenant part à un projet en mettant leurs compétences ou leurs moyens financiers à profit, et ce quelle que soit l’étape de développement d’un projet.  Ainsi, dans un monde décentralisé où les compétences et le matériel de recherche sont à portée de main, et où les intérêts des individus impliqués dans un projet sont plus alignés, le temps écoulé entre l’émergence d’une idée et son exécution est sensiblement plus faible que dans un monde centralisé. Ce modèle, pouvant réinventer le travail mais aussi ce qu’est une entreprise, s’applique à tous les domaines mais est particulièrement pertinent là où l’intelligence collective est importante et où des expertises de pointe de différents types sont nécessaires, comme la recherche scientifique.

De la même manière que nous pouvons raisonnablement penser que Bitcoin prendra de plus en plus de place dans le système monétaire international dans les années et décennies à venir, nous pouvons penser que la DeSci, étant donné ses caractéristiques et qualités intrinsèques, prendra de plus en plus de place face à ce que nous appellerons peut-être dans les prochaines années la « TradSci » (la Science organisée de manière traditionnelle). En permettant un alignement d’intérêt parfait de ses différents acteurs, la DeSci constituera probablement l’outil collaboratif d’Intelligence Collective le plus abouti et viable à grande échelle et sur le long terme dont n’aura jamais disposé Homo Sapiens. Lutte contre le réchauffement climatique, conquête spatiale, éradication de toutes les maladies, ou extension de la longévité humaine, la DeSci sera probablement le catalyseur des prochaines décennies d’innovations scientifiques et, en cela, impactera positivement votre vie. Ne passez pas à côté de l’opportunité d’en être l’un des premiers artisans !


Pour aller plus loin :

Crédits de l’illustration de l’article : 
  • Background : @UltraRareBio @jocelynnpearl and danielyse_, Designed by @katie_koczera
  • Montage : Resolving Pharma

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Généralités Préclinique Recherche exploratoire

Oligonucléotides et outils de Machine Learning

Les oligonucléotides, ces petites molécules d’ADN ou d’ARN, sont aujourd’hui des outils incontournables dans les projets de Biologie Moléculaire, mais également en thérapeutique et en diagnostic. En 2021, c’est une dizaine de thérapies antisens qui sont autorisées sur le marché, et plus encore qui sont en cours d’investigation clinique.

La récente crise sanitaire de la Covid-19 a également mis en avant les tests PCR qui utilisent des petites séquences d’une vingtaine de nucléotides afin d’amplifier et de détecter du matériel génétique. Le succès des oligos est tel que, depuis que leur synthèse a été automatisée, leur part de marché n’a cessé de croître. Il est estimé qu’elles atteindront les 14 milliards de dollars en 2026.

Les oligonucléotides ont l’élégance de leur simplicité. C’est dans les années 50 que Watson et Crick ont pu décrire la double hélice qui constitue notre code génétique, et la façon dont les bases Adénine/Thymine et Cytosine/Guanine s’apparient. Par cette propriété, les thérapies antisense peuvent virtuellement cibler la totalité de notre génome, et en réguler son expression. Ce sont des maladies difficiles à traiter comme le Spinal Dystrophy Disoder ou encore la maladie de Duchennes qui bénéficient aujourd’hui d’une prise en charge thérapeutique (1).

Cet article n’a pas pour but de reformuler l’histoire des oligonucléotides utilisés par les cliniciens (de nombreuses reviews sont déjà disponibles dans littérature (2), (3), (4)), mais de proposer un rapide coup d’œil sur de ce qui a été développé dans ce domaine, grâce au Machine Learning.

Nous espérons que l’article inspirera certains chercheurs, et que d’autres pourrons y trouver de nouvelles idées de recherche et d’exploration. À une époque où l’Intelligence Artificielle a atteint une certaine maturité, il est particulièrement intéressant de l’exploiter à son maximum et de rationaliser au mieux toutes les prises de décision dans les projets de R&D.

Cette liste est non exhaustive, et, si vous avez une un projet ou article à nous faire part, contactez nous à hello@resolving-pharma.com. Nous serons ravis d’en discuter et de l’inclure dans cet article.

L’utilisation du Deep Learning pour le design d’amorces de PCR

La crise sanitaire de la Covid-19 en a été le témoin, diagnostiquer la population est primordial dans le contrôle d’une pandémie. Grâce à deux amorces d’une vingtaine de nucléotides, une séquence spécifique peut-être amplifiée et détecter, même à très faible niveau (la technique de PCR est techniquement capable de détecter jusqu’à 3 copies d’une séquence d’intérêt (5))

Un groupe de l’université d’Utrecht, aux Pays-Bas, (6) a développé un RNC (pour Réseau de Neurones Convolutifs, un type de réseau neuronal particulièrement efficace dans la reconnaissance d’images) capable de révéler des zones d’exclusivité sur un génome, permettant de développer des amorces ultra-spécifiques à la cible d’intérêt. Dans leur cas, ils ont analysé plus de 500 génomes de virus de la famille des Coronavirus afin d’entrainer l’algorithme à différencier les génomes entre eux. Les séquences de primers obtenues par le modèle ont démontré une efficacité similaire aux séquences utilisées en pratique. Cet outil pourrait être utilisé afin de développer des outils de diagnostic PCR avec une plus grande efficacité et une plus grande rapidité.

Prédire le pouvoir de pénétration d’un oligonucléotide

Il existe de nombreux peptides qui améliorent la pénétration des oligonucléotides au sein des cellules.  Ces peptides sont appelés CPP pour Cell Penetrating Peptides, des petites séquences de moins de 30 acides aminés. Grâce à un arbre de décision aléatoire, une équipe du MIT (7) a pu prédire l’activité des CPP pour des oligonucléotides modifiés par morpholino phosphorodiamidates (MO). Même si l’utilisation de ce modèle est limitée (il existe énormément de modifications chimiques à ce jour et les MO n’en couvrent qu’une petite partie) il reste néanmoins possible de développer ce concept à de plus larges familles chimiques. Le modèle a ainsi pu prédire expérimentalement qu’un CPP allait améliorer par trois la pénétration d’un oligonucléotide au sein des cellules.

Optimiser les oligonucléotides thérapeutiques

Même si les oligonucléotides sont connus pour être faiblement immunogènes (8), ils n’échappent pas à la toxicité associée à toutes thérapies. “Tout est poison, rien n’est poison : c’est la dose qui fait le poison.” – Paracelse

La toxicité est un élément clé dans le futur du développement d’un médicament. Un groupe danois (9) a développé un modèle de prédiction capable d’estimer l’hépatotoxicité qu’aurait une séquence de nucléotides sur des modèles murins. Encore une fois, ici ce sont « seulement » des oligonucléotides non-modifiés et d’autres modifiés par des LNA (pour Locked Nucleic Acid, une modification chimique qui stabilise l’hybridation de l’oligonucléotide thérapeutique à sa cible) qui ont été analysés. Il serait intéressant d’augmenter l’espace chimique étudié et ainsi étendre les possibilités de l’algorithme. Toutefois c’est ce type de modèle qui permet, à terme, de réduire l’attrition du développement de nouveaux médicaments. Dans une autre optique (10), un modèle d’optimisation de la structure des LNA a été développé dans l’utilisation des oligonucléotides en tant que gapmers. Les gapmers sont des séquences d’oligonucléotides hybrides qui possèdent deux extrémités modifiées chimiquement, résistantes aux enzymes de dégradation, et une partie centrale non modifiée, elle, susceptible d’être dégradée une fois hybridée à sa cible. C’est cette « coupure » finale qui va générer l’effet thérapeutique désiré. Grâce à leur modèle, les chercheurs ont pu prédire le design de gapmer qui possède le meilleur profil pharmacologique.

Accélérer la découverte de nouveaux aptamères

Aussi surnommés “chemical antibodies” les aptamères sont des séquences d’ADN ou d’ARN capables de reconnaître et de se lier à une cible particulière, avec autant d’affinité qu’un anticorps monoclonal. De très bonnes reviews sur le sujet sont disponibles ici (11) ou encore ici (12). En clinique, le pegatinib est le premier aptamère à avoir été autorisé sur le marché. Le composé est indiqué dans certaines formes de la DMLA.

Les méthodes de recherche actuelles, basées sur le SELEX (pour Systematic Evolution of Ligands by Exponential Enrichment), ont permis de générer des aptamères dirigés contre des cibles d’intérêt thérapeutique et diagnostic, comme la nucléoline ou encore la thrombine. Même si le potentiel de la technologie est attrayant, il est difficile et laborieux de découvrir de nouvelles paires séquence/cible. Pour booster la recherche de nouveaux candidats, une équipe américaine (13) a pu entrainer un algorithme afin d’optimiser un aptamère et de réduire la taille de sa séquence, tout en conservant voire en augmentant son affinité à sa cible. Ils ont ainsi pu prouver expérimentalement que l’aptamère généré par l’algorithme avait plus d’affinité que le candidat de référence, tout en étant 70% plus court. L’intérêt ici est de conserver la partie expérimentale (la partie SELEX), et de la combiner avec ces outils in silico afin d’accélérer l’optimisation de nouveaux candidats.

Il est certain que le futur des oligonucléotides est prometteur, et leur versatilité est telle qu’on les retrouve dans des domaines totalement différents, allant des nanotechnologies à base d’ADN ou encore dans la technologie CRISP/Cas. Ces deux derniers domaines pourraient, à eux seuls, faire l’objet d’articles individuels tellement leurs horizons de recherche sont importants et intéressants.

Dans notre cas, nous espérons que ce petit article vous aura fait découvrir de nouvelles idées et concepts, et vous a donné envie d’en apprendre davantage sur les oligonucléotides et le Machine Learning.


Bibliographie :
  1. Bizot F, Vulin A, Goyenvalle A. Current Status of Antisense Oligonucleotide-Based Therapy in Neuromuscular Disorders. Drugs. 2020 Sep;80(14):1397–415.
  2. Roberts TC, Langer R, Wood MJA. Advances in oligonucleotide drug delivery. Nat Rev Drug Discov. 2020 Oct;19(10):673–94.
  3. Shen X, Corey DR. Chemistry, mechanism and clinical status of antisense oligonucleotides and duplex RNAs. Nucleic Acids Res. 2018 Feb 28;46(4):1584–600.
  4. Crooke ST, Liang X-H, Baker BF, Crooke RM. Antisense technology: A review. J Biol Chem [Internet]. 2021 Jan 1 [cited 2021 Jun 28];296. Available from: https://www.jbc.org/article/S0021-9258(21)00189-7/abstract
  5. Bustin SA, Benes V, Garson JA, Hellemans J, Huggett J, Kubista M, et al. The MIQE Guidelines: Minimum Information for Publication of Quantitative Real-Time PCR Experiments. Clin Chem. 2009 Apr 1;55(4):611–22.
  6. Lopez-Rincon A, Tonda A, Mendoza-Maldonado L, Mulders DGJC, Molenkamp R, Perez-Romero CA, et al. Classification and specific primer design for accurate detection of SARS-CoV-2 using deep learning. Sci Rep. 2021 Jan 13;11(1):947.
  7. Wolfe JM, Fadzen CM, Choo Z-N, Holden RL, Yao M, Hanson GJ, et al. Machine Learning To Predict Cell-Penetrating Peptides for Antisense Delivery. ACS Cent Sci. 2018 Apr 25;4(4):512–20.
  8. Stebbins CC, Petrillo M, Stevenson LF. Immunogenicity for antisense oligonucleotides: a risk-based assessment. Bioanalysis. 2019 Nov 1;11(21):1913–6.
  9. Hagedorn PH, Yakimov V, Ottosen S, Kammler S, Nielsen NF, Høg AM, et al. Hepatotoxic Potential of Therapeutic Oligonucleotides Can Be Predicted from Their Sequence and Modification Pattern. Nucleic Acid Ther. 2013 Oct 1;23(5):302–10.
  10. Papargyri N, Pontoppidan M, Andersen MR, Koch T, Hagedorn PH. Chemical Diversity of Locked Nucleic Acid-Modified Antisense Oligonucleotides Allows Optimization of Pharmaceutical Properties. Mol Ther – Nucleic Acids. 2020 Mar 6;19:706–17.
  11. Zhou J, Rossi J. Aptamers as targeted therapeutics: current potential and challenges. Nat Rev Drug Discov. 2017 Mar;16(3):181–202.
  12. Recent Progress in Aptamer Discoveries and Modifications for Therapeutic Applications | ACS Applied Materials & Interfaces [Internet]. [cited 2021 Jul 25]. Available from: https://pubs-acs-org.ressources-electroniques.univ-lille.fr/doi/10.1021/acsami.0c05750
  13. Bashir A, Yang Q, Wang J, Hoyer S, Chou W, McLean C, et al. Machine learning guided aptamer refinement and discovery. Nat Commun. 2021 Apr 22;12(1):2366.

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Entrepreneuriat Généralités

Blockchain, Applications mobiles : la technologie permettra-t-elle de résoudre le problème des médicaments contrefaits ?

« Fighting counterfeits drugs is only the start of what blockchain could achieve through creating [pharmaceutical] ‘digital trust’.»

Andreas Schindler, Blockchain Expert

20% des médicaments en circulation dans le monde sont des médicaments contrefaits, dont la plupart ne contiennent pas la bonne substance active ou pas en bonne quantité. Représentant 200 milliards de dollars par an, ce trafic – 10 à 20 fois plus rémunérateur pour le crime organisé que celui de l’héroïne – cause chaque année la mort des centaines de milliers de personnes dont une majorité d’enfants que leurs parents pensent soigner avec de véritables médicaments. Pour lutter contre ce fléau, laboratoires et autorités sanitaires internationales doivent présenter un front uni, dont la technologie pourrait être la clef de voute.

***
Le problème de la contrefaçon de médicaments

C’est un fléau quasiment invisible, dont il est difficile de définir les contours, une épidémie mondiale à bas bruit, qui ne provoque ni confinements ni campagnes massives de vaccinations mais qui pourtant tue chaque année des centaines de milliers de patients. Les médicaments contrefaits, définis par l’OMS comme étant « des médicaments fabriqués de manière frauduleuse, mal étiquetés, de mauvaise qualité, dissimulant le détail ou l’identité de la source et ne respectant pas les normes définies », concernent généralement des maladies graves comme le sida, la tuberculose ou le paludisme et conduisent notamment au décès d’environ 300 000 enfants de moins de 5 ans atteints de pneumonie et de paludisme. Dans les faits, l’appellation généraliste « médicaments contrefaits » regroupe des produits très différents : certains ne contenant aucun principe actif, d’autres renfermant des principes actifs différents de ce qui est indiqué sur leur étiquetage, d’autres encore contenant le principe actif indiqué en quantité différente. En plus de leur responsabilité dans ces innombrables drames humains du présent, les médicaments contrefaits participent également à ceux de demain en participant notamment à l’augmentation de l’antibiorésistance dans des zones du monde où les systèmes de santé sont déjà défaillants et ne seront probablement pas en mesure de faire face à l’avenir à ce nouveau défi.

Parlons désormais d’argent. En dehors de ces considérations de santé publique, les médicaments contrefaits sont également un problème économicopolitique pour les états : ce trafic représentant 200 milliards de dollars par an permet d’une part d’alimenter d’autres filières du crime organisé et représente d’autre part un coût très important pour les systèmes de santé. Concernant les industries pharmaceutiques, les problématiques causées par ce trafic sont également nombreuses : un manque à gagner représentant 20% de leurs ventes mondiales ; un immense déficit de confiance des patients – ne sachant pas la plupart du temps que les médicaments contrefaits ne sont pas les originaux ; et enfin des dépenses considérables afin de lutter contre les contrefaçons.

***
Les initiatives pour contrer les contrefaçons de médicaments

Les médicaments contrefaits sont généralement distribués à travers des réseaux extrêmement complexes, ce qui rend particulièrement difficile la lutte pour endiguer leur propagation. Dans son « Guide pour l’élaboration de mesures visant à éliminer les médicaments contrefaits », l’OMS identifie différentes initiatives juridico-socio-politiques pouvant être mises en place pour les Etats afin de limiter la propagation de ces médicaments contrefaits, ces recommandations certes pertinentes sont particulièrement difficiles à mettre en place dans des régions du globe dans lesquelles les Etats ont peu de moyens et dont les structures sont gangrénées par la corruption endémique. Dans cet article, nous nous intéresserons par conséquent davantage aux solutions mises en place par des entreprises privées : start-ups spécialisées dans la lutte contre les médicaments contrefaits ou grandes entreprises pharmaceutiques.

L’une des pistes suivies par différentes start-up, notamment PharmaSecure, basée en Inde, ou Sproxil, basée au Nigéria et collaborant activement avec le gouvernement de ce pays, est d’utiliser le très large accès au smartphone des populations de ces pays pour leur permettre d’identifier les boîtes de médicaments contrefaites selon le modèle suivant : les fabricants de médicaments collaborent avec ces start-ups afin de mettre en place des codes (sous forme numérique ou de QR codes) dissimulées à l’intérieur des boîtes ou sur l’emballage du médicament, sous une surface à gratter ou décoller. Le patient peut télécharger gratuitement une application et y scanner ces codes pour vérifier que ses médicaments sont authentiques. Ces applications permettent en-sus aux patients de bénéficier de conseils relatifs à leurs traitements. Elles tiennent le rôle, dans leur fonctionnement, d’un tiers de confiance permettant de certifier au patient, consommateur final du médicament, que personne ne s’est substitué frauduleusement au fabricant légitime.

Figure 1 – Modèle de fonctionnement des applications mobiles de vérification de l’authenticité des médicaments

Le système décrit ci-dessus fonctionne globalement de la même manière que la sérialisation dont la mise en place a commencé il y a plusieurs années et est décrite dans le règlement européen 2016/61 ; à l’exception du fait que la vérification est réalisée par le patient et pas par le pharmacien.

D’autres applications mobiles, comme CheckFake et DrugSafe, développent un système de vérification différent, tirant profit de la caméra du smartphone pour vérifier la conformité en matière de formes, de contenus et de couleurs des packaging des médicaments. Enfin, une autre catégorie d’applications, mettent en place un système permettant d’analyser la forme et la couleur des médicaments eux-mêmes de manière à identifier de quels comprimés il s’agit et s’ils sont authentiques.

Ces différentes solutions présentent un certain nombre de qualités, en particularité leur facilité de déploiement et d’utilisation par les patients dans tous les pays du monde. En revanche, elles présentent l’inconvénient d’être lancées dans une course de vitesse avec les contrefacteurs poussés à produire des contrefaçons de plus en plus réalistes et ressemblantes. Par ailleurs, elles sont difficilement applicables pour aller plus loin : sécuriser la totalité des chaînes d’approvisionnement ou encore tracker le circuit des médicaments dans les hôpitaux, c’est la raison pour laquelle de nombreux grands groupes pharmaceutiques, comme Merck ou Novartis par exemple, misent depuis quelques temps déjà sur une technologie différente : la Blockchain. Explications.

***
Présentation succincte de la technologie Blockchain –

La Blockchain est une technologie conçue en 2008, sur laquelle se sont construites les crypto monnaies depuis cette date. Il s’agit d’une technologie sécurisée par cryptographie de stockage et de transmission d’informations sans organe de contrôle centralisé. L’objectif principal est de permettre à un protocole informatique d’être un vecteur de confiance entre différents acteurs sans tiers intermédié. Le mécanisme de la Blockchain permet aux différents acteurs qui y participent d’obtenir un accord unanime sur le contenu des données et d’éviter leur falsification ultérieure. Ainsi, la méthode historique de consensus entre les acteurs est celle dite de la « preuve de travail » : un certain nombre d’acteurs fournissent de la puissance de calcul afin de valider l’arrivée de nouvelles informations. Dans le cadre des cryptomonnaies, ces acteurs sont appelés les mineurs : des machines informatiques très puissantes et aux dépenses énergétiques importantes reçoivent toutes en même temps un problème mathématique complexe à résoudre, la première qui réussira sera en mesure de valider la transaction et d’être rémunérée pour cela. Chacun des participants, appelés « nœuds », possède par conséquent un historique mis à jour du grand livre de compte qu’est la Blockchain. Dans les faits, cette attaque est peu envisageable, sur des blockchains comme celles du Bitcoin par exemple, tant la puissance de calcul à développer serait phénoménale (peut-être qu’un jour l’ordinateur quantique rendra-t-il obsolète ce que nous considérons actuellement comme de la cryptographie, mais c’est un autre débat…) D’autres techniques de validation existent désormais, comme la preuve de participation ou encore la preuve de stockage. Elles ont essentiellement été conçues afin de répondre aux problématiques de scalabilité et de durabilité énergétique des blockchains.

Figure 2 – Schéma de l’ajout d’un bloc à une blockchain

Conçue à la suite de la crise financière de 2008, cette technologie a une forte connotation politique, et le Bitcoin a par exemple pour philosophie de permettre un affranchissement des individus envers les systèmes de contrôle bancaire et politique. Ainsi, les blockchains originelles, comme celle du Bitcoin, sont dites « ouvertes » : chacun peut lire et écrire les registres de la chaîne. Avec le temps, et pour davantage de praticité par des entreprises privées, des blockchains semi-fermées (tout le monde peut lire mais seul un organisme centralisateur peut écrire) ou fermées (la lecture et l’écriture sont réservées à un organisme centralisateur) ont été développées. Ces nouvelles formes de blockchains s’éloignent considérablement de la philosophie de départ, et l’on peut légitimement interroger leur pertinence : elles présentent certains inconvénients de la blockchain en termes de difficulté d’utilisation tout en conservant également les problématiques liées à une base de données centralisées : une seule entité peut décider volontairement de la corrompre ou souffrir d’un piratage. Cette configuration fermée permet souvent une plus grande scalabilité mais pose une question autant technologique que philosophique : une blockchain, lorsqu’elle est pleinement centralisée, en est-elle encore une ?

***
Perspectives d’utilisation de la technologie Blockchain dans la lutte contre les médicaments contrefaits

A l’heure où la confiance est plus que jamais une problématique centrale de l’industrie pharmaceutique, qui voit sa légitimité et son honnêteté questionnées sans répit, il est logique que les acteurs de ce secteur s’intéressent à la technologie de la confiance par excellence. Parmi les différents cas d’usage possibles, sur lesquels nous pourrons sans doute revenir lors de prochains articles, la lutte contre les médicaments contrefaits est l’un des plus prometteurs et des plus importants en termes de vies humaines potentiellement sauvées. Ainsi, Merck a récemment commencé à collaborer avec Walmart, IBM et KPMG dans le cadre d’un projet pilote porté par la FDA afin d’utiliser la blockchain pour permettre aux patients de tracker la totalité du circuit du médicament qu’ils ont entre les mains. Ce concept est déjà mis à l’étude de manière fonctionnelle à Hong Kong à propos du Gardasil et à l’aide d’applications mobiles téléchargées par les pharmaciens et les patients. Ainsi, toute la chaîne d’approvisionnement du médicament est bâtie autour de la blockchain permettant de récupérer et d’assembler un grand nombre de données concernant par exemple les dates d’expédition ou encore les conditions et températures de conservation. Le consortium précédemment cité explore également l’utilisation de Non-Fungible Tokens (NFT) : des jetons numériques uniques et non interchangeable. A chaque boîte de médicament produite serait associé un NFT, qui suivrait la boîte dans son circuit, du fabricant au grossiste, du grossiste au pharmacien et du pharmacien au patient, par exemple. Ainsi, chaque patient recevrait dans le futur un NFT en même temps que sa boîte de médicaments afin d’en certifier l’inviolabilité de la provenance. Aucun des acteurs de la chaîne d’approvisionnement ne pourrait prendre la liberté d’ajouter frauduleusement des médicaments contrefaits puisque ces derniers ne posséderaient pas leur NFT associé. Cette vision du futur est probablement réjouissante et en faveur d’une sécurité accrue du médicament, mais elle ne sera réalisable qu’après un travail important, d’une part d’éducation des parties prenantes et d’autre part de mise en place d’interfaces digitales accessibles à tous les patients.

***

Avec l’émergence du e-commerce et de sa facilité d’accès toujours plus importante, le problème des médicaments contrefaits a explosé ces dernières années et il sera nécessaire que les différents acteurs de l’écosystème pharmaceutique se mobilisent et se montrent créatifs pour l’endiguer, ainsi que pour restaurer la confiance détériorée. Plusieurs initiatives extrêmement intéressantes utilisant la technologie de la blockchain sont actuellement portées par différents acteurs du secteur de la santé, nous pouvons voir dans ces projets l’esquisse d’une potentielle solution à la contrefaçon des médicaments, mais nous devons toutefois les considérer avec un certain esprit critique tant la tentation de faire du marketing autour du buzz-word que représente la blockchain depuis l’explosion des crypto-monnaies en 2017 peut être forte – et même, malheureusement, lorsque les problématiques pourraient parfaitement se satisfaire d’une base de données centralisée. Pouvons-nous aller jusqu’à penser comme certains spécialistes de cette technologie que la blockchain n’est viable et utile que lorsqu’elle est utilisée pour des transferts financiers ? Le débat est ouvert et nul doute que le futur y apportera rapidement une réponse !

Vous souhaitez discuter du sujet ? Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial relatif à la PharmaTech ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Généralités Recherche exploratoire

Démanteler le cartel des éditeurs scientifiques pour libérer l’innovation ?

” Text mining of academic papers is close to impossible right now. “

Max Häussler – Bioinformatics researcher, UCSC

Devant l’explosion du nombre d’articles scientifiques publiés et l’augmentation exponentielle des capacités de calcul, le constat est sans appel : la manière dont nous lirons demain ces articles n’aura probablement plus rien à voir avec le fastidieux, lent et répétitif travail de lecture actuel et passera sans nul doute de plus en plus par l’utilisation de techniques intelligentes de text-mining. En décuplant nos capacités d’analyse, ces techniques permettent – et permettront encore davantage demain – de libérer la créativité et de faire émerger une innovation scientifique plus rapide et moins chère. Pour le moment, ces réjouissantes perspectives se heurtent toutefois à un obstacle de taille : le cartel des éditeurs scientifiques – l’une des industries les plus lucratives du monde, qui entend bien ne pas mettre en péril ses énormes rentes.

Du text-mining et de sa nécessité :

Le text-mining est une technologie qui a pour objectif d’obtenir très rapidement des informations clés et jusqu’à présent inconnues à partir d’une très grande quantité de textes – il s’agit ici de littérature biomédicale. Cette technologie est par nature pluri-disciplinaire empruntant notamment aux techniques de l’apprentissage automatique, de la linguistique et des statistiques.

L’objet de cet article n’est pas de constituer une étude approfondie et technique du text-mining mais il est tout de même nécessaire, pour la pleine compréhension du potentiel de cette technologie, d’en décrire les grandes étapes :

  • Le recueil et la sélection des textes à analyser : cette première étape consiste à utiliser des algorithmes de recherche afin de télécharger automatiquement les abstracts d’intérêt depuis des bases d’articles scientifiques (comme PubMed, par exemple, qui a elle seule en référence 12 000 000 articles scientifiques). Une recherche sur la littérature grise pourra également être menée afin d’être le plus exhaustif possible.
  • La préparation des textes à analyser : Cette étape aura pour objectif de mettre les textes à analyser dans une forme prévisible et analysable en fonction de la tâche que l’on souhaite accomplir. Il existe tout un ensemble de techniques afin de réaliser cette étape qui permettra notamment de supprimer le « bruit » du texte et de « tokeniser » les mots à l’intérieur des phrases.
  • L’analyse des données issue des textes : L’analyse des données dépendra en grande partie de la préparation du texte. Différentes techniques de statistiques et de data science pourront être mis en œuvre : les machines à vecteurs de support, modèles de Markov cachés ou encore par exemple, les réseaux de neurones.
  • La visualisation des données : La question de la visualisation des données est probablement plus importante que l’on pourrait le penser. En fonction des options choisies : tableaux ou modèles en 3D par exemple, les informations et méta-informations auxquelles aura accès l’utilisateur du modèle seront plus ou moins pertinentes et explicatives.

Le text-mining a déjà fait ses preuves en matière de recherche scientifique biomédicale : ainsi, il a entre autres été utilisé pour découvrir des associations entre protéines et pathologies ; pour comprendre les interactions entre protéines ou encore pour élucider le docking de certaines molécules médicamenteuses à leur cible thérapeutique. Pourtant, la plupart du temps, cette technologie n’est mise en œuvre que sur les abstracts des articles, ce qui a pour conséquence de diminuer considérablement sa puissance en termes de fiabilité des données obtenues ainsi que le nombre de ses applications.

Pourquoi, par conséquent, ne pas utiliser les millions d’articles scientifiques disponibles en ligne ? De nouvelles hypothèses de recherche pourraient être formulées, de nouvelles stratégies thérapeutiques pourraient être crées. Cela est technologiquement à porter de main mais les éditeurs scientifiques semblent pour le moment en avoir décidé autrement. Explications.

Des problèmes posés par les éditeurs scientifiques :

A leur émergence, à l’issue de la seconde guerre mondiale, les éditeurs scientifiques avaient une réelle utilité dans la diffusion de la science : en effet, les différentes sociétés savantes n’avaient que de faibles moyens pour diffuser les travaux et conclusions de leurs membres. A l’époque, la diffusion des articles publiés se faisaient à travers l’édition de revues papiers, qui présentaient un coût trop élevé pour la plupart des sociétés savantes. Depuis la naissance de cette industrie et en dépit des considérables modifications des moyens de transmission de la connaissance scientifique avec Internet, son business model n’a cependant pas du tout évolué, devenant désormais anachronique et portant désormais ses marges brutes à des pourcentages faisant passer les géants publicitaires en ligne comme Google ou Facebook pour des business peu rentables. Les éditeurs scientifiques sont en effet, la seule industrie du monde qui obtient la matière première (les articles scientifiques) gratuitement de la part de ses clients (les scientifiques du monde entier, dont les recherches sont la plupart du temps financées par de l’argent public) et dont la transformation (le peer-reviewing) est également mise en œuvre de manière bénévole par ses clients.

Paiement mis en place par les éditeurs scientifiques.

Ainsi, les éditeurs scientifiques ont mis en place un « étrange système de triple-paiement », permettant à des entités privées de capter de l’argent public destiné à la recherche et à l’enseignement. Les Etats financent les recherches menant à la rédaction des articles scientifiques, paient les salaires des scientifiques qui bénévolement participent au peer-reviewing et finalement paient encore une fois, à travers les abonnements des universités et laboratoires de recherche, pour avoir accès à la production des connaissances scientifiques qu’ils ont déjà financée par deux fois ! Un autre modèle, parallèle à celui-ci, se développe également depuis quelques années, celui de l’auteur-payeur dans lequel les chercheurs payent des frais de publication afin de rendre leurs travaux plus facilement accessibles aux lecteurs…nous dirigeons nous vers un système de quadruple paiement ?

Les conséquences délétères du système mis en place par les éditeurs scientifiques ne sont cependant pas uniquement financières mais impactent également la qualité des publications scientifiques produites et donc la validité de potentiels modèles d’intelligence artificielle basés sur les données de ces articles. Du business-model basé sur l’abonnement à des journaux découle la volonté pour les éditeurs de privilégier les découvertes spectaculaires et profondément innovantes aux travaux de confirmation, ce qui pousse certains chercheurs, poussés par la course à l’« impact factor », à frauder ou à publier de manière très précoce des résultats statistiquement peu consolidés : il s’agit là d’une des raisons de la crise de la reproductibilité que traverse actuellement la science et également de l’une des causes possibles de l’insuffisante de publication de résultats négatifs, et pourtant hautement informatifs : on peut ainsi estimer qu’un essai clinique sur deux ne donne lieu à aucune publication.

Enfin, et c’est ce point qui nous intéresse le plus dans cet article, les éditeurs scientifiques sont un frein au développement du text-mining sur les immenses bases d’articles qu’ils possèdent, ce qui a, in fine, un impact colossal sur notre connaissance et compréhension du monde ainsi que sur le développement de nouveaux médicaments. En effet, il est actuellement extrêmement difficile de réaliser du text-mining sur des articles scientifiques complets à grande échelle car cela n’est pas autorisé par les éditeurs, même lorsque l’on est titulaire d’un abonnement et que l’on a légalement le droit de lire les articles. Plusieurs pays ont légiféré afin que les équipes de recherche mettant en place du text-mining ne soient plus obligées de demander l’autorisation des éditeurs scientifiques. En réponse à ces évolutions légales, bénéficiant de leur situation oligopolistique, les éditeurs scientifiques ont mis en place des barrières technologiques tout à fait artificielles : ainsi, il est devenu impossible de télécharger des articles rapidement et de manière automatisée, le rythme maximal imposé étant généralement de 1 article toutes les 5 secondes, ce qui signifie qu’il faudrait environ 5 ans pour télécharger tous les articles relatifs à la recherche biomédicale. L’intérêt de ce système pour les éditeurs scientifiques est de pouvoir rançonner – le terme est fort mais c’est bien celui qui convient – les grandes entreprises pharmaceutiques qui souhaitent lever ces barrières techniques artificielles pour leur projet de recherche.

Le système actuel de publications scientifiques, nous l’avons montré, ne profite qu’à quelques firmes au dépend de très nombreux acteurs – chercheurs du monde entier et encore davantage lorsqu’ils travaillent depuis des pays pauvres, Etats et contribuables, industries de la santé et enfin, en bout de la chaîne, les patients ne bénéficiant pas du plein potentiel de la recherche biomédicale. Dans ces conditions, de nombreuses alternatives à ce modèle voient le jour, dont certaines sont très largement rendues possibles par la technologie.

Vers la disruption de l’édition scientifique ?

” On ne détruit réellement que ce qu’on remplace “

Napoléon III – 1848

Chaque innovation ne vient-elle pas initialement d’une forme de rébellion ? Cela est en tout cas particulièrement vrai lorsqu’il s’agit des différentes initiatives menées jusqu’à présent pour libérer le potentiel d’une science libre et ouverte, tant ces entreprises ont souvent pris la forme d’opérations de piraterie. Entre manifestes et pétitions, notamment l’appel au boycott lancé par le chercheur en mathématiques Timothy Gowers, s’appuyant sur le texte « The cost of knowledge », les mouvements de contestation menés par des scientifiques et les créations de plateformes open source comme https://arxiv.org/ ont été nombreux. Rares sont cependant les actions qui ont eu autant d’impact que celles d’Aaron Swartz, l’un des principaux théoriciens de l’open source et de la science ouverte, tragiquement acculé au suicide à 26 ans, à 1 mois d’un procès durant lequel il risquait 35 ans de réclusion pour avoir piraté 4,8 millions d’articles scientifiques ou bien sûr, celles d’Alexandra Elbakyan, la célèbre fondatrice du site Sci-Hub, permettant d’accéder gratuitement – et illégalement – à la majeure partie de la littérature scientifique.

Aaron Swartz et Alexandra Elbakyan

Plus récemment, les tenants du mouvement open source se sont adaptés au tournant radical du text-mining, à travers notamment le projet de Carl Malamud, visant à profiter d’une zone grise juridique pour proposer aux équipes de recherche académiques de miner la gigantesque base de 73 millions d’articles qu’il a constituée. Solution intéressante mais non pleinement aboutie, cette base de données n’étant pour le moment pas accessible par Internet pour des raisons juridiques, il est nécessaire de se déplacer en Inde, où elle est hébergée, pour y avoir accès.

Ces initiatives fonctionnent sur des formes plus ou moins légales de captation des articles après leur publication par des éditeurs scientifiques. Dans la perspective d’une alternative plus pérenne, l’idéal serait de remonter la chaîne de valeur et par conséquent de travailler en amont avec les chercheurs. L’avènement de la technologie blockchain – une technologie de stockage et d’échange d’informations ayant la particularité d’être décentralisée, transparente et par conséquent hautement sécurisée, sur laquelle de futurs articles de Resolving Pharma reviendront en détail – est ainsi pour beaucoup de chercheurs et de penseurs du sujet une formidable opportunité de remplacer définitivement les éditeurs scientifiques dans un système induisant davantage de justice et permettant la libération de l’information scientifique.

La transformation du système sera probablement lente – le prestige accordé par les chercheurs aux noms de grandes revues scientifiques appartenant à l’oligopole perdurera dans le temps – peut-être même qu’elle n’arrivera pas, mais la Blockchain a, si son implémentation est réussie, la capacité de répondre aux problématiques posées plus haut dans cet article de différentes manières :

Une plus juste répartition financière

Nous l’avons vu, le business model des éditeurs scientifiques est peu vertueux, c’est un euphémisme. A l’autre opposé, l’Open Access, en dépit de ses indéniables et prometteuses qualités, peut également poser certains problèmes, en étant parfois dénué de peer-reviewing. L’utilisation d’une cryptomonnaie dédiée au monde de l’édition scientifique pourrait supprimer le système de triple paiement, chaque acteur pouvant être payé à la juste valeur de sa contribution. L’institution d’un chercheur recevrait un certain montant de cryptomonnaie lorsque celui-ci publierait ainsi que lorsqu’il participerait au peer-reviewing d’un autre article. L’accès des institutions aux publications se ferait quant à lui à travers le paiement d’une somme en cryptomonnaie. En dehors des aspects financiers, les droits d’auteurs, auxquels renoncent actuellement les chercheurs, seraient inscrits automatiquement dans la blockchain pour chaque publication. Les institutions de recherche garderont ainsi le droit de décider à quel prix sera disponible le fruit de leur travail. Un système de ce type permettrait par exemple à quiconque souhaitant utiliser un outil de text-mining de payer une certaine somme de cette cryptomonnaie, qui reviendrait aux auteurs et reviewers des articles utilisés. Le text-mining à grande échelle serait alors devenu une commodité.

Un traçage des usages des lecteurs et la définition d’un réel « impact factor »

Actuellement, et même si l’on tente de dénombrer les citations des articles, l’usage réalisé des articles scientifiques est difficilement quantifiable, alors qu’il pourrait constituer une métrique intéressante pour les différents acteurs de l’écosystème de la recherche. La Blockchain permettrait de tracer précisément chaque transaction. Ce traçage des usages des lecteurs permettrait également d’amener une certaine forme de justice financière : on peut imaginer qu’à travers un Smart Contract, une simple lecture ne coûterait pas exactement la même quantité de cryptomonnaie que la citation de l’article. Il serait ainsi possible de quantifier le réel impact qu’aurait une publication et remplacer le système d’ « impact factor » par la distribution en temps réel de « tokens de réputation » aux scientifiques, qui peut par ailleurs être conçue de manière à ne pas décourager la publication de résultats négatifs (d’ailleurs, pour pallier à ce problème, des chercheurs ont mis en place une plateforme dédiée à la publication de résultats négatifs : https://www.negative-results.org/)

Avec le développement récent des Non-Fungible Tokens (NFT), nous pouvons même imaginer l’émergence demain d’un marché secondaire des articles scientifiques, qui seront ainsi échangés d’utilisateurs à utilisateurs, comme cela est déjà possible pour d’autres objets numériques (éléments de jeux vidéo, morceaux de musique, etc).

Un moyen de limiter la fraude

Actuellement, le système de peer-reviewing, en plus d’être particulièrement long (il s’écoule en moyenne 12 mois entre la soumission et la publication d’un article scientifique, contre deux semaines sur une plateforme comme utilisant la Blockchain comme ScienceMatters) est tout à fait opaque au lecteur final de l’article qui ne dispose ni du nom des chercheurs ayant pris part au processus, ni même des formes itératives chronologiques de l’article. La Blockchain pourrait permettre, par sa structure infalsifiable et chronologique, d’enregistrer ces différentes modifications. Il s’agit là d’un sujet qui mériterait à lui seul un autre article, mais la Blockchain permettrait également d’enregistrer les différentes données et métadonnées ayant conduit aux conclusions de l’article, qu’il s’agisse par exemple d’essais précliniques ou cliniques, et d’éviter ainsi la fraude tout en augmentant la reproductibilité.

Manuel Martin, l’un des co-fondateurs de Orvium, une plateforme de publication scientifique basée sur la Blockchain, estime ainsi : « by establishing a decentralized and competitive market, blockchain can help align goals and incentives for researchers, funding agencies, academic institutions, publishers, corporations and governments. »

L’utilisation du potentiel de l’intelligence artificielle dans l’exploitation des articles scientifiques est une opportunité de créer une réelle intelligence collective, de faire advenir une recherche plus rapide et efficiente et probablement de soigner de nombreux patients à travers le monde. Le verrou qu’il nous reste à faire sauter n’est pas technologique mais organisationnel. Eliminer les éditeurs scientifiques de l’équation sera ainsi un combat aussi âpre que nécessaire, qui devrait réunir chercheurs, Etats et grandes entreprises pharmaceutiques, dont les intérêts s’alignent. Si l’on peut être relativement pessimiste quant aux capacités de coopération de ces différents acteurs, on ne peut pas en revanche émettre de doutes quant à la fantastique puissance de transparence de la Blockchain qui, combinée à la détermination de quelques entrepreneurs comme les fondateurs des plateformes Pluto, Scienceroot, ScienceMatters ou Orvium, constituera un outil déterminant dans ce combat pour révolutionner l’accès aux connaissances scientifiques.

Les propos tenus et les opinions exprimées dans cet article n’engagent que leur auteur. Les autres auteurs prenant part à Resolving Pharma n’y sont pas associés.

Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Généralités

La loi d’Eroom, l’industrie pharmaceutique de demain et Resolving Pharma

372. C’est le nombre de jours s’étant écoulés entre la découverte du premier cas de Covid-19 à Wuhan et la vaccination de Margaret Keenan dans le centre de l’Angleterre, première personne au monde à recevoir une dose de vaccin anti-Covid après sa commercialisation. Jamais dans son histoire, l’humanité n’aura été aussi rapide à trouver une solution à une nouvelle maladie. Pour autant, cet éblouissant succès de l’industrie pharmaceutique ne doit pas nous aveugler : le développement de nouveaux médicaments est de plus en plus inefficient. Plus que jamais, des initiatives permettant d’utiliser la technologie dans la recherche et le développement de nouveaux médicaments sont indispensables au maintien du progrès de l’innovation.

L’industrie pharmaceutique est cassée. Elle ne pourra pas, sur les bases actuelles de ce que sont ses moyens et méthodes de recherche et développement, reproduire dans le futur les progrès médicaux dont elle a été à l’origine dans le passé. Chaque nouvelle molécule mise sur le marché coûtera inéluctablement plus cher à développer que la précédente. C’est en tout cas, ce qu’énonce la loi d’Eroom, décrivant empiriquement le déclin de l’efficience de l’industrie pharmaceutique (1). Ainsi, la rentabilité de la R&D des 12 plus grands groupes pharmaceutiques mondiaux a atteint en 2018 son plus bas historique à 1,9% alors qu’elle était encore de 10,1% en 2010 (2).

Figure 1 – Illustration de la diminution de l’efficience de l’Industrie Pharmaceutique : tous les 9 ans, le nombre de médicaments approuvés par la FDA par milliard de dollars dépensé en R&D diminue de moitié (1).

En dépit de nombreuses avancées scientifiques auxquelles les dernières décennies nous ont permis d’assister (augmentation de la taille des chimiothèques, identification de nouvelles cibles thérapeutiques par le séquençage ADN, bases de données de protéines en trois dimensions, screening à haut débit, utilisation d’animaux transgéniques, etc) et du fait que ces avancées nous permettent à la fois de produire plus de candidats-médicament et de les sélectionner avec davantage d’acuité, différentes problématiques structurelles de l’industrie pharmaceutique font s’envoler au fil des années les fonds nécessaires à la mise sur le marché d’une nouvelle molécule.

La littérature a permis d’identifier certaines causes de ce phénomène :

  • La nature structurellement incrémentale de la qualité de chaque nouveau produit proposé par l’industrie pharmaceutique : en effet, chaque nouveau médicament, pour être commercialisé et remboursé, doit présenter une efficacité supérieure ou au moins non-inférieure au médicament correspondant au traitement de référence de la pathologie ciblée.
  • Le durcissement progressif des réglementations, contre lequel il est difficile de lutter et qui est même, pour les patients et les systèmes de santé, très probablement une excellente chose.
  • La tendance au surinvestissement inutile de la part des laboratoires pharmaceutiques, se basant sur les retours sur investissement passés.
  • La concentration des projets de recherche dans des aires thérapeutiques correspondant à des besoins médicaux non-satisfaits, aux taux d’échec supérieurs et aux mécanismes biologiques moins bien connus (3).

D’un point de vue économique, il est ainsi envisageable que le coût du capital (correspondant basiquement au taux de rendement requis par des apporteurs de capitaux au sein d’une entreprise eu égard à la rémunération qu’ils pourraient obtenir d’un placement présentant le même profil de risque sur le marché) devienne supérieur à la rentabilité attendue de la R&D : mécaniquement, les capitaux disponibles diminueront et les entreprises retrancheront leurs budgets dédiés à la recherche, ce qui aura pour conséquence de fragiliser la position des industriels dans la chaîne de valeur du médicament.

Devant ces perspectives peu réjouissantes pour l’industrie pharmaceutique, plusieurs possibilités s’offrent à elle : développer de nouveaux modèles de collaboration avec des sociétés biopharmaceutiques, sous-traitance auprès d’acteurs spécialisés, développement d’une politique d’aversion au risque, mais aussi et surtout le développement de nouvelles méthodes d’innovation. Ce dernier point retiendra principalement notre attention.

Ainsi, Resolving Pharma s’intéressera, à travers une Newsletter dans un premier temps, à documenter les différents moyens technologiques permettant d’améliorer et de rendre plus efficients les moyens de développer de nouvelles thérapeutiques et de soigner les patients. En réponse à cette problématique, Resolving Pharma tentera de fédérer des acteurs variés et complémentaires autour d’une approche audacieuse et radicale de l’innovation et de l’entrepreneuriat. Les thèmes abordés seront l’intelligence artificielle, la blockchain, l’informatique quantique, l’impression 3D et beaucoup d’autres. Chaque numéro, à travers articles et interviews, s’attachera à explorer les différentes opportunités que ces technologies de rupture apportent ou pourraient apporter à un champ particulier du développement thérapeutique. Il mettra également en lumière l’émergence du champ des « PharmaTechs », entreprises technologiques de services à l’industrie pharmaceutique.

Le combat contre la fatalité de la loi d’Eroom est immense et incertain, mais il est de toute façon de notre responsabilité de professionnels de santé de le mener pour les dizaines de millions de patients à travers le monde atteints de maladies incurables et dont la recherche et la science sont le seul espoir d’un avenir meilleur. Chaque long voyage commence inéluctablement par un premier pas et Resolving Pharma est le nôtre. Nous verrons où il voudra bien nous mener.

1) Scannell et al. «Diagnosing the decline in pharmaceutical R&D efficiency», Nature Reviews Drug Discovery, Volume 11/March 2012
2) Unlocking R&D productivity – Measuring the return from pharmaceutical innovation 2028, Deloitte Centre for Health Solutions, 2019
3) Pammolli et al. «The productivity crisis in pharmaceutical R&D» Nature Reviews Drug Discovery, Volume 10/June 2011, pp. 428-438

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !