Catégories
Entrepreneuriat Généralités Recherche exploratoire

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux

« [DeSci] transformed my research impact from a low-impact virology article every other year to saving the lives and limbs of actual human beings » Jessica Sacher, co-fondatrice de Phage Directory

Dans un précédent article, l’un des tous premiers publiés sur Resolving Pharma, nous nous étions intéressés aux problématiques posées par le rôle centralisateur des éditeurs scientifiques, qui en plus de poser des questions financières et éthiques, est un frein à l’innovation et à la recherche scientifique. A l’époque, nous avions, en plus de dresser ce constat, proposé des pistes de réflexions pour changer de modèle, en utilisant notamment les NFTs et la Blockchain. Depuis plusieurs mois, et grâce à la popularisation du Web3 et des DAOs, émergent des quatre coins du monde des initiatives en faveur d’une science permettant de faciliter l’intelligence collective, de redessiner les méthodes de financement et de publication de la recherche et, in fine, de réduire considérablement le chemin entre le laboratoire et les patients. Il est temps d’explorer cette révolution dont nous sommes encore à l’année zéro et que l’on appelle la DeSci pour Science Décentralisée.

De la nécessaire émergence de la DeSci

Une histoire est souvent prise en exemple dans le monde de la DeSci, tant elle illustre toutes les inefficiences de la science actuelle : celle de Katalin Kariko, biochimiste hongroise ayant mené de nombreuses recherches à partir des années 1990 (sur l’ARN messager vitro-transcrit) qui seront à l’origine, quelques décennies plus tard de plusieurs vaccins contre le Covid-19. En dépit des aspects novateurs des recherches menées par Katalin Kariko, elle ne put bénéficier des bourses de recherche nécessaires à leur poursuite pour des raisons de rivalités politiques : l’Université de Pennsylvanie dans laquelle elle se trouvait avait fait le choix de privilégier les recherches portant sur des thérapies ciblant directement l’ADN. Le manque de moyens entraina le manque de publications et K. Kariko fut rétrogradée dans la hiérarchie de son unité de recherche. Cet exemple démontre les conséquences délétères que peut avoir une organisation centralisée de l’attribution des financements (principalement les institutions publiques et les fondations privées) et de la gestion de la réputation des scientifiques (les éditeurs scientifiques).

Combien de chercheurs passent davantage de temps à chercher des financements qu’à travailler sur des sujets de recherche ? Combien de dossiers différents dans la forme doivent-ils remplir pour accéder à ces financements ? Combien de recherches prometteuses mais trop risquées ou trop peu conventionnelles sont abandonnées faute de financement ? Combien d’Universités paient des fortunes aux éditeurs scientifiques pour accéder aux connaissances scientifiques qu’elles ont-elles-même contribuées à établir ? Combien de résultats, parfois pervertis par les logiques de publication des éditeurs scientifiques, s’avèrent in fine non-reproductibles ? Avec toutes les barrières à l’échange de données relatives à la publication scientifique, la Science est-elle encore l’entreprise d’Intelligence Collective qu’elle doit être ? Combien de progrès scientifiques pourtant industrialisables et brevetés n’iront finalement pas jusqu’au marché faute de structures entrepreneuriales suffisamment solides et financées pour les porter (bien que des progrès considérables ont été réalisés ces dernières décennies pour permettre aux chercheurs de créer leurs start-up) ?

La DeSci, que nous pourrions tenter de définir comme étant un système d’organisation de la Science permettant, en s’appuyant sur les technologies et les outils Web3, à chacun de financer et de prendre part à la recherche et à la valorisation scientifique en échange de retour sur investissement ou de rémunération, se propose de répondre à toutes les problématiques mentionnées ci-dessus.

Dans un premier temps, cet article s’intéressera aux bases techniques de la Science Décentralisée puis explorera quelques cas d’usage dans lesquels la décentralisation pourrait améliorer l’efficience de la Science.

Tout comprendre au Web3, aux DAOs et à la Science Décentralisée

A l’origine du Web, de très profondes barrières à l’entrée existaient pour les utilisateurs souhaitant émettre des informations : en effet, avant les blogs, les forums et les réseaux sociaux, il fallait être en mesure de rédiger soi-même le code de son site Internet ou de payer quelqu’un pour le faire afin de pouvoir partager du contenu.

Avec l’arrivée, nous l’évoquions, des blogs et des réseaux sociaux, le Web2 a pris un visage différent : l’expression est devenue considérablement plus facile. En revanche, elle s’est accompagnée d’une grande centralisation : les plateformes de réseaux sociaux disposent des contenus que leurs utilisateurs publient et les exploitent commercialement (au travers de revenus publicitaires notamment) sans reverser un centime aux utilisateurs de leurs services.

Le Web3 est une nouvelle version d’Internet dans laquelle la notion de propriété a été introduite au moyen de la Blockchain. En effet, alors que le Web2 était construit sur des infrastructures centralisées, le Web3 utilise la Blockchain. En clair, les échanges de données sont enregistrés sur une Blockchain et peuvent donner lieu à une rétribution en cryptomonnaies ayant une valeur financière mais donnant également, dans certains cas, un pouvoir décisionnel sur les plateformes utilisées par les contributeurs. Le Web 3 est donc un moyen de marquer la propriété d’un contenu ou de rémunérer facilement l’action d’un utilisateur. Le Web3 est sans nul doute la version d’Internet la plus favorable à la création.

Enfin, nous ne pouvons pas évoquer le Web3 sans parler des Decentralized Autonomous Organization (DAOs). Ces organisations sont décrites par Vitalik Buterin, le co-fondateur emblématique de la Blockchain Ethereum, comme étant : « des entités vivant sur Internet et ayant une existence autonome, tout en s’appuyant sur des individus qu’elle embauche pour effectuer les tâches qu’elle ne peut pas faire directement ». De manière plus terre à terre, il s’agit d’assemblées virtuelles dont les règles de gouvernance sont automatisées et inscrites de façon transparente dans une blockchain, permettant ainsi à ses membres d’agir collectivement, sans autorité centrale ni tiers de confiance, et de prendre des décisions selon des règles définies et inscrites dans des Smart-contracts. Leur objectif est de simplifier et de rendre plus sûre, transparente et infalsifiable la prise de décision et l’action collectives. Les DAOs n’ont pas encore révélé leur plein potentiel mais elles ont déjà montré qu’elles pouvaient œuvrer comme des fonds d’investissement, des entreprises ou des associations caritatives décentralisés et efficients. Depuis quelques mois, des DAOs spécialisées dans la Science émergent, basées sur deux innovations technologiques majeures.

Les concepts technologiques sur lesquels s’appuie particulièrement la DeSci :

Pour comprendre le fonctionnement profond de la DeSci et plus particulièrement son immense et révolutionnaire potentiel, il est important de maîtriser deux concepts en particulier, plutôt peu communs dans le très vaste et grandissant domaine du Web3 mais qui se trouvent au cœur d’un certain nombre de projets de DeSci :

  • Les IP-NFTs : Le concept d’IP-NFT a été développé par les équipes de l’entreprise Molecule (dont vous trouverez une interview sur Resolving Pharma). Il constitue une rencontre entre l’IP (la propriété intellectuelle) et les NFTs (les non-fungible tokens) : il permet de tokeniser la recherche scientifique. Cela signifie qu’une représentation d’un projet de recherche est placée sur la Blockchain sous la forme d’un NFT échangeable. Un accord légal est passé automatiquement entre les investisseurs (acheteurs du NFT) et le scientifique ou l’institution qui mène les recherche. Les propriétaires du NFT seront en droit d’obtenir des rémunérations en cas de licensing de la propriété intellectuelle issue des recherches ou de création de start-up à partir de cette propriété intellectuelle.

Figure 1 – Schéma de fonctionnement de l’IP-NFT développé par Molecule (Source : https://medium.com/molecule-blog/molecules-biopharma-ipnfts-a-technical-description-4dcfc6bf77f8)

  • Les Data-NFTs : Beaucoup de projets Blockchain s’intéressent à la patrimonalité de la Data mais l’un des plus aboutis est Ocean Protocol. Un Data-NFT représente un droit d’auteur (ou une licence exclusive) enregistré dans la Blockchain et portant sur un jeu de données. Ainsi, il est possible pour un utilisateur d’exploiter ses données de plusieurs manières : en faisant payer des licences temporaires à d’autres utilisateurs, en vendant ses datasets ou en les collectivisant avec d’autres jeux de données dans le cadre d’un « Data Union ».

Ces deux concepts permettent de rendre sécable et liquide la propriété intellectuelle et ainsi de créer de nouveaux modèles de financement et de collaboration. Prenons un exemple simple : un chercheur peut présenter ses recherches et lever des fonds auprès d’investisseurs avant même qu’un brevet ne soit déposé. En échange, les investisseurs possèdent un IP-NFT qui leur permet de bénéficier d’un certain pourcentage de la propriété intellectuelle et des revenus qui seront potentiellement générés par l’innovation.

Passons désormais à quelques cas d’usage de la DeSci.

Transformer le reviewing scientifique

Lorsqu’un chercheur veut communiquer au reste de la communauté scientifique, il rédige un article qu’il soumet à des éditeurs scientifiques, si ces derniers acceptent le thème de la recherche, ils vont chercher d’autres chercheurs à même de vérifier la validité scientifique de l’article, un processus d’échange avec les auteurs s’ensuit alors : il s’agit du peer-reviewing. Les chercheurs prenant part à ce processus ne sont pas rémunérés par les éditeurs et sont principalement motivés par leur curiosité scientifique.

Ce système, tel qu’il est organisé actuellement – de manière centralisée, fait émerger plusieurs problématiques :

  • Il prend beaucoup de temps : cela prend, dans certaines revues, plusieurs mois entre la première soumission d’un article et sa publication définitive. Ce délai évitable peut être très dommageable à la progression de la science (mais nous y reviendrons plus tard dans cet article !). Par ailleurs, devant l’inflation du nombre d’articles et de revues scientifiques, le système basé sur le bénévolat des reviewers n’est pas dimensionné pour faire face à l’avenir.
  • L’article est soumis aux biais d’appréciation de l’éditeur ainsi qu’à ceux des reviewers, le tout dans un processus opaque, ce qui le rend extrêmement aléatoire. Des études ont montré qu’en soumettant à nouveau un échantillon de papiers déjà publiés et en modifiant les noms et les institutions des auteurs, 89% d’entre eux étaient rejetés (sans que les reviewers ne s’aperçoivent du fait que ces articles étaient déjà publiés)
  • L’intégralité du processus est généralement opaque et indisponible au lecteur final de l’article.

Le peer-reviewing de la Science Décentralisée sera entièrement différent. Plusieurs publications ont démontré la possibilité d’utiliser des DAOs scientifiques thématiques afin de rendre tout le processus plus efficient, équitable et transparent. Nous pouvons ainsi imaginer que la décentralisation pourrait jouer sur différents aspects :

  • Le choix des reviewers ne dépendrait plus uniquement de l’éditeur mais pourrait être approuvé collectivement.
  • Les échanges autour de l’article pourraient être enregistrés sur la Blockchain et seraient ainsi librement accessibles.
  • Plusieurs systèmes de rémunération, financière ou pas, peuvent être imaginés afin d’attirer des reviewers de qualité. Nous pouvons ainsi imaginer que chaque reviewing pourrait faire gagner des tokens permettant de s’inscrire dans un système de réputation (voir ci-dessous), de participer aux prises de décision du DAO mais aussi de participer à des concours dans l’objectif d’obtenir des subventions.

Les systèmes de peer-reviewing décentralisé n’en sont encore qu’à leurs premiers pas et, aussi radicalement prometteurs soient-ils, de nombreux défis restent à surmonter, à commencer par celui de l’interopérabilité entre différents DAOs.

Créer un nouveau système de réputation

La principale proposition de valeur apportée par le système centralisé de la Science est celui du système de réputation des acteurs. Pourquoi souhaitez-vous accéder à des écoles et des Universités prestigieuses, et pourquoi êtes-vous parfois prêts à vous endetter sur de nombreuses années pour cela ? Parce que le fait d’avoir le nom d’une Université donnée sur votre CV vous permettra d’accéder plus facilement aux opportunités professionnelles que vous visez. D’une certaine manière, les entreprises ont délégué une certaine partie de leur recrutement aux écoles et aux universités.  Autre système de réputation, nous l’évoquions plus tôt dans cet article : celui des éditeurs scientifiques, la qualité d’un chercheur n’est-elle pas mesurée au nombre d’articles qu’il a réussi à faire publier dans des revues prestigieuses ?

En dépit de leur coût prohibitif (qui permet aux éditeurs scientifiques de constituer l’une des industries ayant la marge brute la plus haute du monde – difficile de faire autrement lorsque l’on vend quelque chose que l’on obtient gratuitement !), ces systèmes souffrent de graves imperfections : le fait d’être accepté dans une Université et d’obtenir son diplôme reflète-t-il finement l’implication que l’on a eu durant ses études et les compétences que l’on a pu acquérir par diverses expériences à l’intersection du monde universitaire et du monde professionnel ? La réputation d’un scientifique est-elle réellement proportionnelle à son implication dans son écosystème ? Jorge Hirsch, l’inventeur de l’Indice H, ayant pour but de quantifier la productivité et l’impact scientifique d’un chercheur en fonction du niveau de citation de ses publications est d’ailleurs lui-même revenu sur la pertinence de cet indicateur.  Les peer-reviewings, la qualité des cours donnés, l’accompagnement de jeunes chercheurs ou encore l’impact réel de la Science sur la société ne sont en effet pas pris en compte par le système actuel.

Dans le cadre de la DeSci, il sera possible d’imaginer un système basé sur la Blockchain permettant de tracer et d’authentifier les actions d’un chercheur – et pas uniquement le fait de publier des articles – afin de le récompenser à travers des tokens de réputation non échangeables. Le grand défi de ce système de réputation sera encore une fois d’être transversal, interopérable et adopté par différentes DAOs. Nous pouvons imaginer que ces tokens pourront être utilisés pour participer à des votes (dans l’organisation de conférences, dans le choix d’articles, etc) et qu’ils seront eux-mêmes attribués selon des mécanismes de vote (par exemple, les étudiants ayant suivi un cours seront à même de décider collectivement du nombre de tokens à attribuer au professeur).

Transformer les codes de la publication scientifique pour faire émerger l’intelligence collective

La science est une œuvre collective et internationale dans laquelle, actuellement et en tant que chercheur, vous ne pouvez communiquer avec les autres équipes de recherche du monde entier qu’à travers :

  • Des publications dans lesquelles vous ne pouvez pas donner accès à l’ensemble des données générées par vos recherches et expérimentations (on estime qu’environ 80% des données ne sont pas publiées, ce qui participe à la crise de la reproductibilité scientifique
  • Des publications auxquelles les autres chercheurs ne peuvent pas accéder sans payer les éditeurs scientifiques (dans le cas de l’Open Science, c’est l’équipe de recherche à l’origine de la publication qui paie l’éditeur pour que les lecteurs puissent accéder gratuitement à l’article)
  • Des publications qui, par leur forme et les problématiques liées à leur accès, rendent très difficile l’utilisation d’algorithmes de Machine Learning qui pourraient accélérer la recherche
  • Et enfin, des publications scientifiques qui, du fait des durées des mécanismes éditoriaux d’approbation ne reflètent l’état de votre recherche qu’avec plusieurs mois de retard. Des crises sanitaires récentes comme celles du COVID-19 nous ont montré à quel point il pouvait être important de disposer de données qualitatives de manière rapide.

Internet a permis une transformation majeure des manières dont nous communiquons. Le mail et les messageries instantanées permettent, par rapport à la lettre qui mettait des semaines à arriver à son destinataire dans les siècles passés, de communiquer plus souvent et surtout d’envoyer des messages plus courts, à mesure que nous obtenons les informations qu’ils contiennent, sans nécessairement les agréger dans une forme complexe. Seule la communication scientifique, alors même qu’elle se fait désormais majoritairement par le biais d’Internet, résiste à cette tendance, au profit des éditeurs scientifiques et des formes traditionnelles de communication mais aussi et surtout aux dépends du progrès de la science et des patients dans le cas de la recherche biomédicale.

Comment, dans ces conditions, faire émerger l’intelligence collective nécessaire au progrès scientifique ? L’entreprise flashpub.io pense avoir la solution : les micro-publications, constituées d’un titre pensé pour être facilement exploitable par un algorithme de NLP, d’une figure unique, d’une brève description et de liens donnant accès à la totalité des protocoles et des données générées. 

Figure 2 – Structure d’une micro-publication (Source : https://medium.com/@flashpub_io)

Cette idée des micro-publications, si elle n’est pas directement liée à la Blockchain, sera, puisqu’elle permet le partage rapide et facilité de l’information, un remarquable outil d’intelligence collective et assurément, la modalité de communication scientifique la plus adaptée à l’ère à venir de la Science Décentralisée. L’objectif ne sera pas de remplacer les publications classiques mais plutôt d’imaginer une nouvelle manière de faire de la science, dans laquelle le narratif d’une innovation sera construit collectivement tout au long des expérimentations successives plutôt qu’après plusieurs années de travail par une seule équipe de recherche. Des voix contradictoires s’exprimeront et un consensus sera trouvé, ne modifiant pas fondamentalement le modèle classique de la Science mais le rendant plus efficient.

Faciliter le financement de l’innovation et la création de start-up de biotechnologie

Aujourd’hui, le financement de l’innovation, en santé notamment, fait face à un double problème :

  • Du côté des scientifiques et des entrepreneurs : en dépit du développement de nombreux écosystèmes de financement, de subventions non dilutives et de la maturation des fonds de venture capital, la question de la recherche de fonds reste essentielle et problématique pour la plupart des projets. Beaucoup de projets ne survivent pas à ce que l’on appelle la « Vallée de la mort », cette période avant de début des études cliniques durant laquelle lever des fonds est particulièrement compliqué.
  • Du côté des investisseurs : Il est très difficile pour un individu de prendre part au financement de la recherche et aux entreprises de Biotechs de manière satisfaisante.
    • Il peut être Business Angel et entrer tôt au capital d’une start-up prometteuse : cela n’est pas accessible à tous, car il faut un certain capital de départ pour entrer dans une start-up (et encore plus si l’on souhaite diversifier ses investissements pour lisser son risque)
    • Il est possible d’investir en bourse sur des sociétés de biotech cotées : l’espérance de gain est alors bien plus faible, les entreprises étant déjà matures et leurs résultats consolidés.
    • Il est possible de financer la recherche à travers des organismes de charités, mais dans ce cas, aucun retour sur investissement n’est possible et aucun contrôle sur les projets financés ne pourra être exercés.
    • Il est possible d’investir à travers des sites de crownfunding, mais là encore des problèmes structurels sont à mentionner : le choix des entreprises est limité et les investisseurs sont généralement davantage en position de prêteurs que d’investisseurs : ils ne détiennent pas réellement de parts de l’entreprise et seront rémunérés selon un taux annuel défini à l’avance.

L’un des mantras de l’industrie pharmaceutique les plus à la mode en ce moment est de mettre le patient au centre de ses thérapeutiques, ne faudrait-il pas, par cohérence, également lui permettre d’être au centre des systèmes de financement et de développement de ces thérapeutiques ?

La DeSci permettra à chacun – patient, proche de patient ou simplement (crypto)investisseur souhaitant avoir un impact positif sur le monde – via des systèmes d’IP-NFT, de data-NFT ou de tokenisation d’entreprise de financer facilement des projets de drug development quel que soit leur stade, de la recherche académique d’un chercheur à une entreprise déjà constituée.

Ce système de tokenisation des assets permet par ailleurs de générer des revenus complémentaires, à la fois pour l’investisseur et pour le projet cherchant à être financé :

  • Les mécanismes de « prêt lombard » présents dans la Finance Décentralisée permettront également aux investisseurs de générer d’autres types de revenus sur leurs parts des projets. En effet, la DeFi a remis au goût du jour les prêts collatéralisés : un emprunteur peut déposer des actifs numériques (des cryptomonnaies, mais également des NFTs ou des actifs réels tokenisés (entreprises, immobiliers, etc) en échange d’un autre actif (qui représente une fraction de la valeur qu’il a déposée, afin de protéger le prêteur) qu’il pourra investir selon différents mécanismes propres à la Finance Décentralisée et que nous ne développerons pas dans cet article. Ainsi, dans un système classique de private equity, l’argent investi dans une start-up est bloqué jusqu’à la possibilité d’un exit et ne génère pas de rendements autres que ceux attendus du fait de l’augmentation de la valorisation de l’entreprise. Dans le nouveau système décentralisé, une partie de l’argent que vous avez investi peut être placé en parallèle dans l’équivalent crypto d’un compte épargne (simplifions les choses, ce site n’étant pas dédié à la Finance Décentralisée !)
  • Par ailleurs, une autre possibilité pour les projets biotech, qu’ils soient déjà constitués sous forme d’entreprise ou pas, de générer des revenus supplémentaires est de tirer profit de la liquidité des actifs (qui n’existe pas dans le système de financement traditionnel) : il est tout à fait envisageable d’appliquer une taxation de quelque % à chaque transaction d’un IP-NFT ou d’un data-NFT.

Nous sommes dans un monde où il est parfois plus facile de vendre une image de singe pour 3 ou 4 millions de dollars que de lever cette somme pour combattre une pathologie mortelle. Il est temps de le comprendre et d’actionner les bons leviers pour aller chercher l’argent là où il se trouve – parfois très loin des sentiers battus.

Conclusion : une communauté naissante, beaucoup de travail et de grandes ambitions

En dépit d’initiatives à très haut potentiel de l’implication de plus en plus importante d’une communauté scientifique à travers le monde, la DeSci est encore jeune et reste à structurer, de nombreux défis seront à relever pour construire le futur. L’un des principaux, en dehors des aspects relatifs au cadre réglementaire, sera sans nul doute celui de l’éducation au sens large et il n’est pas encore adressé par les projets actuels. En utilisant les outils Web3 pour réinventer la manière dont peut se construire et se financer un cursus de haut niveau (vous serez demain payés pour suivre des formations en ligne – oui oui !), la DeSci se donnera les moyens d’intégrer les esprits les plus créatifs et entrepreneuriaux de son époque, à la manière dont les grands incubateurs ou fonds d’investissement comme Y Combinator ou Tech Stars ont misé sur l’éducation pour créer ou accélérer le développement des entreprises les plus impressionnantes de ces dernières années. Les Universités collaboratives de la DeSci doivent émerger, et la connexion entre l’Ed3 (l’éducation et l’apprentissage à l’ère du Web3) et la DeSci reste encore à mettre en œuvre.

Figure 3 – Présentation de l’écosystème DeSci embryonnaire à la conférence ETH Denver, le 17 février 2022 (depuis 3 mois, l’écosystème en pleine ébullition s’est considérablement enrichi d’autres projets)

Le Web 3.0 et les DAOs ont la grande particularité de permettre de récompenser en equity, ou équivalent, des personnes prenant part à un projet en mettant leurs compétences ou leurs moyens financiers à profit, et ce quelle que soit l’étape de développement d’un projet.  Ainsi, dans un monde décentralisé où les compétences et le matériel de recherche sont à portée de main, et où les intérêts des individus impliqués dans un projet sont plus alignés, le temps écoulé entre l’émergence d’une idée et son exécution est sensiblement plus faible que dans un monde centralisé. Ce modèle, pouvant réinventer le travail mais aussi ce qu’est une entreprise, s’applique à tous les domaines mais est particulièrement pertinent là où l’intelligence collective est importante et où des expertises de pointe de différents types sont nécessaires, comme la recherche scientifique.

De la même manière que nous pouvons raisonnablement penser que Bitcoin prendra de plus en plus de place dans le système monétaire international dans les années et décennies à venir, nous pouvons penser que la DeSci, étant donné ses caractéristiques et qualités intrinsèques, prendra de plus en plus de place face à ce que nous appellerons peut-être dans les prochaines années la « TradSci » (la Science organisée de manière traditionnelle). En permettant un alignement d’intérêt parfait de ses différents acteurs, la DeSci constituera probablement l’outil collaboratif d’Intelligence Collective le plus abouti et viable à grande échelle et sur le long terme dont n’aura jamais disposé Homo Sapiens. Lutte contre le réchauffement climatique, conquête spatiale, éradication de toutes les maladies, ou extension de la longévité humaine, la DeSci sera probablement le catalyseur des prochaines décennies d’innovations scientifiques et, en cela, impactera positivement votre vie. Ne passez pas à côté de l’opportunité d’en être l’un des premiers artisans !


Pour aller plus loin :

Crédits de l’illustration de l’article : 
  • Background : @UltraRareBio @jocelynnpearl and danielyse_, Designed by @katie_koczera
  • Montage : Resolving Pharma

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Clinique Préclinique Recherche exploratoire

L’intelligence artificielle contre les infections bactériennes : le cas de bactériophages

« If we fail to act, we are looking at an almost unthinkable scenario where antibiotics no longer work and we are cast back into the dark ages of medicine »

David Cameron, former UK Prime Minister

Des centaines de millions de vies sont en jeu. En effet, l’OMS a fait de l’antibiorésistance sa priorité numéro une à l’échelle globale en démontrant notamment que la résistance aux antibiotiques pourra entrainer plus de 100 millions de morts par an d’ici 2050 et qu’elle cause déjà actuellement environ 700 000 morts par an, dont 33 000 en Europe. Parmi les différentes stratégies thérapeutiques pouvant être mises en place, il y a celle de l’utilisation des bactériophages, approche alternative ancienne et délaissée à laquelle l’Intelligence Artificielle pourrait bien donner un coup de jeune. Explications.

Les stratégies pouvant être mises en place pour lutter contre l’antibiorésistance

Les actions et recommandations de santé publique visant globalement à réduire l’utilisation des antibiotiques, nombreuses et indispensables, constituent le premier pilier de lutte contre l’antibiorésistance. Par exemple :

  • La poursuite des campagnes de communication visant à lutter contre la prescription et la consommation excessives d’antibiotiques (qui, en France, ne connaît pas le slogan : « Les antibiotiques, ce n’est pas automatique ! » ?)
  • L’amélioration des conditions sanitaires afin de réduire la transmission des infections et par conséquent les besoins en utilisation des antibiotiques. Cette mesure concerne de très nombreux pays en voie de développement dont les approvisionnements défaillants en eau potable provoquent, notamment, de nombreuses diarrhées infantiles.
  • La réduction de l’utilisation d’antibiotiques dans l’élevage, en interdisant l’ajout de certaines molécules antibiotiques dans l’alimentation des animaux destinés à l’alimentation humaine.
  • La réduction de la pollution environnementale avec des molécules antibiotiques, en travaillant notamment à l’établissement de standards anti-pollution plus contraignants pour les sites fabricants de l’industrie pharmaceutique.
  • L’amélioration et la mise en place de structures globales de surveillance de la consommation humaine et animale d’antibiotiques et de l’apparition de souches bactériennes multi-résistantes.
  • La mise en œuvre plus fréquente de tests diagnostiques afin de limiter l’usage d’antibiotiques et de sélectionner de manière plus précise quelle molécule est nécessaire.
  • L’utilisation plus massive de la vaccination

Le deuxième pilier de la lutte est constitué par des stratégies thérapeutiques novatrices destinées à combattre les souches bactériennes multirésistantes face auxquelles les antibiotiques conventionnels sont impuissants. Nous pouvons notamment citer :

  • La phagothérapie : c’est-à-dire l’utilisation de bactériophages, virus prédateurs naturels des bactéries. Les phages peuvent être utilisés dans les cas thérapeutiques où ils peuvent être directement mis au contact des bactéries (plaies infectées, grands brulés, etc) mais pas dans les cas où ils devraient être injectés dans l’organisme, car ils seraient alors détruits par le système immunitaire du patient.
  • L’utilisation d’enzybiotiques: des enzymes, principalement issues des bactériophages à l’instar de la lysine, pouvant être utilisées afin de détruire des bactéries. A l’heure où nous écrivons ces lignes, cette approche est toujours à un stade expérimental.
  • L’immunothérapie avec notamment l’utilisation d’anticorps : De nombreux anticorps monoclonaux anti-infectieux – ciblant spécifiquement un antigène viral ou bactérien – sont en développement. Le palivizumab dirigé contre la protéine F du virus respiratoire syncytial a, quant à lui, été approuvé par la FDA dès 1998. La piste de l’utilisation synergique d’anticorps anti-infectieux et de molécules antibiotiques est également à l’étude.

Chacune des stratégies – thérapeutique ou de santé publique – proposées peut être mise en application et voir son effet décuplé à l’aide de la technologie. L’une des utilisations les plus originales de l’Intelligence Artificielle concerne l’automatisation du design de nouveaux bactériophages.

Présentation des bactériophages

Les bactériophages sont des virus à capside n’infectant que des bactéries. Ils sont naturellement répandus dans tous les espaces de la biosphère et leur matériel génétique peut être de l’ADN, dans la très grande majorité des cas, ou de l’ARN. Leur découverte n’est pas récente et leur utilisation thérapeutique a déjà un long historique, en effet, dès les années 1920 ils commencent à être utilisé en médecine humaine et animale. Leur usage a été progressivement abandonné dans les pays occidentaux, principalement en raison de la facilité d’utilisation des antibiotiques et du fait que les essais cliniques menés sur les phages ont été relativement peu nombreux, leur utilisation étant essentiellement basée sur l’empirisme. Dans d’autres pays du monde, à l’instar de la Russie et des anciens pays de l’URSS, la culture de l’utilisation des phages dans la santé humaine et animale est restée très forte : ils sont souvent disponibles sans ordonnance et utilisés en première intention.

Le mécanisme de destruction des bactéries par les bactériophages lytiques

Il existe deux types principaux de bactériophages :

  • D’une part les phages lytiques, qui sont les seuls utilisés en thérapeutique et ceux sur lesquels nous nous concentrerons dans la suite de cet article, qui détruisent la bactérie en détournant la machinerie bactérienne à leur profit afin de se multiplier.
  • D’autre part, les phages tempérés, qui ne sont pas utilisés en thérapeutique mais utiles expérimentalement car ils permettent d’ajouter des éléments génomiques à la bactérie, lui permettant potentiellement de moduler sa virulence. Le cycle du phage est nommé lysogénique.

Le schéma ci-dessous présente le cycle de vie d’un phage lytique :

Ainsi, et c’est ce qui fait toute la puissance des phages lytiques, ils sont dans une relation « hôte-parasite » avec les bactéries, ils ont besoin de les infecter et de les détruire pour se multiplier. L’évolution des bactéries va sélectionner principalement des souches résistantes, comme dans le cas de la résistance aux antibiotiques, cependant, à la différence des antibiotiques qui n’évoluent pas – ou plutôt qui évoluent lentement, au rythme des découvertes scientifiques de l’espèce humaine, les phages pourront également s’adapter afin de survivre et de continuer à infecter les bactéries, il s’agit d’une sorte de course à l’évolution entre les bactéries et les phages.

L’utilisation possible de l’Intelligence Artificielle

L’une des particularités des phages est, qu’à l’inverse de certains antibiotiques à large spectre, ils sont la plupart du temps très spécifiques à une souche bactérienne. Ainsi, lorsque l’on souhaite créer ou trouver des phages appropriés au traitement du patient, il faut suivre un processus complexe et souvent relativement long, alors même qu’une course contre la montre est parfois engagée pour la survie du patient : il faut identifier les bactéries, ce qui suppose de cultiver des prélèvements réalisés chez le patient, de caractériser le génome bactérien puis de déterminer quel phage sera le plus à même de combattre l’infection. Cette étape était, jusqu’à peu, un processus itératif de tests in-vivo, très gourmand en temps, or, comme le souligne Greg Merril, le CEO de la start-up Adaptive Phage Therapeutics, développant un algorithme de sélection des phages à partir des génomes bactériens : « Quand un patient est sévèrement touché par une infection, chaque minute est importante ».

En effet, pour rendre la phagothérapeutique applicable à très large échelle, il est nécessaire de pouvoir déterminer rapidement et à coût moindre quel phage sera le plus efficace. C’est ce que permet déjà et permettra de plus en plus l’alliance de deux technologies : le séquençage à haute fréquence et le machine learning. Ce dernier permettant de traiter les masses de données générées par le séquençage génétique (génome du bactériophage ou de la souche bactérienne) et de détecter des patterns par rapport à une base de données expérimentales lui indiquant qu’un Phage au génome X a été efficace contre une bactérie au génome Y.  L’algorithme est alors en mesure de déterminer les chances de réussite de toute une bibliothèque de phages sur une bactérie donnée et de déterminer quel sera le meilleur sans réaliser de longs tests itératifs. Comme chaque domaine basé sur le « test-and-learn », le choix des phages peut ainsi être automatisé.

Outre la détermination du meilleur hôte pour un bactériophage donné (et réciproquement) discutée ci-dessous, les principaux cas d’usage décrits de l’intelligence artificielle dans l’utilisation des phages sont :

  • La classification des bactériophages : L’organisme en charge de la classification est l’International Committee on Taxonomy of Viruses (ICTV). Plus de 5000 bactériophages différents sont décrits et la famille principale est celle des Caudovirales. Les approches traditionnelles de classification des bactériophages reposent sur la morphologie de la protéine virion qui sert à injecter le matériel génétique dans la bactérie cible. Ces approches sont basées essentiellement sur des techniques de microscopie électronique. Une littérature scientifique de plus en plus fournie permet de considérer le Machine Learning comme une alternative pertinente permettant une classification des bactériophages plus fonctionnelle.
  • La prédiction des fonctionnalités des protéines du bactériophages : Le Machine Learning peut notamment être utile pour élucider les mécanismes précis de la PVP (Phage Virion Protein), impliquée, comme mentionné plus haut, dans l’injection de matériel génétique dans la bactérie.
  • La détermination du cycle de vie des bactériophages : Ainsi que nous l’avons vu plus haut dans cet article, il existe deux catégories de phages : lytiques ou tempérés. Traditionnellement, la détermination de l’appartenance d’un phage à l’une de ces deux familles était déterminée par une culture et des tests in-vitro. La tâche est plus ardue que l’on pourrait le penser car sous certaines conditions de stress et en présence de certains hôtes, les phages tempérés ont la capacité, pour survivre d’effectuer des cycles lytiques. A l’heure actuelle, les algorithmes de PhageAI sont en mesure de déterminer à 99% dans quelle catégorie se situe le phage.

Il est également possible, et c’est ce qu’illustre le schéma ci-dessous, pour des bactéries rares et particulièrement résistantes de combiner les techniques vues précédemment aux techniques de biologie synthétique et de bio-engineering afin de créer rapidement des phages « sur-mesure ». Dans ce cas d’usage tout particulièrement, l’Intelligence Artificielle offre à observer tout son potentiel dans le développement d’une médecine ultra-personnalisée.

***

En dépit de son utilité, la phagothérapie est, dans de nombreux pays occidentaux encore compliquée à mettre en place réglementairement. En France, cette thérapeutique est possible dans le cadre d’une Autorisation Temporaire d’Utilisation (ATU) nominative aux conditions que le pronostic vital du patient soit engagé ou que son pronostic fonctionnel soit menacé, que le patient soit dans une impasse thérapeutique et qu’il soit l’objet d’une infection mono-microbienne. L’utilisation de la thérapeutique doit par ailleurs être validée par un Comité Scientifique Spécialisé Temporaire Phagothérapie de l’ANSM et un phagogramme – test in vitro permettant d’étudier la sensibilité d’une souche bactérienne aux bactériophages, à la manière des antibiogrammes – présenté avant la mise sous traitement. Devant ces difficultés multiples, de nombreuses associations de patients se mobilisent afin de militer pour un accès simplifié à la phagothérapie. Avec l’aide de l’Intelligence Artificielle, de plus en plus de phagothérapeutiques pourront être développées, comme l’a illustré cet article et devant l’urgence et l’ampleur de la problématique de l’antibiorésistance, il est indispensable de préparer dès à présent le cadre réglementaire dans lequel les patients pourront accéder aux différents traitements alternatifs, dont les bactériophages. Le combat n’est pas encore perdu et l’Intelligence Artificielle sera pour nous un allié déterminant.

Vous souhaitez discuter du sujet ? Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial relatif à la PharmaTech ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !


Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Clinique Recherche exploratoire

Redessiner le partage des données de vie réelle avec la Blockchain

« [La blockchain] est une technologie compliquée et dont les acteurs de santé n’ont pas forcément compris tout le potentiel. Nous voulons justement démontrer […] que la blockchain fonctionne quand on travaille sur les usages ! » Nesrine Benyahia, Directrice Générale de DrData

***

L’accès aux données de santé de vie réelle devient un enjeu de plus en plus important pour les entreprises pharmaceutiques, une acquisition facilitée de ces données pourrait accélérer et rendre moins couteux le développement de nouveaux médicaments. Après avoir explicité les pratiques d’acquisition de données dans l’industrie pharmaceutique, et les initiatives actuelles visant à les faciliter, cet article s’intéressera dans un second temps aux projets d’utilisation de la Blockchain dans les échanges, la monétisation et la sécurisation de ces si précieuses données.

Utilisation des données de vie réelle par l’Industrie Pharmaceutique, où en est-on ?

Selon la définition communément admise, les données de vie réelle sont des données qui ne sont pas collectées dans un cadre expérimental et sans intervention sur les modalités usuelles de prise en charge des patients, l’objectif étant ainsi de refléter la pratique courante du soin. Ces données peuvent parfois compléter les données issues d’essais cliniques randomisés et contrôlés – qui ont l’inconvénient de n’être vraies que dans le cadre très limité des essais cliniques. L’utilisation des données de vie réelle est appelée à se développer de plus en plus pour deux raisons essentielles. Premièrement, des outils technologiques nouveaux permettent de les récolter (dispositifs médicaux connectés par exemple) quand d’autres permettent de les analyser (data science, text-mining ces forums de patients, exploitation de la littérature grise, etc). Deuxièmement, nous observons depuis quelques années désormais une évolution réglementaire qui permet de plus en plus des accès précoces et des preuves cliniques sur des effectifs faibles (notamment dans le cas d’essais sur des médicaments contre le cancer) et qui tend ainsi à déplacer le curseur de la preuve vers les données de vie réelle.

Les utilisations des données de vie réelle sont variées et concernent le développement de nouveaux médicaments – afin notamment de définir de nouveaux algorithmes de prise en charge, ou de découvrir des besoins médicaux non couverts à travers l’analyse des bases de données – mais aussi le suivi de produits déjà sur le marché – nous pouvons citer à ce titre plusieurs cas d’usage comme la surveillance de la sécurité et de l’usage, l’accès au marché avec la prise en charge financière sous conditions ou le paiement à la performance. Ces données peuvent à la fois permettre d’éclairer les décisions des autorités de santé mais également les décisions stratégiques des industriels du médicament.

L’acquisition et l’exploitation actuelle des données de vie réelle : Les sources de données sont très variées, avec des degrés de maturité et de disponibilité variables, ainsi que des procédures d’accès variables. Certaines de ces données sont issues directement du soin, comme les données des bases médico-administratives ou encore les données des systèmes d’information hospitaliers, quand d’autres sont produites directement par les patients, à travers des réseaux sociaux, des applications de gestion des thérapeutiques et encore des dispositifs médicaux connectés. L’accès à ces données pour les industriels du médicament se fait suivant des modalités variées. Comme beaucoup d’autres pays, la France a œuvré ces dernières années à mettre en place des mesures organisationnelles et réglementaires afin de faciliter l’accès à ces données de vie réelle, à organiser leur recueil et leur exploitation avec notamment la création du Health Data Hub. Cependant, à ce jour, dans le contexte français et européen, aucune plateforme ne permet aux patients d’avoir accès de l’intégralité de leurs données de santé et d’en disposer librement pour participer à tel ou tel projet de recherche.

Imaginer un système décentralisé de partage des données de santé, les premiers pas :

Pour rappel, la blockchain est une technologie cryptographique développée à la fin des années 2000 permettant de stocker, d’authentifier et de transmettre des informations de manière décentralisée (sans intermédiaire ni tiers de confiance), transparente et hautement sécurisée. Pour davantage d’informations à propos du fonctionnement de la Blockchain, nous vous invitons à vous reporter à notre précédent article traitant de cette technologie : « Blockchain, Applications mobiles : la technologie permettra-t-elle de résoudre le problème des médicaments contrefaits ? ». Ainsi que nous l’expliquions déjà dans cet article, la toute jeune technologie Blockchain a jusqu’à présent principalement exprimé son potentiel dans le domaine des crypto-monnaies, mais il est possible d’imaginer des usages dans de très nombreux autres champs d’application.

Ainsi, plusieurs équipes de recherche travaillent sur la manière dont cette technologie pourrait potentiellement répondre aux grands défis de confidentialité, d’interopérabilité, d’intégrité et d’accessibilité sécurisée – entre autres – posés par le partage des données de santé.

Ces équipes de recherche académiques ont imaginé des blockchains permettant de réunir différents acteurs : les services de soins, les patients, les utilisateurs de données (qui peuvent être les patients eux-mêmes ou d’autres organismes producteurs de soins.) Ces systèmes ne prévoient pas l’accès aux données par des tiers (industriels par exemple), ils ont pour seuls objectifs d’améliorer la qualité du soin et d’offrir aux patients une plateforme regroupant leurs données de santé fragmentées : aux USA, les données sont silotées du fait de l’organisation du système de santé ; en France, si la Sécurité Sociale a un rôle centralisateur, le service « Mon Espace Santé » permettant aux patients d’accéder à la totalité de leurs données et descendant du Dossier Médical Partagé, tarde à se mettre en place.

Ces projets académiques proposent d’une part, de stocker les informations médicales sur une blockchain privée – et d’autres part d’opérer des Smart Contracts ayant différents usages. Les Smart Contracts sont des équivalents informatiques des contrats traditionnels, ils leur sont cependant différents car leur exécution ne nécessite ni tiers de confiance ni intervention humaine (ils s’exécutent lorsque les conditions prévues par le code informatique sont réunies). Dans ces propositions de systèmes de partage des données de vie réelle, ils permettent notamment d’authentifier l’identité des utilisateurs, de garantir l’intégrité des données, leur confidentialité et la flexibilité de leur accès (les personnes non-autorisées ne peuvent accéder aux données des patients).

En dépit de leurs qualités théoriques, ces projets académiques n’intègrent pas la possibilité pour les patients d’ouvrir l’accès à leurs données à des projets de recherche. Dans la dernière partie de cette article, nous allons passer en revue deux exemple de start-up cherchant à répondre à cette problématique en utilisant la Blockchain.

Exemple de deux projets blockchain permettant aux patients de partager leurs données de santé :

Embleema est une start-up qui propose une plateforme sur laquelle des patients peuvent télécharger leurs données de santé – allant de leur génome complet aux résultats de leurs examens médicaux, en passant par des données issues de dispositifs médicaux connectés. Parallèlement à cela, des entreprises pharmaceutiques peuvent exprimer des besoins, un algorithme de la plateforme va alors sélectionner les patients qui pourraient correspondre à ce besoin, par leur pathologie ou par les traitements qui leur sont prescrits. Il leur sera alors proposé de signer un document de recueil de consentement pour participer à une étude observationnelle, en échange de quoi ils seront rémunérés (aux USA) ou pourront choisir une association de patients qui bénéficiera d’un financement (en France). Les données produites par les patients sont stockées sur les serveurs centralisés d’hébergeurs spécialisés en données de santé et seuls les industriels qui les ont achetées y ont accès. La blockchain Ethereum et son système de smart contracts interviennent dans le modèle d’Embleema uniquement pour attester la conformité et organiser le partage des documents relatifs à l’étude (recueil du consentement du patient, etc). On peut donc s’interroger sur la valeur ajoutée de la Blockchain dans ce modèle. Ces documents n’auraient-ils pas pu être stockés sur des serveurs centralisés ? Et les actions déclenchées par les smart contracts réalisées à partir de base de données centralisées, Embleema agissant comme un tiers de confiance ? Quelle est la part d’utilisation marketing du terme Blockchain dans ce modèle ? En tout cas, la plateforme Patient Truth développée par Embleema a le grand mérite de proposer un modèle dans lequel les patients ont le contrôle de leurs données de santé et le choix de s’impliquer dans tel ou tel projet de recherche académique ou industriel.

***

La deuxième société à laquelle nous allons nous intéresser dans cet article est MedicalVeda, une start-up canadienne dans laquelle la blockchain tient une place plus centrale, avec notamment le lancement d’une token ERC-20 (une cryptomonnaie standard utilisant la blockchain Ethereum, pouvant être programmée pour participer à un Smart Contract). Le fonctionnement de cette entreprise qui cherche à résoudre plusieurs problèmes à la fois – en ce qui concerne l’accès aux données de santé par les industries de la santé mais également à propos de l’accès aux soins côté patient – est assez complexe et conceptuel et nous allons tenter de le vulgariser au maximum. La proposition de valeur de MedicalVeda repose sur plusieurs produits :

  • Le VEDA Health Portal, qui est une plateforme visant à centraliser les données de santé d’un patient, au profit des soignants et de programmes de recherche de l’industrie pharmaceutique auxquels le patient peut décider de donner accès. De manière similaire aux projets précédemment cités dans cet article, l’objectif est de vaincre le défi du silotage de données. Les données sont sécurisées par une blockchain privée.
  • La Medical Veda Data Market Place qui a pour objectif de mettre directement en relation les patients et les industriels du médicament en fonction de leurs besoins. Les transactions se font à l’aide de la blockchain et sont rétribuées en crypto-monnaies.
  • Deux autres produits sont à mentionner : le MVeda token, qui est la cryptomonnaie de la plateforme de vente des données, qui permet de rétribuer les patients, et Medfi Veda, un système de finance décentralisée permettant aux patients américains d’emprunter de l’argent pour financer des interventions médicales en mettant en collatérale leurs jetons de crypto monnaie MVeda. Ce système de prêt à collatéral est classique dans la finance décentralisée mais il faut reconnaître que les détails du système développé par MVeda restent obscurs. L’objectif du système étant d’une certaine manière de permettre aux patients de mettre en collatéral leurs données de santé afin de faciliter leur accès aux soins.
***

En conclusion, la Blockchain est une technologie encore jeune qui a connu un très grand intérêt dans le monde de la santé en 2018 avant de se tarir progressivement depuis, en raison principalement d’une mauvaise compréhension de son potentiel et d’un manque d’éducation des professionnels de santé à ce sujet d’une part, et d’autre part en raison d’une utilisation marketing trop importante de ce qui était devenu un « buzz-word ». Les qualités intrinsèques de cette technologie permettent d’imaginer des modèles créatifs et ambitieux de partage des données de santé qui seront peut-être demain à l’origine d’une accélération du développement de nouveaux médicaments. Pour le moment, et en dépit d’initiatives courageuses et intelligentes dans ce sens dont certaines sont déjà commercialisées, aucune solution n’est pleinement fonctionnelle à très grande échelle,  tout reste à construire.


Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Clinique Préclinique Recherche exploratoire

Impression 3D et intelligence artificielle : futur de la galénique ?

« Dans dix ans, aucun patient n’acceptera de prendre la même chose qu’un autre million de personnes. Et aucun médecin ne prescrira la même chose à deux patients »

Fred Paretti de la start-up spécialisée dans l’impression 3D de médicaments Multiply Labs.

L’impression 3D – également appelée fabrication additive – est l’une des technologies capables de transformer le développement pharmaceutique et qui, en tout cas, prendra assurément part à la digitalisation du secteur de la fabrication de médicaments. Ce court article tentera de faire le point sur le fonctionnement de l’impression 3D, sur ses différents cas d’usage dans la fabrication de médicaments personnalisés, sur la réglementation encadrant à l’heure actuelle cette technologie novatrice et enfin sur les synergies pouvant exister avec l’intelligence artificielle.

*******

L’impression 3D, où en est-on ? 

Le principe de l’impression 3D, développé depuis le début des années 2000 et désormais utilisé dans un très grand nombre de domaines industriels, consiste à superposer des couches de matières en respectant des coordonnées réparties selon 3 axes (en trois dimensions) en suivant un fichier numérique. Ce fichier 3D est découpé en tranches horizontales et envoyé à l’imprimante 3D lui permettant d’imprimer une tranche après l’autre. La terminologie « impression 3D » réunit des techniques très différentes les unes des autres :

  • Le dépôt de fil fondu ou l’extrusion : un fil en plastique est chauffé jusqu’à sa fusion et déposé aux points d’intérêt, par couches successives, qui se lient entre elles par le plastique se solidifiant en refroidissant. Il s’agit de la technique la plus courante, utilisée par les imprimantes grand public.
  • La photopolymérisation de la résine : une résine photosensible est solidifiée à l’aide d’un laser ou d’une source de lumière très concentrée, couche par couche. Il s’agit de l’une des techniques permettant un niveau de détail très élevé.
  • Le frittage ou la fusion de poudre : un laser est utilisé pour, par l’énergie qu’il dégage, permettre l’agglomération des particules de la poudre. Cette technique est utilisée pour produire des objets en métal ou en céramique

Dans l’industrie pharmaceutique, l’impression 3D est utilisée de plusieurs façons dont les principales sont :

  • La réalisation de dispositifs médicaux, en utilisant les techniques classiques d’impression de composés plastiques ou métalliques ou des techniques plus particulières permettant aux dispositifs médicaux d’acquérir des propriétés originales, à l’image des prothèses de la start-up Lattice Medical permettant aux tissus adipeux de se régénérer.
  • Le bio-printing, permettant, en imprimant avec des cellules humaines, de reconstituer des organes comme la peau ou encore des patch cardiaques à l’image de ce que réalise une autre start-up française : Poietis
  • Enfin, et c’est ce qui sera abordé dans cet article, l’impression 3D a également un rôle à jouer dans la galénique en permettant d’imprimer, à partir d’un mélange composé d’excipient(s) et de substance(s) active(s) un médicament à voie d’administration orale

L’impression 3D de médicaments, pour quels usages ? 

L’impression 3D permet d’apporter une caractéristique essentielle à la fabrication des médicaments : la flexibilité. Cette flexibilité est importante pour :

  • La fabrication de petits lots cliniques : les phases cliniques I et II requièrent souvent des lots de médicaments expérimentaux de tailles modestes pour lesquels l’impression 3D trouve toute son utilité : il est parfois économiquement risqué de faire à ce stade de grands investissements sur la fabrication des médicaments. Par ailleurs, il est souvent nécessaire de modifier la teneur en principe actif des médicaments utilisés, l’impression 3D permettrait d’adapter ces lots en temps réel. Enfin, l’impression 3D peut également être utile pour proposer aux patients des placebos les plus ressemblant possible à leurs traitements habituels.
  • Avancer vers la médecine personnalisée : L’impression 3D des médicaments permet de créer des médicaments « à la carte » en mélangeant plusieurs principes actifs avec des teneurs différentes pour chaque patients. Dans le cas de patients dont les poids et les capacités d’absorption varient avec le temps (enfants ou personnes âgées dénutries par exemple), l’impression 3D pourrait également adapter leurs traitements en temps réel en fonction de l’évolution de leur poids, notamment en termes de dosages et de rapidité de dissolution.

Pour répondre à ces différentes problématiques, la plupart des grands acteurs pharmaceutiques s’intéressent de plus en plus à l’impression 3D des médicaments. Ils investissent massivement dans ce domaine ou concrétisent des partenariats, à l’image de Merck, coopérant avec la société AMCM afin de mettre en place un système d’impression conforme aux bonnes pratiques de fabrication. L’implémentation de cette solution a le potentiel de bouleverser le schéma traditionnel de fabrication comme l’illustre le schéma ci-dessous.

Figure 1 – Modification des étapes de fabrication d’un comprimé par implémentation de l’impression 3D (Source : Merck)

La réglementation 

Le premier médicament commercialisé imprimé en 3D a été approuvé par la FDA en 2015. Sa substance active est le lévétiracétam. L’objectif de l’utilisation de l’impression 3D pour ce médicament était d’obtenir un comprimé plus poreux, se dissolvant plus facilement et convenant mieux aux patients souffrant de troubles de la déglutition. En dépit de ces premières approbations et de ces premiers accès au marché, la réglementation reste encore à construire, il est en effet encore nécessaire d’évaluer les changements de bonnes pratiques que cette technologie de l’impression 3D pourrait imposer et déterminer quels types de tests et de contrôles devraient être mis en œuvre. Les contrôles qualité destructifs n’étant pas particulièrement adaptés aux petits lots produits par la technique de l’imprimante 3D. Pour le moment, il n’existe à notre connaissance aucune imprimante 3D agrée GMP pour la fabrication de médicaments.

L’avenir de l’impression 3D des médicaments passera-t-il par l’intelligence artificielle ?

Un nombre d’auteurs de plus en plus importants pensent que l’impression 3D de médicaments ne pourra sortir des laboratoires et devenir une technologie couramment utilisée dans l’industrie qu’à la condition d’intégrer l’intelligence artificielle. En effet, dans l’état actuel des choses, du fait de la grande flexibilité évoquée plus haut, l’utilisation de l’impression 3D requiert une longue phase itérative : il est nécessaire de tester des milliers de facteurs concernant notamment les excipients utilisés mais également les paramètres de l’imprimante ainsi que la technique d’impression à sélectionner. Le choix de ces différents facteurs se fait actuellement par l’équipe de galénique en fonction de ses objectifs et contraintes : quelle est la meilleure combinaison de facteurs pour répondre à un critère donné de pharmacocinétique ? Quels sont ceux qui permettent de minimiser les coûts de production ? Quels sont ceux qui permettent de respecter au mieux un éventuel cadre réglementaire ? Quels sont ceux qui permettent de produire rapidement ? Cette phase itérative est extrêmement consommatrice en temps et en capitaux, ce qui contribue à rendre l’impression 3D de médicaments incompatible pour le moment avec les impératifs du développement pharmaceutique. L’Intelligence Artificielle semble être le moyen le plus simple à déployer pour surmonter ce défi et pour rendre « evidence-based » le choix multi-dimensionnel des paramètres à mettre en œuvre en fonction des objectifs. L’Intelligence artificielle pourra également être impliquée dans le contrôle qualité des lots ainsi fabriqués.

L’utilisation de l’Intelligence Artificielle pour designer de nouveaux médicaments ouvre la perspective de nouveaux défis techniques, notamment en ce qui concerne la disponibilité des données nécessaires à ces modèles de Machine Learning, souvent conservées dans le secret des laboratoires pharmaceutiques.  Nous pouvons imaginer que des bases de données pourront tout de même être constituées en pratiquant le text-mining sur les articles scientifiques et des brevets traitant des différentes formes galéniques et des différents types d’excipients puis complétées de manière expérimentale, ce qui demandera une dépense en temps de travail non négligeable. Parallèlement à ces défis techniques, il sera également nécessaire de se poser des questions plus éthiques, notamment en ce qui concerne le bouleversement des responsabilités causé par l’implémentation de ces nouvelles technologies : qui serait responsable en cas de libération d’un lot non conforme ? Le fabricant de l’imprimante 3D ? Le développeur de l’algorithme qui a designé le médicament ? Celui de l’algorithme qui a validé le contrôle qualité ? Ou encore le Pharmacien Responsable du laboratoire ?

Au total, nous pouvons conclure que l’impression 3D des médicaments est une technologie déjà bien maîtrisée, dont le marché est en croissance de 7% chaque année pour atteindre un marché envisagé de 440 millions de dollars en 2025, mais dont l’utilité est jusqu’à présent limitée à certains cas d’usage mais qui pourrait demain, du fait du déblocage de son potentiel par combinaison à l’Intelligence Artificielle nous permettre d’atteindre un développement galénique et une fabrication des formes orales totalement automatisés et optimisés, enfin adaptés à la médecine ultra-personnalisée qui vient.

Vous souhaitez discuter du sujet ? Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial relatif à la PharmaTech ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !


Pour aller plus loin :

  • Moe Elbadawi, Laura E. McCoubrey, Francesca K.H. Gavins, Jun J. Ong, Alvaro Goyanes, Simon Gaisford, and Abdul W. Basit ; Disrupting 3D Printing of medicines with machine learning ; Trends in Pharmacological Sciences, September 2021, Vol 42, No.9
  • Moe Elbadawi, Brais Muñiz Castro, Francesca K H Gavins, Jun Jie Ong, Simon Gaisford, Gilberto Pérez , Abdul W Basit , Pedro Cabalar , Alvaro Goyanes ; M3DISEEN: A novel machine learning approach for predicting the 3D printability of medicines ; Int J Pharm. 2020 Nov 30;590:119837
  • Brais Muñiz Castro, Moe Elbadawi, Jun Jie Ong, Thomas Pollard, Zhe Song, Simon Gaisford, Gilberto Pérez, Abdul W Basit, Pedro Cabalar, Alvaro Goyanes ; Machine learning predicts 3D printing performance of over 900 drug delivery systems ; J Control Release. 2021 Sep 10;337:530-545. doi: 10.1016/j.jconrel.2021.07.046
  • Les médicaments imprimés en 3D sont-ils l’avenir de la médecine personnalisée ? ; 3D Natives, le média de l’impression 3D ; https://www.3dnatives.com/medicaments-imprimes-en-3d-14052020/#!
  • Les médicaments de demain seront-ils imprimés en 3D ? ; Le mag’ Lab santé Sanofi ; https://www.sanofi.fr/fr/labsante/les-medicaments-de-demain-seront-ils-imprimes-en-3D
  • Press Releases – Merck and AMCM / EOS Cooperate in 3D Printing of Tablets ; https://www.merckgroup.com/en/news/3d-printing-of-tablets-27-02-2020.html

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Clinique Préclinique Recherche exploratoire

Pourquoi réalisons-nous encore des méta-analyses à la main ?

« It is necessary, while formulating the problems of which in our further advance we are to find solutions, to call into council the views of those of our predecessors who have declared an opinion on the subject, in order that we may profit by whatever is sound in their suggestions and avoid their errors. »

Aristote, De anima, Livre 1, Chapitre 2

Les revues systématiques de la littérature et les méta-analyses constituent des outils indispensables à la synthèse des connaissances actuelles et à l’éclosion de nouvelles connaissances scientifiques. Leur utilisation dans l’industrie pharmaceutique est variée et est appelée à encore se diversifier. Cependant,  elles sont particulièrement limités par le manque de scalabilité de leurs méthodologies actuelles, extrêmement consommatrices en temps humain et aux coûts prohibitifs. A l’heure à laquelle les articles scientifiques sont disponibles au format numérique et à laquelle les algorithmes de Natural Language Processing permettent d’automatiser la lecture de textes, ne devrions-nous pas inventer des méta-analyses 2.0 ? Des méta-analyses boostées par l’intelligence artificielle, plus rapides et moins coûteuses, permettant d’exploiter davantage de données, d’une manière plus qualitative et à des fins différentes, constituent-elles un objectif atteignable à court terme ou un rêve irréaliste ?

La méta-analyse : méthodes et présentation

Une méta-analyse est basiquement une analyse statistique qui combine les résultats de nombreuses études. La méta-analyse, lorsqu’elle est bien réalisée constitue le gold-standard de la génération de preuves scientifiques et cliniques, en effet, l’agrégation d’échantillons et d’informations permet d’obtenir une puissance statistique importante. Cependant la manière dont est réalisée la méta-analyse peut affecter très profondément les résultats obtenus.

La réalisation d’une méta-analyse suit par conséquent une méthodologie très précise composée de différentes étapes :

  • Dans un premier temps, un protocole de recherche sera mis en place afin de déterminer quelle est la question à laquelle l’étude doit répondre, quels sont les critères d’inclusion et d’exclusion des articles que nous allons retenir. C’est également à ce stade du projet que l’algorithme de recherche est déterminé et testé.
  • Dans un second temps, la recherche est effectuée à proprement parler à l’aide de l’algorithme de recherche sur des bases de données d’articles. Les résultats sont exportés.
  • Les articles sont sélectionnés à partir des titres et des abstracts. Les raisons de l’exclusion d’un article sont mentionnées et seront comptabilisées dans le rapport final de la méta-analyse.
  • La validité des études sélectionnées est ensuite évaluée sur la base des caractéristiques des sujets, du diagnostic ainsi que du traitement.
  • Les différents biais sont contrôlés de manière à éviter les biais de sélection, d’extraction des données ainsi que les biais liés aux conflits d’intérêt et aux sources de financement.
  • Un test d’homogénéité sera réalisé afin de s’assurer que la variable évaluée est la même pour chaque étude. Il faudra également vérifier que les caractéristiques de collecte des données des études cliniques sont similaires
  • Une analyse statistique ainsi qu’une analyse de sensibilité sont menées.
  • Enfin, les résultats sont présentés dans une perspective quantitative et/ou qualitative dans le cadre d’un rapport de méta-analyse, d’une publication. Les conclusions sont discutées.

La revue systématique de la littérature (SLR), à l’inverse de la méta-analyse, dont elle partage un certain nombre d’étapes méthodologiques, n’a quant à elle pas de dimension quantitative mais a uniquement pour objet d’organiser et de décrire précisément un champ de la connaissance.

Le problème de scalabilité d’un outil puissant

Le problème de scalabilité est simple à mettre en équation et ne fera que s’empirer au fil du temps : l’augmentation du volume des données générées par des essais cliniques à traiter dans les revues de littérature est exponentielle alors que les méthodes utilisées pour l’extraction et le traitement de ces données n’ont que peu évolué et restent essentiellement manuelles. Les limites intellectuelles de l’homme sont ce qu’elles sont et l’humain ne peut se disrupter lui-même.

Ainsi qu’évoqué rapidement en introduction de cet article, les réalisations de méta-analyses sont relativement coûteuses en temps humain. On estime ainsi que 1000 heures de travail humain hautement qualifié sont nécessaires au minimum pour une simple revue de la littérature et que 67 semaines sont nécessaires entre le début du travail et sa publication. Ainsi les méta-analyses sont des outils ayant une inertie importante et dont la temporalité n’est à l’heure actuelle pas adaptée à certaines utilisations, comme la prise de décision stratégique qui nécessite parfois de disposer de certaines données rapidement. Des publications illustrent la réalisation de revues de la littérature complètes en 2 semaines et 60 heures de travail à l’aide d’outils d’automatisation utilisant l’intelligence artificielle.

« Le temps, c’est de l’argent » dit-on. Des universitaires ont ainsi calculé qu’en moyenne chaque méta-analyse coûte environ 141 000 dollars. Cette équipe a également déterminé que les 10 plus grandes entreprises pharmaceutiques dépensaient chacune environ 19 millions de dollars par an en méta-analyses. Même si ces sommes ne paraissent pas très importantes rapportées aux diverses autres dépenses de générations de preuves cliniques, elles ne sont tout de même pas négligeables et l’on peut envisager qu’un coût plus faible pourrait permettre la réalisation de davantage de méta-analyses ce qui permettrait notamment d’explorer la possibilité de réaliser des méta-analyses des données pré-cliniques et de potentiellement réduire le taux d’échec des essais cliniques – actuellement 90% des composés entrant en étude clinique échouent à démontrer une efficacité et une sécurité suffisantes pour atteindre la commercialisation.

Réduire la problématique de scalabilité de la méthodologie des revues de la littérature et des méta-analyses permettrait de travailler davantage et plus facilement avec des données issues d’essais pré-cliniques. Ces données présentent un certain nombre de spécificités qui complexifient leur utilisation dans le cadre des revues systématiques de littérature et des méta-analyses : les volumes de données sont extrêmement importants et évoluent particulièrement rapidement, les designs des études pré-cliniques ainsi que la forme des rapports et articles sont très variables et rendent les analyses ainsi que l’évaluation de la qualité des études particulièrement complexes. Cependant les revues systématiques de la littérature et autres méta-analyses portant sur les données pré-cliniques ont différentes utilisations : elles permettent d’identifier des trous dans les connaissances et d’orienter des recherches futures, d’informer le choix d’un design d’étude, d’un modèle, d’un critère de jugement ou encore la pertinence ou pas de démarrer un essai clinique. Différentes méthodologies d’exploitation des données précliniques ont été mises au point par des groupes universitaires et chacune d’elles s’appuie très largement sur des techniques d’automatisation faisant intervenir le text-mining et de manière générale l’intelligence artificielle.

L’un des autres problèmes récurrents des méta-analyses est qu’elles sont réalisées à un instant T et qu’elles peuvent devenir très rapidement obsolètes après leur publication, lorsque de nouvelles données ont été publiées et de nouveaux essais cliniques achevés. Autant de temps et d’énergie dépensés pour, dans certains cas après seulement quelques mois ou quelques semaines, présenter des conclusions imprécises ou partiellement fausses. Nous pouvons imaginer que la réalisation automatisée de méta-analyses permettrait de mettre à jour en temps réel leurs résultats.

Enfin, nous pouvons penser que cette automatisation permettrait également de contribuer à une évaluation davantage uniformisée de la qualité des études cliniques inclues dans les analyses. En effet, de nombreuses publications démontrent le fait que la qualité des études sélectionnées, ainsi que les biais qui peuvent les affecter, sont rarement évalués et que lorsqu’ils le sont, cela se fait selon des scores variés prenant peu de paramètres en compte – à titre d’exemple, la Jadad Score ne tient compte que de 3 caractéristiques méthodologiques – et cela est bien normal : le recueil des informations, même lorsqu’elles sont peu nombreuses, nécessite des efforts supplémentaires d’extraction et de traitement de données.

Les problèmes de scalabilité ainsi posés, quelles sont les solutions existantes ou envisageables ?

De nombreux outils déjà développés

L’automatisation des différentes étapes des méta-analyses est un champ de recherche de nombreux groupes universitaires et quelques outils ont été développés. Sans faire aucunement offense à ces outils, dont nous allons citer quelques exemples ci-dessous, il est permis de s’interroger sur les raisons pour lesquelles ils ne sont pas davantage utilisés actuellement. Le marché n’est-il pas assez mature ? Les outils, très fragmentés dans leur proposition de valeur, ne conviennent-ils pas à la réalisation complète d’une méta-analyse ? Ces outils, développés par des laboratoires de recherche, bénéficient-ils d’un marketing suffisant ? D’interfaces suffisamment user-friendly ?

Ainsi que mentionné plus haut, la plupart des outils et prototypes développés se focalisent sur une tâche bien précise de la méthodologie de la méta-analyse. Ainsi, nous pouvons mentionner par exemple Abstrackr spécialisé dans le screening des articles, ExaCT se focalisant quant à lui sur l’extraction des données ou encore RobotReviewer destiné à l’évaluation automatique des biais dans les rapports des essais cliniques contrôlés et randomisés.

Conclusion : une amélioration par l’automatisation ?

Lorsque nous tenons compte du champ d’exploration académique bourgeonnant concernant les méta-analyses automatisées ainsi que les différentes initiatives entrepreneuriales concernant ce domaine (nous pouvons notamment mentionner la toute jeune start-up : Silvi.ai), nous ne pouvons qu’acquérir la forte conviction que de plus en plus, la méta-analyse deviendra une tâche dédiée aux robots et que le rôle des humains se circonscrira à définir le protocole de recherche, en étant assisté par un logiciel nous permettant de faire les meilleurs choix possibles en termes de scope et d’algorithmes de recherche. Ainsi, en dehors des économies directes que permettra l’automatisation des méta-analyses, de nombreuses économies indirectes seront à prendre en compte, et notamment celles qui seront permises par les meilleures décisions qui seront prises, de débuter ou pas un essai clinique par exemple. Au total, l’automatisation des méta-analyses prendra part à l’invention de médicaments plus efficiente et plus rapide.

Resolving Pharma, dont le projet est de lier réflexion et action, s’investira dans les mois à venir dans l’élaboration concrète de solutions d’automatisation des méta-analyses.

Vous souhaitez discuter du sujet ? Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial relatif à la PharmaTech ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !


Pour aller plus loin :
  • Marshall, I.J., Wallace, B.C. Toward systematic review automation: a practical guide to using machine learning tools in research synthesis. Syst Rev 8, 163 (2019). https://doi.org/10.1186/s13643-019-1074-9
  • Clark J, Glasziou P, Del Mar C, Bannach-Brown A, Stehlik P, Scott AM. A full systematic review was completed in 2 weeks using automation tools: a case study. J Clin Epidemiol. 2020 May;121:81-90. doi: 10.1016/j.jclinepi.2020.01.008. Epub 2020 Jan 28. PMID: 32004673.
  • Beller, E., Clark, J., Tsafnat, G. et al. Making progress with the automation of systematic reviews: principles of the International Collaboration for the Automation of Systematic Reviews (ICASR). Syst Rev 7, 77 (2018). https://doi.org/10.1186/s13643-018-0740-7
  • Lise Gauthier, L’élaboration d’une méta-analyse : un processus complexe ! ; Pharmactuel, Vol.35 NO5. (2002) ; https://pharmactuel.com/index.php/pharmactuel/article/view/431
  • Nadia Soliman, Andrew S.C. Rice, Jan Vollert ; A practical guide to preclinical systematic review and meta-analysis; Pain September 2020, volume 161, Number 9, http://dx.doi.org/10.1097/j.pain.0000000000001974
  • Matthew Michelson, Katja Reuter, The significant cost of systematic reviews and meta-analyses: A call for greater involvement of machine learning to assess the promise of clinical trials, Contemporary Clinical Trials Communications, Volume 16, 2019, 100443, ISSN 2451-8654, https://doi.org/10.1016/j.conctc.2019.100443
  • Vance W. Berger, Sunny Y. Alperson, A general framework for the evaluation of clinical trial quality; Rev Recent Clin Trials. 2009 May ; 4(2): 79–88.
  • Une start-up spécialisée dans les méta-analyses augmentées par l’Intelligence Artificielle : https://www.silvi.ai/
  • Et enfin, la bible absolue de la méta-analyse : The handbook of research synthesis and meta-analysis, dirigé par Harris Cooper, Larry V. Hedges et Jefferey C. Valentine

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Généralités Préclinique Recherche exploratoire

Oligonucléotides et outils de Machine Learning

Les oligonucléotides, ces petites molécules d’ADN ou d’ARN, sont aujourd’hui des outils incontournables dans les projets de Biologie Moléculaire, mais également en thérapeutique et en diagnostic. En 2021, c’est une dizaine de thérapies antisens qui sont autorisées sur le marché, et plus encore qui sont en cours d’investigation clinique.

La récente crise sanitaire de la Covid-19 a également mis en avant les tests PCR qui utilisent des petites séquences d’une vingtaine de nucléotides afin d’amplifier et de détecter du matériel génétique. Le succès des oligos est tel que, depuis que leur synthèse a été automatisée, leur part de marché n’a cessé de croître. Il est estimé qu’elles atteindront les 14 milliards de dollars en 2026.

Les oligonucléotides ont l’élégance de leur simplicité. C’est dans les années 50 que Watson et Crick ont pu décrire la double hélice qui constitue notre code génétique, et la façon dont les bases Adénine/Thymine et Cytosine/Guanine s’apparient. Par cette propriété, les thérapies antisense peuvent virtuellement cibler la totalité de notre génome, et en réguler son expression. Ce sont des maladies difficiles à traiter comme le Spinal Dystrophy Disoder ou encore la maladie de Duchennes qui bénéficient aujourd’hui d’une prise en charge thérapeutique (1).

Cet article n’a pas pour but de reformuler l’histoire des oligonucléotides utilisés par les cliniciens (de nombreuses reviews sont déjà disponibles dans littérature (2), (3), (4)), mais de proposer un rapide coup d’œil sur de ce qui a été développé dans ce domaine, grâce au Machine Learning.

Nous espérons que l’article inspirera certains chercheurs, et que d’autres pourrons y trouver de nouvelles idées de recherche et d’exploration. À une époque où l’Intelligence Artificielle a atteint une certaine maturité, il est particulièrement intéressant de l’exploiter à son maximum et de rationaliser au mieux toutes les prises de décision dans les projets de R&D.

Cette liste est non exhaustive, et, si vous avez une un projet ou article à nous faire part, contactez nous à hello@resolving-pharma.com. Nous serons ravis d’en discuter et de l’inclure dans cet article.

L’utilisation du Deep Learning pour le design d’amorces de PCR

La crise sanitaire de la Covid-19 en a été le témoin, diagnostiquer la population est primordial dans le contrôle d’une pandémie. Grâce à deux amorces d’une vingtaine de nucléotides, une séquence spécifique peut-être amplifiée et détecter, même à très faible niveau (la technique de PCR est techniquement capable de détecter jusqu’à 3 copies d’une séquence d’intérêt (5))

Un groupe de l’université d’Utrecht, aux Pays-Bas, (6) a développé un RNC (pour Réseau de Neurones Convolutifs, un type de réseau neuronal particulièrement efficace dans la reconnaissance d’images) capable de révéler des zones d’exclusivité sur un génome, permettant de développer des amorces ultra-spécifiques à la cible d’intérêt. Dans leur cas, ils ont analysé plus de 500 génomes de virus de la famille des Coronavirus afin d’entrainer l’algorithme à différencier les génomes entre eux. Les séquences de primers obtenues par le modèle ont démontré une efficacité similaire aux séquences utilisées en pratique. Cet outil pourrait être utilisé afin de développer des outils de diagnostic PCR avec une plus grande efficacité et une plus grande rapidité.

Prédire le pouvoir de pénétration d’un oligonucléotide

Il existe de nombreux peptides qui améliorent la pénétration des oligonucléotides au sein des cellules.  Ces peptides sont appelés CPP pour Cell Penetrating Peptides, des petites séquences de moins de 30 acides aminés. Grâce à un arbre de décision aléatoire, une équipe du MIT (7) a pu prédire l’activité des CPP pour des oligonucléotides modifiés par morpholino phosphorodiamidates (MO). Même si l’utilisation de ce modèle est limitée (il existe énormément de modifications chimiques à ce jour et les MO n’en couvrent qu’une petite partie) il reste néanmoins possible de développer ce concept à de plus larges familles chimiques. Le modèle a ainsi pu prédire expérimentalement qu’un CPP allait améliorer par trois la pénétration d’un oligonucléotide au sein des cellules.

Optimiser les oligonucléotides thérapeutiques

Même si les oligonucléotides sont connus pour être faiblement immunogènes (8), ils n’échappent pas à la toxicité associée à toutes thérapies. “Tout est poison, rien n’est poison : c’est la dose qui fait le poison.” – Paracelse

La toxicité est un élément clé dans le futur du développement d’un médicament. Un groupe danois (9) a développé un modèle de prédiction capable d’estimer l’hépatotoxicité qu’aurait une séquence de nucléotides sur des modèles murins. Encore une fois, ici ce sont « seulement » des oligonucléotides non-modifiés et d’autres modifiés par des LNA (pour Locked Nucleic Acid, une modification chimique qui stabilise l’hybridation de l’oligonucléotide thérapeutique à sa cible) qui ont été analysés. Il serait intéressant d’augmenter l’espace chimique étudié et ainsi étendre les possibilités de l’algorithme. Toutefois c’est ce type de modèle qui permet, à terme, de réduire l’attrition du développement de nouveaux médicaments. Dans une autre optique (10), un modèle d’optimisation de la structure des LNA a été développé dans l’utilisation des oligonucléotides en tant que gapmers. Les gapmers sont des séquences d’oligonucléotides hybrides qui possèdent deux extrémités modifiées chimiquement, résistantes aux enzymes de dégradation, et une partie centrale non modifiée, elle, susceptible d’être dégradée une fois hybridée à sa cible. C’est cette « coupure » finale qui va générer l’effet thérapeutique désiré. Grâce à leur modèle, les chercheurs ont pu prédire le design de gapmer qui possède le meilleur profil pharmacologique.

Accélérer la découverte de nouveaux aptamères

Aussi surnommés “chemical antibodies” les aptamères sont des séquences d’ADN ou d’ARN capables de reconnaître et de se lier à une cible particulière, avec autant d’affinité qu’un anticorps monoclonal. De très bonnes reviews sur le sujet sont disponibles ici (11) ou encore ici (12). En clinique, le pegatinib est le premier aptamère à avoir été autorisé sur le marché. Le composé est indiqué dans certaines formes de la DMLA.

Les méthodes de recherche actuelles, basées sur le SELEX (pour Systematic Evolution of Ligands by Exponential Enrichment), ont permis de générer des aptamères dirigés contre des cibles d’intérêt thérapeutique et diagnostic, comme la nucléoline ou encore la thrombine. Même si le potentiel de la technologie est attrayant, il est difficile et laborieux de découvrir de nouvelles paires séquence/cible. Pour booster la recherche de nouveaux candidats, une équipe américaine (13) a pu entrainer un algorithme afin d’optimiser un aptamère et de réduire la taille de sa séquence, tout en conservant voire en augmentant son affinité à sa cible. Ils ont ainsi pu prouver expérimentalement que l’aptamère généré par l’algorithme avait plus d’affinité que le candidat de référence, tout en étant 70% plus court. L’intérêt ici est de conserver la partie expérimentale (la partie SELEX), et de la combiner avec ces outils in silico afin d’accélérer l’optimisation de nouveaux candidats.

Il est certain que le futur des oligonucléotides est prometteur, et leur versatilité est telle qu’on les retrouve dans des domaines totalement différents, allant des nanotechnologies à base d’ADN ou encore dans la technologie CRISP/Cas. Ces deux derniers domaines pourraient, à eux seuls, faire l’objet d’articles individuels tellement leurs horizons de recherche sont importants et intéressants.

Dans notre cas, nous espérons que ce petit article vous aura fait découvrir de nouvelles idées et concepts, et vous a donné envie d’en apprendre davantage sur les oligonucléotides et le Machine Learning.


Bibliographie :
  1. Bizot F, Vulin A, Goyenvalle A. Current Status of Antisense Oligonucleotide-Based Therapy in Neuromuscular Disorders. Drugs. 2020 Sep;80(14):1397–415.
  2. Roberts TC, Langer R, Wood MJA. Advances in oligonucleotide drug delivery. Nat Rev Drug Discov. 2020 Oct;19(10):673–94.
  3. Shen X, Corey DR. Chemistry, mechanism and clinical status of antisense oligonucleotides and duplex RNAs. Nucleic Acids Res. 2018 Feb 28;46(4):1584–600.
  4. Crooke ST, Liang X-H, Baker BF, Crooke RM. Antisense technology: A review. J Biol Chem [Internet]. 2021 Jan 1 [cited 2021 Jun 28];296. Available from: https://www.jbc.org/article/S0021-9258(21)00189-7/abstract
  5. Bustin SA, Benes V, Garson JA, Hellemans J, Huggett J, Kubista M, et al. The MIQE Guidelines: Minimum Information for Publication of Quantitative Real-Time PCR Experiments. Clin Chem. 2009 Apr 1;55(4):611–22.
  6. Lopez-Rincon A, Tonda A, Mendoza-Maldonado L, Mulders DGJC, Molenkamp R, Perez-Romero CA, et al. Classification and specific primer design for accurate detection of SARS-CoV-2 using deep learning. Sci Rep. 2021 Jan 13;11(1):947.
  7. Wolfe JM, Fadzen CM, Choo Z-N, Holden RL, Yao M, Hanson GJ, et al. Machine Learning To Predict Cell-Penetrating Peptides for Antisense Delivery. ACS Cent Sci. 2018 Apr 25;4(4):512–20.
  8. Stebbins CC, Petrillo M, Stevenson LF. Immunogenicity for antisense oligonucleotides: a risk-based assessment. Bioanalysis. 2019 Nov 1;11(21):1913–6.
  9. Hagedorn PH, Yakimov V, Ottosen S, Kammler S, Nielsen NF, Høg AM, et al. Hepatotoxic Potential of Therapeutic Oligonucleotides Can Be Predicted from Their Sequence and Modification Pattern. Nucleic Acid Ther. 2013 Oct 1;23(5):302–10.
  10. Papargyri N, Pontoppidan M, Andersen MR, Koch T, Hagedorn PH. Chemical Diversity of Locked Nucleic Acid-Modified Antisense Oligonucleotides Allows Optimization of Pharmaceutical Properties. Mol Ther – Nucleic Acids. 2020 Mar 6;19:706–17.
  11. Zhou J, Rossi J. Aptamers as targeted therapeutics: current potential and challenges. Nat Rev Drug Discov. 2017 Mar;16(3):181–202.
  12. Recent Progress in Aptamer Discoveries and Modifications for Therapeutic Applications | ACS Applied Materials & Interfaces [Internet]. [cited 2021 Jul 25]. Available from: https://pubs-acs-org.ressources-electroniques.univ-lille.fr/doi/10.1021/acsami.0c05750
  13. Bashir A, Yang Q, Wang J, Hoyer S, Chou W, McLean C, et al. Machine learning guided aptamer refinement and discovery. Nat Commun. 2021 Apr 22;12(1):2366.

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Recherche exploratoire

Données de santé : introduction à la révolution des données synthétiques

Les données, parfois considérées comme l’or noir du XXIème siècle, constituent effectivement le carburant indispensable des modèles d’intelligence artificielle, et sont déjà très largement utilisées par l’Industrie Pharmaceutique. Cependant, et notamment du fait du domaine particulièrement sensible de la santé, leur utilisation connaît plusieurs limitations. Les données synthétiques constitueront-elles l’une des solutions permettant la résolution de ces problèmes ?

Qu’est-ce que les données synthétiques et pourquoi les utiliser ?

Les données synthétiques sont des données créées artificiellement par l’utilisation d’algorithmes génératifs, plutôt que recueillies lors d’évènements réels. La technique a été initialement développée dans les années 90, afin de travailler sur les données du recensement américain sans divulguer les informations personnelles des répondants, tout en conservant des donnés de grande qualité et à grande échelle.

Ces données sont généralement fabriquées à partir de véritables données, issues par exemple des dossiers patients dans le cas des données de santé, et préservent les distributions statistiques de celles-ci. Ainsi, il est théoriquement possible de générer des cohortes de patients virtuels, n’ayant aucune identité réelle mais correspondant statistiquement en tous points aux cohortes réelles. Des chercheurs ont notamment réussi à synthétiser des dossiers patients virtuels à partir de données démographiques et épidémiologiques accessibles publiquement. Nous parlons alors dans ce cas de « fully synthetic data » par opposition aux « partially synthetic data » qui sont des données synthétiques fabriquées afin de, par exemple, remplacer les données manquantes de datasets recueillies classiquement.

***

Actuellement, et en dépit d’initiatives diverses et variées – comme le Health Data Hub en France, sur lequel nous aurons l’occasion de revenir dans d’autres articles – visant à démocratiser leur usage, de nombreux problèmes limitent encore l’utilisation optimale et massive des données patient. Les données synthétiques sont l’une des solutions qu’il est possible de mettre en face afin d’y répondre.

  • La confidentialité des données de santé :

Naturellement, les données de santé sont particulièrement sensibles en matière de confidentialité. La préservation de l’anonymat des patients induit un certain nombre de problématiques d’accessibilité et de coût de traitement des données. De nombreux acteurs, telles les industries pharmaceutiques, peinent à obtenir ces données et lorsqu’ils réussissent à y accéder, leur traitement induit des dépenses réglementaires et de cyber sécurisation importantes. Les délais d’accès sont également souvent extrêmement longs, ce qui ralentit les projets de recherche. Dans le cas de certaines bases, il est parfois réglementairement imposé de s’offrir les services d’une entreprise tierce, accréditée à manipuler ces données.

Pour permettre leur utilisation, les données patient sont généralement anonymisées à l’aide de différentes méthodes : la suppression des variables identifiantes ; leur modification par ajout de bruit ou par le groupement des variables catégorielles, afin d’éviter que certaines catégories ne contiennent que trop peu d’individus. L’efficacité de ces méthodes a cependant été très régulièrement remise en question par des études montrant qu’il était possible de remonter à l’identité des patient, en effectuant notamment des appariements (probabilistes ou déterministes) avec d’autres bases de données. La génération de données synthétiques peut, dans ce contexte, être utilisée comme une alternative sûre et facile d’utilisation.

  • La qualité des données :

La technique de la génération des données synthétiques est couramment mise en œuvre afin de compléter des données manquantes dans des datasets de données réelles, qu’il est impossible ou très couteux de recueillir à nouveau. Ces nouvelles données sont représentatives de la distribution statistique de ces variables dans le dataset de données réelles, elles permettent d’améliorer la qualité des datasets et la pertinence des algorithmes qui les utilisent.

  • Le volume trop faible des datasets de données de santé pour pouvoir être exploité par intelligence artificielle :

L’entraînement des modèles de Machine ou Deep Learning requiert parfois de larges volumes de données afin d’obtenir des résultats de qualité satisfaisante : en effet, il est couramment accepté qu’il faut en général au minimum environ 10 fois plus d’exemples que de degrés de libertés du modèle. Or, lorsque l’on utilise le Machine Learning en santé, il est courant que le volume de données ne permette pas la mise en production et l’obtention de résultats de qualité satisfaisante, dans le cas par exemple de pathologies rares peu documentées, ou de sous-populations représentant peu d’individus. L’utilisation de données synthétiques fait partie, dans ce cas de figure, de l’arsenal technique à la disposition des data scientists.

L’utilisation de données synthétiques constitue un champ industriel naissant, dont certains spécialistes pensent qu’il prendra part à dépasser certaines limites actuelles de l’IA. Parmi les différents avantages apportés par les données synthétiques dans le champ de l’IA, nous pouvons notamment citer : le fait qu’il est rapide et peu coûteux de créer autant de données que l’on souhaite, sans avoir besoin de les étiqueter à la main comme cela est souvent le cas pour les données réelles, mais aussi que ces données peuvent être modifiées à plusieurs reprises afin de rendre le modèle le plus efficace possible dans son traitement de données réelles.

Les techniques de génération de données synthétiques

La génération des données synthétiques implique plusieurs phases :

  • La préparation des données de l’échantillon à partir duquel, le cas échéant, les données synthétiques seront générées : afin d’obtenir un résultat de qualité, il est nécessaire de nettoyer et d’harmoniser les données si elles proviennent de sources différentes
  • La génération à proprement parler des données synthétiques, dont nous allons détailler ci-dessous certaines techniques
  • La vérification et l’évaluation de la protection de la confidentialité offerte par les données synthétiques

Figure 1 – Schéma de génération de données synthétiques

Les méthodes de génération de données sont nombreuses et le choix de leur utilisation dépend notamment de l’objectif, du type de données que nous souhaitons créer ainsi que du contexte : faut-il créer des données à partir de données déjà existantes et ainsi suivre leurs distributions statistiques ? Ou des données pleinement virtuelles suivant des règles leur permettant d’être réalistes (comme du texte par exemple) ? Dans le cas des méthodes « data driven », on tire profit de données existantes : des modèles génératifs de Deep Learning seront utilisés. Dans le cas des méthodes « process-driven », permettant notamment à des modèles mathématiques de générer des données à partir de processus physiques sous-jacents, il s’agira de ce que l’on appelle des modélisations à base d’agents.

De manière plus opérationnelle, les données synthétiques sont généralement créées en langage Python – très connu des Data Scientists. Différentes librairies Python sont utilisées, comme : Scikit-Learn, SymPy, Pydbgen et VirtualDataLab. Un prochain article de Resolving Pharma fera suite à cette introduction en présentant techniquement comment créer des données de santé synthétiques à l’aide de ces librairies.

***
L’évaluation des données synthétiques

Il est courant d’évaluer les données patient anonymisées selon deux critères principaux : d’une part la qualité de l’utilisation qu’il est possible d’en faire, et d’autre part la qualité de la confidentialité que l’anonymisation a permis d’obtenir. Il a été démontré que plus des données étaient correctement anonymisées et plus l’utilisation possible était limitée, puisque des features importantes mais identifiantes sont supprimées ou que l’on perd en précision en regroupant des classes de valeurs. Il y a donc un équilibre à trouver entre les deux, en fonction de la destination des données.

Les données synthétiques sont quant à elles évaluées selon trois critères principaux :

  • La fidélité des données par rapport à l’échantillon de base
  • La fidélité des données par rapport à la distribution de la population générale
  • Le niveau de confidentialité permis par ces données.

Différentes méthodes et métriques existent pour évaluer ces critères :  

En permettant de s’assurer que la qualité des données générées est suffisante pour l’utilisation qui doit en être faite, l’évaluation est un élément indispensable et central du processus de génération de données synthétiques.

Les données synthétiques, quels cas d’usage pour l’industrie pharmaceutique ?

Il y a quelques mois, les entreprises Accenture Life Sciences et Phesi, deux sociétés de services aux entreprises pharmaceutiques, ont corédigé un rapport enjoignant ces dernières à intégrer davantage les données synthétiques à leurs activités. Le cas d’usage mentionné dans ce rapport est celui des bras de contrôle synthétiques qui pourtant utilise généralement des données réelles, issues de différents essais cliniques et retravaillés statistiquement.

En dehors des frontières de l’industrie pharmaceutique, dans le monde de la santé, les données synthétiques sont déjà utilisées afin d’entraîner des modèles de reconnaissance visuelle, en imagerie notamment : les chercheurs peuvent ajouter de manière artificielle des pathologies sur des clichés de patients sains et donc de tester leurs algorithmes sur leurs capacités à détecter ces pathologies. Sur le modèle de ce use-case, il est aussi possible de créer des données de coupes histologiques qui pourraient servir à entraîner des modèles d’IA en préclinique.

***

A n’en pas douter, l’industrie bourgeonnante des données synthétiques est bien partie pour bousculer l’intelligence artificielle telle que nous la connaissons actuellement et son utilisation dans l’industrie de la santé qui a la particularité de manipuler des données sensibles et difficilement accessibles. Nous pouvons imaginer par exemple un écosystème où il sera plus facile et efficace pour les industriels de créer leurs propres données synthétiques, que de chercher à avoir accès aux bases de données médicales ou médico-administratives. Cette technologie serait alors l’une de celles qui modifieraient l’organisation de l’innovation dans les industries de santé, en offrant une place moins centrale aux données réelles.


Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Préclinique Recherche exploratoire

Robots au laboratoire : les chercheurs de demain seront-ils également roboticiens ?

Il y a bien souvent dans un laboratoire des tâches très répétitives et laborieuses qui pourraient être automatisées. Que ce soit compiler des données sur un tableur ou préparer un gel pour une électrophorèse, le ratio valeur générée / temps utilisé n’est pas souvent élevé. Derek Lowe, chimiste et auteur du blog Into The Pipeline (1), se remémore avec humour une époque où une simple purification par chromatographie prenait énormément de temps à réaliser (époque aujourd’hui quasiment révolue), et note avec justesse que le but de l’automatisation n’est pas d’expulser le chercheur de sa paillasse, mais bien de réduire toutes ces tâches laborieuses et de pousser l’apport intellectuel du scientifique au maximum.

En Chimie ou en Biologie, de nombreux groupes essaient d’imaginer le laboratoire du futur, celui qui pourrait de bout en bout exécuter la synthèse puis le test d’une molécule. Cependant, d’un point de vue technique, la palette des actions nécessaires pour reproduire le travail du chercheur par un robot est beaucoup trop large pour être efficace à ce jour, mais les différents projets présentés ci-dessous sont prometteurs pour la suite.

***

Dans le domaine du diagnostic, il devient de plus en plus vital d’automatiser les tests afin de répondre à la demande des patients et des cliniciens. Afin de vous donner un ordre d’idée, c’est par exemple au Royaume-Uni près d’un million de tests PCR qui sont effectués par jour, rien que pour le diagnostic de la covid-19 (2).

En microbiologie clinique, l’utilisation des automates est particulièrement intéressante, là où les protocoles demandent beaucoup de temps et d’attention de la part des microbiologistes. Le robot WASP, conçu par Copan (3), combine robotique et logiciel et est capable d’effectuer des opérations de mise en culture, d’isolement bactérien, et de surveiller si la pousse se fait correctement grâce à une petite caméra installée dans l’automate. Il existe également l’automate de Roche (4), Cobas, capable de réaliser différents tests de biologie moléculaire comme la qPCR. La versatilité de ces robots leur permet d’être facilement adaptés à d’autres fins diagnostiques.

***

Dans un cadre plus chimique, un groupe liverpuldien dirigé par le Pr. Andrew Cooper (5) a conçu un robot capable de se déplacer physiquement dans le laboratoire afin d’optimiser la production d’hydrogène par photocatalyse. L’avantage de cet automate est qu’il est de taille humaine et qu’il peut opérer et se mouvoir librement dans n’importe quelle pièce. Même s’il a fallu un peu de temps pour mettre en place un tel système, il est estimé que l’automate a été 1000 fois plus rapide que si les travaux étaient effectués manuellement. Pour les curieux, la vidéo du robot est disponible ci-dessous :

L’Intelligence artificielle implémentée dans la plupart des robots fonctionne par itérations : les résultats de chaque expérience sont évalués par l’algorithme et lui permettent de concevoir l’expérience suivante.

Figure 1 : La combinaison d’Intelligence Artificielle et robotique permet de créer un circuit itératif, où chaque cycle analyse les résultats du précédent, et adapte les paramètres afin d’optimiser le processus défini par le chercheur.

Dans le domaine de la chimie des matériaux, Alán Aspuru-Guzik et al.(6) ont développé une plateforme automatisée et autonome, capable de travailler avec un grand nombre de paramètres, afin de découvrir de nouveaux matériaux utiles aux panneaux solaires ou aux consommables électroniques. En Chimie Organique cette fois, Coley et al. (7) ont utilisé l’AI et la robotique afin de concevoir des petites molécules par chimie en flux. Il suffit au chimiste d’indiquer la molécule qu’il souhaite obtenir, et l’AI va réaliser sa propre voie de retro synthèse et essayer de synthétiser le composé. De cette façon, leur automate a pu synthétiser 15 petites molécules thérapeutiques, allant de l’aspirine à la warfarine.

On peut noter d’autres initiatives, notamment de la part des Big Pharma comme celle d’AstraZeneca et son iLab (8), qui a pour but d’automatiser la découverte de molécules thérapeutiques via un circuit itératif de Design, Make, Test, Analyse. En Chimie Médicinale, les méthodes de Chimie combinatoire permettent d’explorer très rapidement l’espace chimique d’une cible, grâce à des réactions maîtrisées et optimisées. Ces projets sont témoins de l’avancée de la Recherche vers des systèmes de synthèse totalement autonomes.

***

Il est probablement juste de noter que certains chercheurs sont frileux à l’idée d’utiliser les robots, et se sentent parfois menacés d’être remplacés par une machine. Moi-même, en tant qu’apprenti chimiste et en explorant le sujet, je me suis dit à plusieurs reprises “Hé, mais ce robot pourrait travailler à ma place !”. Je me souviens des semaines que j’ai pu passer à essayer d’optimiser une réaction, testant différents catalyseurs à la chaîne, un travail qu’un automate (ou un singe !) aurait pu faire à ma place beaucoup plus rapidement et certainement plus efficacement. La robotique a ce potentiel énorme d’amélioration de la productivité des chercheurs, et de réduction des tâches pénibles qui requièrent finalement peu, voire aucune réflexions intellectuelles.

Il existe également des outils qui aident le chercheur à développer des plans de recherche afin d’optimiser un processus X ou Y de la façon la plus efficace possible. Par exemple, l’outil EDA développé par le NC3Rs (9) est utile pour les projets de recherche in vivo, où on essaie d’obtenir des données statistiquement puissantes tout en réduisant le nombre d’animaux utilisés. D’autres outils ont également pu être conçus grâce à des modèles Bayensien ou de Montecarlo Research Tree (10), et permettent de concevoir des plans d’expériences optimaux. Dans la même ligne d’idées, Aldeghi et al. ont développé Golem (11), un outil open-source disponible sur GitHub (12).

Les technologies du cloud (i.e. l’accès à un service via internet) sont également très prometteuses pour le laboratoire du futur. Elles permettront aux chercheurs d’effectuer leur recherche entièrement depuis chez eux, grâce à “quelques” lignes de code. Des projets comme celui de Strateos ont initié cette pratique et permettent déjà aux chercheurs de programmer des expériences de Chimie, de Biochimie et de Biologie depuis chez eux. Lorsque le protocole est défini, le chercheur n’a plus qu’à lancer l’expérience depuis son ordinateur et le robot localisé à des milliers de kilomètres effectuera l’opération pour lui. Dans quelques années, et si le service se démocratise dans la communauté scientifique, tout le monde pourra facilement y avoir accès.

Figure 2 : Principe du Cloub Lab. 1) Le chercheur envoie son protocole de recherche à l’automate, situé à l’autre bout du monde. 2) L’automate réalise l’expérience conçue par le chercheur et 3) et lui renvoie les résultats dès que l’expérience est terminée.

***

Entre progrès et doutes, il n’est sans doute qu’une question de temps avant que la communauté scientifique adopte une mentalité différente. Il fut un temps où les standards téléphoniques étaient entièrement gérés par des personnes, jusqu’au jour où tout a été remplacé par des automates. Ce court documentaire de David Hoffman a cristallisé cette transition et la réaction des utilisateurs lorsqu’ils entendent une voix robotisée pour la toute première fois. Même si quelques-uns d’entre eux étaient réticents au départ, l’implémentation de la reconnaissance vocale a permis de rendre le service beaucoup plus efficient et moins coûteux pour les consommateurs. Est-ce que demain les chercheurs ne seront pas tous un peu roboticiens ?


Bibliographie

  1. Lab! Of! The! Future! | In the Pipeline [Internet]. 2021 [cited 2021 Jun 9]. Available from: //blogs-sciencemag-org.ressources-electroniques.univ-lille.fr/pipeline/archives/2021/03/31/lab-of-the-future
  2. Testing in the UK | Coronavirus in the UK [Internet]. [cited 2021 Jun 13]. Available from: https://coronavirus.data.gov.uk/details/testing
  3. Copan WASP DT: Walk-Away Specimen Processor [Internet]. [cited 2021 Jun 9]. Available from: https://www.beckmancoulter.com/products/microbiology/copan-wasp-dt-walk-away-specimen-processor
  4. Automation in Molecular Diagnostic Testing [Internet]. Diagnostics. [cited 2021 Jun 13]. Available from: https://diagnostics.roche.com/global/en/article-listing/automation-in-molecular-diagnostic-testing.html
  5. Burger B, Maffettone PM, Gusev VV, Aitchison CM, Bai Y, Wang X, et al. A mobile robotic chemist. Nature. 2020 Jul;583(7815):237–41.
  6. MacLeod BP, Parlane FGL, Morrissey TD, Häse F, Roch LM, Dettelbach KE, et al. Self-driving laboratory for accelerated discovery of thin-film materials. Sci Adv. 2020 May 1;6(20):eaaz8867.
  7. Coley CW, Thomas DA, Lummiss JAM, Jaworski JN, Breen CP, Schultz V, et al. A robotic platform for flow synthesis of organic compounds informed by AI planning. Science [Internet]. 2019 Aug 9 [cited 2021 Jun 3];365(6453). Available from: http://science.sciencemag.org/content/365/6453/eaax1566
  8. The AstraZeneca iLab [Internet]. [cited 2021 Jun 27]. Available from: https://www.astrazeneca.com/r-d/our-technologies/ilab.html
  9. du Sert NP, Bamsey I, Bate ST, Berdoy M, Clark RA, Cuthill IC, et al. The Experimental Design Assistant. Nat Methods. 2017 Nov;14(11):1024–5.
  10. Dieb TM, Tsuda K. Machine Learning-Based Experimental Design in Materials Science. In: Tanaka I, editor. Nanoinformatics [Internet]. Singapore: Springer; 2018 [cited 2021 Jun 6]. p. 65–74. Available from: https://doi.org/10.1007/978-981-10-7617-6_4
  11. Aldeghi M, Häse F, Hickman RJ, Tamblyn I, Aspuru-Guzik A. Golem: An algorithm for robust experiment and process optimization. ArXiv210303716 Phys [Internet]. 2021 Mar 5 [cited 2021 Jun 9]; Available from: http://arxiv.org/abs/2103.03716
  12. aspuru-guzik-group/golem [Internet]. Aspuru-Guzik group repo; 2021 [cited 2021 Jun 9]. Available from: https://github.com/aspuru-guzik-group/golem

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Préclinique Recherche exploratoire

Organ-On-Chip : vers des essais miniaturisés ?

Avant de tester une nouvelle molécule chez l’Homme, il est nécessaire d’effectuer des prédictions toxicologiques et pharmacocinétiques sur différents modèles précliniques. Les chercheurs essaient de reconstituer au mieux ce qu’il se passerait sur un tissu ou un organe spécifique. Parmi les techniques les plus utilisées, nous pouvons citer les cultures cellulaires
qui, même si efficaces, peinent à simuler pleinement la dynamique d’un organe ou d’une pathologie. Ou encore les modèles animaux in vivo, qui sont souvent plus pertinents, mais qui ne sont pas adaptés à une génération de données à haut débit. D’abord éthiquement, les modèles doivent être sacrifiés et ce qui est observé chez l’Animal ne l’est pas toujours chez l’Humain. Parmi les composés qui échouent en clinique, il est estimé que 60% des causes sont liées à un manque d’efficacité chez l’Humain, et 30% à une toxicité non prévue (1) . Indéniablement, de nouveaux modèles biologiques sont nécessaires.

***

Paradoxalement, les chimiothèques sont de plus en plus grosses mais le nombre de médicaments sortant s’étiole. La communauté scientifique doit alors repenser ses modèles en permanence afin de générer une information plus fiable et à plus haute intensité. C’est à partir de cette problématique que la genèse des Organs-On-Chips (OOC) commence. C’est en 1995 que Michael L. Schuler fut le premiers à proposer un prototype de culture cellulaire analogue, connectant plusieurs compartiments de cellules différentes (2) . C’est quand ces compartiments seront connectés par des microcanaux que le terme “organ-on-a-chip” apparaitra.

Les OOC sont des appareils aussi gros qu’une clé USB. Cela est possible grâce à la technologie des microcanaux qui exploite des volumes de l’ordre du nanolitre, et au deçà.
Les OOC ont trois particularités qui leur permettent de mieux modéliser un tissu ou un organe :

  1. Le contrôle de la répartition tridimensionnelle des cellules
  2. L’intégration de différentes populations cellulaires
  3. Et la possibilité de générer et contrôler des forces biomécaniques.

Cela permet de retranscrire des conditions physiologiques beaucoup plus fidèlement, comparées à une culture cellulaire statique en deux dimensions, sur surface plate. Il n’existe pas un design unique d’OOC, mais l’exemple le plus simple à visualiser est peut-être celui du poumon qui mime l’interface air-alvéole. (voir Figure 1).

Figure 1 : Illustration d’un OOC mimant l’interface air-poumon. Une membrane semi-perméable sépare l’environnement extérieur des cellules pulmonaires. La chambre à vide va quant à elle, mimer le diaphragme.

À ce jour, différents OOC ont été conçus, allant du foie au modèle de bronchopneumopathie chronique obstructive. Riahi et al. ont par exemple développé un OOC hépatique, capable d’évaluer la toxicité chronique d’une molécule en quantifiant l’évolution de certains biomarqueurs (3) . Comparé aux cultures 2D, l’OOC est viable beaucoup plus longtemps et génère des données qui n’auraient pu être observées qu’in vivo. Un autre modèle intéressant a été développé par Zhang et al. et se concentre cette fois sur le cœur et ses cardiomyocytes (4) . En intégrant des électrodes sur la puce, les chercheurs ont pu évaluer la contractilité des cellules, et évaluer l’efficacité et la cardiotoxicité de certains médicaments.
Si l’adoption de la technologie est réussie, les OOC seront dans un premier temps utilisés comme compléments aux tests cellulaires et aux modèles animaux, puis les remplaceront peut-être totalement.

Encore plus impressionnant, la versatilité du concept permettra d’évaluer la réponse de nos propres cellules à un traitement spécifique. En implémentant par exemple un extrait de tumeur d’un patient, il sera possible d’observer et d’optimiser la réponse thérapeutique à une molécule X, et de retranscrire ces observations en clinique (5) . C’est un premier pas des OOC vers la médecine personnalisée.

***

À termes, les différents modèles d’OOC pourront être combinés afin de regrouper plusieurs organes et simuler un organisme entier. Cette dernière idée, aussi appelée “body-on-a-chip”, est extrêmement puissante et pourrait capturer à la fois l’effet d’un médicament et sa toxicité associée sur les différents organes. Certains modèles, comme celui de Skardal et al. ont permis d’étudier la migration de cellules tumorales d’un OOC de colon, jusqu’à un OOC de foie (6) . Les chercheurs Edington et al. ont eux pu connecter jusqu’à 10 OOC différents, capturant une partie des fonctions physiologiques du foie, des poumons, des intestins, de l’endomètre, du cerveau, du cœur, du pancréas, des reins, de la peau et des muscles squelettiques. Le système étant fonctionnel durant quatre semaines (7) . Même si de tels systèmes ne sont pas encore optimaux, leur exploration permettra dans le futur de générer des données beaucoup plus pertinentes et beaucoup plus rapidement, afin de booster les projets de Drug Discovery.


Pour aller plus loin :

Human Organs-on-Chips

D’excellentes reviews sur le sujet sont disponibles:

  • Low, L.A., Mummery, C., Berridge, B.R. et al. Organs-on-chips: into the next decade. Nat Rev Drug Discov 20, 345–361 (2021). https://doi-org/10.1038/s41573-020-0079-3
  • Wu, Q. et al. Organ-on-a-chip: recent breakthroughs and future prospects. BioMedical Engineering OnLine 19, 9 (2020). https://doi.org/10.1186/s12938-020-0752-0
  • Sung, J. H. et al. Recent advances in body-on-a-chip systems. Anal Chem 91, 330–351 (2019). https://doi.org/10.1021/acs.analchem.8b05293

Bibliographie

  1. Waring, M. J. et al. An analysis of the attrition of drug candidates from four major pharmaceutical companies. Nat. Rev. Drug Discov. 14, 475–486 (2015).
  2. Sweeney, L. M., Shuler, M. L., Babish, J. G. & Ghanem, A. A cell culture analogue of rodent physiology: Application to naphthalene toxicology. Toxicol. In Vitro 9, 307–316 (1995).
  3. Riahi, R. et al. Automated microfluidic platform of bead-based electrochemical immunosensor integrated with bioreactor for continual monitoring of cell secreted biomarkers. Sci. Rep. 6, 24598 (2016).
  4. Zhang, X., Wang, T., Wang, P. & Hu, N. High-Throughput Assessment of Drug Cardiac Safety Using a High-Speed Impedance Detection Technology-Based Heart-on-a-Chip. Micromachines 7, 122 (2016).
  5. Shirure, V. S. et al. Tumor-on-a-chip platform to investigate progression and drug sensitivity in cell lines and patient-derived organoids. Lab. Chip 18, 3687–3702 (2018).
  6. Skardal, A., Devarasetty, M., Forsythe, S., Atala, A. & Soker, S. A Reductionist Metastasis-on-a-Chip Platform for In Vitro Tumor Progression Modeling and Drug Screening. Biotechnol. Bioeng. 113, 2020–2032 (2016).
  7. Edington, C. D. et al. Interconnected Microphysiological Systems for Quantitative Biology and Pharmacology Studies. Sci. Rep. 8, 4530 (2018).

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Généralités Recherche exploratoire

Démanteler le cartel des éditeurs scientifiques pour libérer l’innovation ?

” Text mining of academic papers is close to impossible right now. “

Max Häussler – Bioinformatics researcher, UCSC

Devant l’explosion du nombre d’articles scientifiques publiés et l’augmentation exponentielle des capacités de calcul, le constat est sans appel : la manière dont nous lirons demain ces articles n’aura probablement plus rien à voir avec le fastidieux, lent et répétitif travail de lecture actuel et passera sans nul doute de plus en plus par l’utilisation de techniques intelligentes de text-mining. En décuplant nos capacités d’analyse, ces techniques permettent – et permettront encore davantage demain – de libérer la créativité et de faire émerger une innovation scientifique plus rapide et moins chère. Pour le moment, ces réjouissantes perspectives se heurtent toutefois à un obstacle de taille : le cartel des éditeurs scientifiques – l’une des industries les plus lucratives du monde, qui entend bien ne pas mettre en péril ses énormes rentes.

Du text-mining et de sa nécessité :

Le text-mining est une technologie qui a pour objectif d’obtenir très rapidement des informations clés et jusqu’à présent inconnues à partir d’une très grande quantité de textes – il s’agit ici de littérature biomédicale. Cette technologie est par nature pluri-disciplinaire empruntant notamment aux techniques de l’apprentissage automatique, de la linguistique et des statistiques.

L’objet de cet article n’est pas de constituer une étude approfondie et technique du text-mining mais il est tout de même nécessaire, pour la pleine compréhension du potentiel de cette technologie, d’en décrire les grandes étapes :

  • Le recueil et la sélection des textes à analyser : cette première étape consiste à utiliser des algorithmes de recherche afin de télécharger automatiquement les abstracts d’intérêt depuis des bases d’articles scientifiques (comme PubMed, par exemple, qui a elle seule en référence 12 000 000 articles scientifiques). Une recherche sur la littérature grise pourra également être menée afin d’être le plus exhaustif possible.
  • La préparation des textes à analyser : Cette étape aura pour objectif de mettre les textes à analyser dans une forme prévisible et analysable en fonction de la tâche que l’on souhaite accomplir. Il existe tout un ensemble de techniques afin de réaliser cette étape qui permettra notamment de supprimer le « bruit » du texte et de « tokeniser » les mots à l’intérieur des phrases.
  • L’analyse des données issue des textes : L’analyse des données dépendra en grande partie de la préparation du texte. Différentes techniques de statistiques et de data science pourront être mis en œuvre : les machines à vecteurs de support, modèles de Markov cachés ou encore par exemple, les réseaux de neurones.
  • La visualisation des données : La question de la visualisation des données est probablement plus importante que l’on pourrait le penser. En fonction des options choisies : tableaux ou modèles en 3D par exemple, les informations et méta-informations auxquelles aura accès l’utilisateur du modèle seront plus ou moins pertinentes et explicatives.

Le text-mining a déjà fait ses preuves en matière de recherche scientifique biomédicale : ainsi, il a entre autres été utilisé pour découvrir des associations entre protéines et pathologies ; pour comprendre les interactions entre protéines ou encore pour élucider le docking de certaines molécules médicamenteuses à leur cible thérapeutique. Pourtant, la plupart du temps, cette technologie n’est mise en œuvre que sur les abstracts des articles, ce qui a pour conséquence de diminuer considérablement sa puissance en termes de fiabilité des données obtenues ainsi que le nombre de ses applications.

Pourquoi, par conséquent, ne pas utiliser les millions d’articles scientifiques disponibles en ligne ? De nouvelles hypothèses de recherche pourraient être formulées, de nouvelles stratégies thérapeutiques pourraient être crées. Cela est technologiquement à porter de main mais les éditeurs scientifiques semblent pour le moment en avoir décidé autrement. Explications.

Des problèmes posés par les éditeurs scientifiques :

A leur émergence, à l’issue de la seconde guerre mondiale, les éditeurs scientifiques avaient une réelle utilité dans la diffusion de la science : en effet, les différentes sociétés savantes n’avaient que de faibles moyens pour diffuser les travaux et conclusions de leurs membres. A l’époque, la diffusion des articles publiés se faisaient à travers l’édition de revues papiers, qui présentaient un coût trop élevé pour la plupart des sociétés savantes. Depuis la naissance de cette industrie et en dépit des considérables modifications des moyens de transmission de la connaissance scientifique avec Internet, son business model n’a cependant pas du tout évolué, devenant désormais anachronique et portant désormais ses marges brutes à des pourcentages faisant passer les géants publicitaires en ligne comme Google ou Facebook pour des business peu rentables. Les éditeurs scientifiques sont en effet, la seule industrie du monde qui obtient la matière première (les articles scientifiques) gratuitement de la part de ses clients (les scientifiques du monde entier, dont les recherches sont la plupart du temps financées par de l’argent public) et dont la transformation (le peer-reviewing) est également mise en œuvre de manière bénévole par ses clients.

Paiement mis en place par les éditeurs scientifiques.

Ainsi, les éditeurs scientifiques ont mis en place un « étrange système de triple-paiement », permettant à des entités privées de capter de l’argent public destiné à la recherche et à l’enseignement. Les Etats financent les recherches menant à la rédaction des articles scientifiques, paient les salaires des scientifiques qui bénévolement participent au peer-reviewing et finalement paient encore une fois, à travers les abonnements des universités et laboratoires de recherche, pour avoir accès à la production des connaissances scientifiques qu’ils ont déjà financée par deux fois ! Un autre modèle, parallèle à celui-ci, se développe également depuis quelques années, celui de l’auteur-payeur dans lequel les chercheurs payent des frais de publication afin de rendre leurs travaux plus facilement accessibles aux lecteurs…nous dirigeons nous vers un système de quadruple paiement ?

Les conséquences délétères du système mis en place par les éditeurs scientifiques ne sont cependant pas uniquement financières mais impactent également la qualité des publications scientifiques produites et donc la validité de potentiels modèles d’intelligence artificielle basés sur les données de ces articles. Du business-model basé sur l’abonnement à des journaux découle la volonté pour les éditeurs de privilégier les découvertes spectaculaires et profondément innovantes aux travaux de confirmation, ce qui pousse certains chercheurs, poussés par la course à l’« impact factor », à frauder ou à publier de manière très précoce des résultats statistiquement peu consolidés : il s’agit là d’une des raisons de la crise de la reproductibilité que traverse actuellement la science et également de l’une des causes possibles de l’insuffisante de publication de résultats négatifs, et pourtant hautement informatifs : on peut ainsi estimer qu’un essai clinique sur deux ne donne lieu à aucune publication.

Enfin, et c’est ce point qui nous intéresse le plus dans cet article, les éditeurs scientifiques sont un frein au développement du text-mining sur les immenses bases d’articles qu’ils possèdent, ce qui a, in fine, un impact colossal sur notre connaissance et compréhension du monde ainsi que sur le développement de nouveaux médicaments. En effet, il est actuellement extrêmement difficile de réaliser du text-mining sur des articles scientifiques complets à grande échelle car cela n’est pas autorisé par les éditeurs, même lorsque l’on est titulaire d’un abonnement et que l’on a légalement le droit de lire les articles. Plusieurs pays ont légiféré afin que les équipes de recherche mettant en place du text-mining ne soient plus obligées de demander l’autorisation des éditeurs scientifiques. En réponse à ces évolutions légales, bénéficiant de leur situation oligopolistique, les éditeurs scientifiques ont mis en place des barrières technologiques tout à fait artificielles : ainsi, il est devenu impossible de télécharger des articles rapidement et de manière automatisée, le rythme maximal imposé étant généralement de 1 article toutes les 5 secondes, ce qui signifie qu’il faudrait environ 5 ans pour télécharger tous les articles relatifs à la recherche biomédicale. L’intérêt de ce système pour les éditeurs scientifiques est de pouvoir rançonner – le terme est fort mais c’est bien celui qui convient – les grandes entreprises pharmaceutiques qui souhaitent lever ces barrières techniques artificielles pour leur projet de recherche.

Le système actuel de publications scientifiques, nous l’avons montré, ne profite qu’à quelques firmes au dépend de très nombreux acteurs – chercheurs du monde entier et encore davantage lorsqu’ils travaillent depuis des pays pauvres, Etats et contribuables, industries de la santé et enfin, en bout de la chaîne, les patients ne bénéficiant pas du plein potentiel de la recherche biomédicale. Dans ces conditions, de nombreuses alternatives à ce modèle voient le jour, dont certaines sont très largement rendues possibles par la technologie.

Vers la disruption de l’édition scientifique ?

” On ne détruit réellement que ce qu’on remplace “

Napoléon III – 1848

Chaque innovation ne vient-elle pas initialement d’une forme de rébellion ? Cela est en tout cas particulièrement vrai lorsqu’il s’agit des différentes initiatives menées jusqu’à présent pour libérer le potentiel d’une science libre et ouverte, tant ces entreprises ont souvent pris la forme d’opérations de piraterie. Entre manifestes et pétitions, notamment l’appel au boycott lancé par le chercheur en mathématiques Timothy Gowers, s’appuyant sur le texte « The cost of knowledge », les mouvements de contestation menés par des scientifiques et les créations de plateformes open source comme https://arxiv.org/ ont été nombreux. Rares sont cependant les actions qui ont eu autant d’impact que celles d’Aaron Swartz, l’un des principaux théoriciens de l’open source et de la science ouverte, tragiquement acculé au suicide à 26 ans, à 1 mois d’un procès durant lequel il risquait 35 ans de réclusion pour avoir piraté 4,8 millions d’articles scientifiques ou bien sûr, celles d’Alexandra Elbakyan, la célèbre fondatrice du site Sci-Hub, permettant d’accéder gratuitement – et illégalement – à la majeure partie de la littérature scientifique.

Aaron Swartz et Alexandra Elbakyan

Plus récemment, les tenants du mouvement open source se sont adaptés au tournant radical du text-mining, à travers notamment le projet de Carl Malamud, visant à profiter d’une zone grise juridique pour proposer aux équipes de recherche académiques de miner la gigantesque base de 73 millions d’articles qu’il a constituée. Solution intéressante mais non pleinement aboutie, cette base de données n’étant pour le moment pas accessible par Internet pour des raisons juridiques, il est nécessaire de se déplacer en Inde, où elle est hébergée, pour y avoir accès.

Ces initiatives fonctionnent sur des formes plus ou moins légales de captation des articles après leur publication par des éditeurs scientifiques. Dans la perspective d’une alternative plus pérenne, l’idéal serait de remonter la chaîne de valeur et par conséquent de travailler en amont avec les chercheurs. L’avènement de la technologie blockchain – une technologie de stockage et d’échange d’informations ayant la particularité d’être décentralisée, transparente et par conséquent hautement sécurisée, sur laquelle de futurs articles de Resolving Pharma reviendront en détail – est ainsi pour beaucoup de chercheurs et de penseurs du sujet une formidable opportunité de remplacer définitivement les éditeurs scientifiques dans un système induisant davantage de justice et permettant la libération de l’information scientifique.

La transformation du système sera probablement lente – le prestige accordé par les chercheurs aux noms de grandes revues scientifiques appartenant à l’oligopole perdurera dans le temps – peut-être même qu’elle n’arrivera pas, mais la Blockchain a, si son implémentation est réussie, la capacité de répondre aux problématiques posées plus haut dans cet article de différentes manières :

Une plus juste répartition financière

Nous l’avons vu, le business model des éditeurs scientifiques est peu vertueux, c’est un euphémisme. A l’autre opposé, l’Open Access, en dépit de ses indéniables et prometteuses qualités, peut également poser certains problèmes, en étant parfois dénué de peer-reviewing. L’utilisation d’une cryptomonnaie dédiée au monde de l’édition scientifique pourrait supprimer le système de triple paiement, chaque acteur pouvant être payé à la juste valeur de sa contribution. L’institution d’un chercheur recevrait un certain montant de cryptomonnaie lorsque celui-ci publierait ainsi que lorsqu’il participerait au peer-reviewing d’un autre article. L’accès des institutions aux publications se ferait quant à lui à travers le paiement d’une somme en cryptomonnaie. En dehors des aspects financiers, les droits d’auteurs, auxquels renoncent actuellement les chercheurs, seraient inscrits automatiquement dans la blockchain pour chaque publication. Les institutions de recherche garderont ainsi le droit de décider à quel prix sera disponible le fruit de leur travail. Un système de ce type permettrait par exemple à quiconque souhaitant utiliser un outil de text-mining de payer une certaine somme de cette cryptomonnaie, qui reviendrait aux auteurs et reviewers des articles utilisés. Le text-mining à grande échelle serait alors devenu une commodité.

Un traçage des usages des lecteurs et la définition d’un réel « impact factor »

Actuellement, et même si l’on tente de dénombrer les citations des articles, l’usage réalisé des articles scientifiques est difficilement quantifiable, alors qu’il pourrait constituer une métrique intéressante pour les différents acteurs de l’écosystème de la recherche. La Blockchain permettrait de tracer précisément chaque transaction. Ce traçage des usages des lecteurs permettrait également d’amener une certaine forme de justice financière : on peut imaginer qu’à travers un Smart Contract, une simple lecture ne coûterait pas exactement la même quantité de cryptomonnaie que la citation de l’article. Il serait ainsi possible de quantifier le réel impact qu’aurait une publication et remplacer le système d’ « impact factor » par la distribution en temps réel de « tokens de réputation » aux scientifiques, qui peut par ailleurs être conçue de manière à ne pas décourager la publication de résultats négatifs (d’ailleurs, pour pallier à ce problème, des chercheurs ont mis en place une plateforme dédiée à la publication de résultats négatifs : https://www.negative-results.org/)

Avec le développement récent des Non-Fungible Tokens (NFT), nous pouvons même imaginer l’émergence demain d’un marché secondaire des articles scientifiques, qui seront ainsi échangés d’utilisateurs à utilisateurs, comme cela est déjà possible pour d’autres objets numériques (éléments de jeux vidéo, morceaux de musique, etc).

Un moyen de limiter la fraude

Actuellement, le système de peer-reviewing, en plus d’être particulièrement long (il s’écoule en moyenne 12 mois entre la soumission et la publication d’un article scientifique, contre deux semaines sur une plateforme comme utilisant la Blockchain comme ScienceMatters) est tout à fait opaque au lecteur final de l’article qui ne dispose ni du nom des chercheurs ayant pris part au processus, ni même des formes itératives chronologiques de l’article. La Blockchain pourrait permettre, par sa structure infalsifiable et chronologique, d’enregistrer ces différentes modifications. Il s’agit là d’un sujet qui mériterait à lui seul un autre article, mais la Blockchain permettrait également d’enregistrer les différentes données et métadonnées ayant conduit aux conclusions de l’article, qu’il s’agisse par exemple d’essais précliniques ou cliniques, et d’éviter ainsi la fraude tout en augmentant la reproductibilité.

Manuel Martin, l’un des co-fondateurs de Orvium, une plateforme de publication scientifique basée sur la Blockchain, estime ainsi : « by establishing a decentralized and competitive market, blockchain can help align goals and incentives for researchers, funding agencies, academic institutions, publishers, corporations and governments. »

L’utilisation du potentiel de l’intelligence artificielle dans l’exploitation des articles scientifiques est une opportunité de créer une réelle intelligence collective, de faire advenir une recherche plus rapide et efficiente et probablement de soigner de nombreux patients à travers le monde. Le verrou qu’il nous reste à faire sauter n’est pas technologique mais organisationnel. Eliminer les éditeurs scientifiques de l’équation sera ainsi un combat aussi âpre que nécessaire, qui devrait réunir chercheurs, Etats et grandes entreprises pharmaceutiques, dont les intérêts s’alignent. Si l’on peut être relativement pessimiste quant aux capacités de coopération de ces différents acteurs, on ne peut pas en revanche émettre de doutes quant à la fantastique puissance de transparence de la Blockchain qui, combinée à la détermination de quelques entrepreneurs comme les fondateurs des plateformes Pluto, Scienceroot, ScienceMatters ou Orvium, constituera un outil déterminant dans ce combat pour révolutionner l’accès aux connaissances scientifiques.

Les propos tenus et les opinions exprimées dans cet article n’engagent que leur auteur. Les autres auteurs prenant part à Resolving Pharma n’y sont pas associés.

Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !