Catégories
Clinique Préclinique Recherche exploratoire

L’intelligence artificielle contre les infections bactériennes : le cas de bactériophages

« If we fail to act, we are looking at an almost unthinkable scenario where antibiotics no longer work and we are cast back into the dark ages of medicine »

David Cameron, former UK Prime Minister

Des centaines de millions de vies sont en jeu. En effet, l’OMS a fait de l’antibiorésistance sa priorité numéro une à l’échelle globale en démontrant notamment que la résistance aux antibiotiques pourra entrainer plus de 100 millions de morts par an d’ici 2050 et qu’elle cause déjà actuellement environ 700 000 morts par an, dont 33 000 en Europe. Parmi les différentes stratégies thérapeutiques pouvant être mises en place, il y a celle de l’utilisation des bactériophages, approche alternative ancienne et délaissée à laquelle l’Intelligence Artificielle pourrait bien donner un coup de jeune. Explications.

Les stratégies pouvant être mises en place pour lutter contre l’antibiorésistance

Les actions et recommandations de santé publique visant globalement à réduire l’utilisation des antibiotiques, nombreuses et indispensables, constituent le premier pilier de lutte contre l’antibiorésistance. Par exemple :

  • La poursuite des campagnes de communication visant à lutter contre la prescription et la consommation excessives d’antibiotiques (qui, en France, ne connaît pas le slogan : « Les antibiotiques, ce n’est pas automatique ! » ?)
  • L’amélioration des conditions sanitaires afin de réduire la transmission des infections et par conséquent les besoins en utilisation des antibiotiques. Cette mesure concerne de très nombreux pays en voie de développement dont les approvisionnements défaillants en eau potable provoquent, notamment, de nombreuses diarrhées infantiles.
  • La réduction de l’utilisation d’antibiotiques dans l’élevage, en interdisant l’ajout de certaines molécules antibiotiques dans l’alimentation des animaux destinés à l’alimentation humaine.
  • La réduction de la pollution environnementale avec des molécules antibiotiques, en travaillant notamment à l’établissement de standards anti-pollution plus contraignants pour les sites fabricants de l’industrie pharmaceutique.
  • L’amélioration et la mise en place de structures globales de surveillance de la consommation humaine et animale d’antibiotiques et de l’apparition de souches bactériennes multi-résistantes.
  • La mise en œuvre plus fréquente de tests diagnostiques afin de limiter l’usage d’antibiotiques et de sélectionner de manière plus précise quelle molécule est nécessaire.
  • L’utilisation plus massive de la vaccination

Le deuxième pilier de la lutte est constitué par des stratégies thérapeutiques novatrices destinées à combattre les souches bactériennes multirésistantes face auxquelles les antibiotiques conventionnels sont impuissants. Nous pouvons notamment citer :

  • La phagothérapie : c’est-à-dire l’utilisation de bactériophages, virus prédateurs naturels des bactéries. Les phages peuvent être utilisés dans les cas thérapeutiques où ils peuvent être directement mis au contact des bactéries (plaies infectées, grands brulés, etc) mais pas dans les cas où ils devraient être injectés dans l’organisme, car ils seraient alors détruits par le système immunitaire du patient.
  • L’utilisation d’enzybiotiques: des enzymes, principalement issues des bactériophages à l’instar de la lysine, pouvant être utilisées afin de détruire des bactéries. A l’heure où nous écrivons ces lignes, cette approche est toujours à un stade expérimental.
  • L’immunothérapie avec notamment l’utilisation d’anticorps : De nombreux anticorps monoclonaux anti-infectieux – ciblant spécifiquement un antigène viral ou bactérien – sont en développement. Le palivizumab dirigé contre la protéine F du virus respiratoire syncytial a, quant à lui, été approuvé par la FDA dès 1998. La piste de l’utilisation synergique d’anticorps anti-infectieux et de molécules antibiotiques est également à l’étude.

Chacune des stratégies – thérapeutique ou de santé publique – proposées peut être mise en application et voir son effet décuplé à l’aide de la technologie. L’une des utilisations les plus originales de l’Intelligence Artificielle concerne l’automatisation du design de nouveaux bactériophages.

Présentation des bactériophages

Les bactériophages sont des virus à capside n’infectant que des bactéries. Ils sont naturellement répandus dans tous les espaces de la biosphère et leur matériel génétique peut être de l’ADN, dans la très grande majorité des cas, ou de l’ARN. Leur découverte n’est pas récente et leur utilisation thérapeutique a déjà un long historique, en effet, dès les années 1920 ils commencent à être utilisé en médecine humaine et animale. Leur usage a été progressivement abandonné dans les pays occidentaux, principalement en raison de la facilité d’utilisation des antibiotiques et du fait que les essais cliniques menés sur les phages ont été relativement peu nombreux, leur utilisation étant essentiellement basée sur l’empirisme. Dans d’autres pays du monde, à l’instar de la Russie et des anciens pays de l’URSS, la culture de l’utilisation des phages dans la santé humaine et animale est restée très forte : ils sont souvent disponibles sans ordonnance et utilisés en première intention.

Le mécanisme de destruction des bactéries par les bactériophages lytiques

Il existe deux types principaux de bactériophages :

  • D’une part les phages lytiques, qui sont les seuls utilisés en thérapeutique et ceux sur lesquels nous nous concentrerons dans la suite de cet article, qui détruisent la bactérie en détournant la machinerie bactérienne à leur profit afin de se multiplier.
  • D’autre part, les phages tempérés, qui ne sont pas utilisés en thérapeutique mais utiles expérimentalement car ils permettent d’ajouter des éléments génomiques à la bactérie, lui permettant potentiellement de moduler sa virulence. Le cycle du phage est nommé lysogénique.

Le schéma ci-dessous présente le cycle de vie d’un phage lytique :

Ainsi, et c’est ce qui fait toute la puissance des phages lytiques, ils sont dans une relation « hôte-parasite » avec les bactéries, ils ont besoin de les infecter et de les détruire pour se multiplier. L’évolution des bactéries va sélectionner principalement des souches résistantes, comme dans le cas de la résistance aux antibiotiques, cependant, à la différence des antibiotiques qui n’évoluent pas – ou plutôt qui évoluent lentement, au rythme des découvertes scientifiques de l’espèce humaine, les phages pourront également s’adapter afin de survivre et de continuer à infecter les bactéries, il s’agit d’une sorte de course à l’évolution entre les bactéries et les phages.

L’utilisation possible de l’Intelligence Artificielle

L’une des particularités des phages est, qu’à l’inverse de certains antibiotiques à large spectre, ils sont la plupart du temps très spécifiques à une souche bactérienne. Ainsi, lorsque l’on souhaite créer ou trouver des phages appropriés au traitement du patient, il faut suivre un processus complexe et souvent relativement long, alors même qu’une course contre la montre est parfois engagée pour la survie du patient : il faut identifier les bactéries, ce qui suppose de cultiver des prélèvements réalisés chez le patient, de caractériser le génome bactérien puis de déterminer quel phage sera le plus à même de combattre l’infection. Cette étape était, jusqu’à peu, un processus itératif de tests in-vivo, très gourmand en temps, or, comme le souligne Greg Merril, le CEO de la start-up Adaptive Phage Therapeutics, développant un algorithme de sélection des phages à partir des génomes bactériens : « Quand un patient est sévèrement touché par une infection, chaque minute est importante ».

En effet, pour rendre la phagothérapeutique applicable à très large échelle, il est nécessaire de pouvoir déterminer rapidement et à coût moindre quel phage sera le plus efficace. C’est ce que permet déjà et permettra de plus en plus l’alliance de deux technologies : le séquençage à haute fréquence et le machine learning. Ce dernier permettant de traiter les masses de données générées par le séquençage génétique (génome du bactériophage ou de la souche bactérienne) et de détecter des patterns par rapport à une base de données expérimentales lui indiquant qu’un Phage au génome X a été efficace contre une bactérie au génome Y.  L’algorithme est alors en mesure de déterminer les chances de réussite de toute une bibliothèque de phages sur une bactérie donnée et de déterminer quel sera le meilleur sans réaliser de longs tests itératifs. Comme chaque domaine basé sur le « test-and-learn », le choix des phages peut ainsi être automatisé.

Outre la détermination du meilleur hôte pour un bactériophage donné (et réciproquement) discutée ci-dessous, les principaux cas d’usage décrits de l’intelligence artificielle dans l’utilisation des phages sont :

  • La classification des bactériophages : L’organisme en charge de la classification est l’International Committee on Taxonomy of Viruses (ICTV). Plus de 5000 bactériophages différents sont décrits et la famille principale est celle des Caudovirales. Les approches traditionnelles de classification des bactériophages reposent sur la morphologie de la protéine virion qui sert à injecter le matériel génétique dans la bactérie cible. Ces approches sont basées essentiellement sur des techniques de microscopie électronique. Une littérature scientifique de plus en plus fournie permet de considérer le Machine Learning comme une alternative pertinente permettant une classification des bactériophages plus fonctionnelle.
  • La prédiction des fonctionnalités des protéines du bactériophages : Le Machine Learning peut notamment être utile pour élucider les mécanismes précis de la PVP (Phage Virion Protein), impliquée, comme mentionné plus haut, dans l’injection de matériel génétique dans la bactérie.
  • La détermination du cycle de vie des bactériophages : Ainsi que nous l’avons vu plus haut dans cet article, il existe deux catégories de phages : lytiques ou tempérés. Traditionnellement, la détermination de l’appartenance d’un phage à l’une de ces deux familles était déterminée par une culture et des tests in-vitro. La tâche est plus ardue que l’on pourrait le penser car sous certaines conditions de stress et en présence de certains hôtes, les phages tempérés ont la capacité, pour survivre d’effectuer des cycles lytiques. A l’heure actuelle, les algorithmes de PhageAI sont en mesure de déterminer à 99% dans quelle catégorie se situe le phage.

Il est également possible, et c’est ce qu’illustre le schéma ci-dessous, pour des bactéries rares et particulièrement résistantes de combiner les techniques vues précédemment aux techniques de biologie synthétique et de bio-engineering afin de créer rapidement des phages « sur-mesure ». Dans ce cas d’usage tout particulièrement, l’Intelligence Artificielle offre à observer tout son potentiel dans le développement d’une médecine ultra-personnalisée.

***

En dépit de son utilité, la phagothérapie est, dans de nombreux pays occidentaux encore compliquée à mettre en place réglementairement. En France, cette thérapeutique est possible dans le cadre d’une Autorisation Temporaire d’Utilisation (ATU) nominative aux conditions que le pronostic vital du patient soit engagé ou que son pronostic fonctionnel soit menacé, que le patient soit dans une impasse thérapeutique et qu’il soit l’objet d’une infection mono-microbienne. L’utilisation de la thérapeutique doit par ailleurs être validée par un Comité Scientifique Spécialisé Temporaire Phagothérapie de l’ANSM et un phagogramme – test in vitro permettant d’étudier la sensibilité d’une souche bactérienne aux bactériophages, à la manière des antibiogrammes – présenté avant la mise sous traitement. Devant ces difficultés multiples, de nombreuses associations de patients se mobilisent afin de militer pour un accès simplifié à la phagothérapie. Avec l’aide de l’Intelligence Artificielle, de plus en plus de phagothérapeutiques pourront être développées, comme l’a illustré cet article et devant l’urgence et l’ampleur de la problématique de l’antibiorésistance, il est indispensable de préparer dès à présent le cadre réglementaire dans lequel les patients pourront accéder aux différents traitements alternatifs, dont les bactériophages. Le combat n’est pas encore perdu et l’Intelligence Artificielle sera pour nous un allié déterminant.

Vous souhaitez discuter du sujet ? Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial relatif à la PharmaTech ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !


Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Clinique Préclinique Recherche exploratoire

Impression 3D et intelligence artificielle : futur de la galénique ?

« Dans dix ans, aucun patient n’acceptera de prendre la même chose qu’un autre million de personnes. Et aucun médecin ne prescrira la même chose à deux patients »

Fred Paretti de la start-up spécialisée dans l’impression 3D de médicaments Multiply Labs.

L’impression 3D – également appelée fabrication additive – est l’une des technologies capables de transformer le développement pharmaceutique et qui, en tout cas, prendra assurément part à la digitalisation du secteur de la fabrication de médicaments. Ce court article tentera de faire le point sur le fonctionnement de l’impression 3D, sur ses différents cas d’usage dans la fabrication de médicaments personnalisés, sur la réglementation encadrant à l’heure actuelle cette technologie novatrice et enfin sur les synergies pouvant exister avec l’intelligence artificielle.

*******

L’impression 3D, où en est-on ? 

Le principe de l’impression 3D, développé depuis le début des années 2000 et désormais utilisé dans un très grand nombre de domaines industriels, consiste à superposer des couches de matières en respectant des coordonnées réparties selon 3 axes (en trois dimensions) en suivant un fichier numérique. Ce fichier 3D est découpé en tranches horizontales et envoyé à l’imprimante 3D lui permettant d’imprimer une tranche après l’autre. La terminologie « impression 3D » réunit des techniques très différentes les unes des autres :

  • Le dépôt de fil fondu ou l’extrusion : un fil en plastique est chauffé jusqu’à sa fusion et déposé aux points d’intérêt, par couches successives, qui se lient entre elles par le plastique se solidifiant en refroidissant. Il s’agit de la technique la plus courante, utilisée par les imprimantes grand public.
  • La photopolymérisation de la résine : une résine photosensible est solidifiée à l’aide d’un laser ou d’une source de lumière très concentrée, couche par couche. Il s’agit de l’une des techniques permettant un niveau de détail très élevé.
  • Le frittage ou la fusion de poudre : un laser est utilisé pour, par l’énergie qu’il dégage, permettre l’agglomération des particules de la poudre. Cette technique est utilisée pour produire des objets en métal ou en céramique

Dans l’industrie pharmaceutique, l’impression 3D est utilisée de plusieurs façons dont les principales sont :

  • La réalisation de dispositifs médicaux, en utilisant les techniques classiques d’impression de composés plastiques ou métalliques ou des techniques plus particulières permettant aux dispositifs médicaux d’acquérir des propriétés originales, à l’image des prothèses de la start-up Lattice Medical permettant aux tissus adipeux de se régénérer.
  • Le bio-printing, permettant, en imprimant avec des cellules humaines, de reconstituer des organes comme la peau ou encore des patch cardiaques à l’image de ce que réalise une autre start-up française : Poietis
  • Enfin, et c’est ce qui sera abordé dans cet article, l’impression 3D a également un rôle à jouer dans la galénique en permettant d’imprimer, à partir d’un mélange composé d’excipient(s) et de substance(s) active(s) un médicament à voie d’administration orale

L’impression 3D de médicaments, pour quels usages ? 

L’impression 3D permet d’apporter une caractéristique essentielle à la fabrication des médicaments : la flexibilité. Cette flexibilité est importante pour :

  • La fabrication de petits lots cliniques : les phases cliniques I et II requièrent souvent des lots de médicaments expérimentaux de tailles modestes pour lesquels l’impression 3D trouve toute son utilité : il est parfois économiquement risqué de faire à ce stade de grands investissements sur la fabrication des médicaments. Par ailleurs, il est souvent nécessaire de modifier la teneur en principe actif des médicaments utilisés, l’impression 3D permettrait d’adapter ces lots en temps réel. Enfin, l’impression 3D peut également être utile pour proposer aux patients des placebos les plus ressemblant possible à leurs traitements habituels.
  • Avancer vers la médecine personnalisée : L’impression 3D des médicaments permet de créer des médicaments « à la carte » en mélangeant plusieurs principes actifs avec des teneurs différentes pour chaque patients. Dans le cas de patients dont les poids et les capacités d’absorption varient avec le temps (enfants ou personnes âgées dénutries par exemple), l’impression 3D pourrait également adapter leurs traitements en temps réel en fonction de l’évolution de leur poids, notamment en termes de dosages et de rapidité de dissolution.

Pour répondre à ces différentes problématiques, la plupart des grands acteurs pharmaceutiques s’intéressent de plus en plus à l’impression 3D des médicaments. Ils investissent massivement dans ce domaine ou concrétisent des partenariats, à l’image de Merck, coopérant avec la société AMCM afin de mettre en place un système d’impression conforme aux bonnes pratiques de fabrication. L’implémentation de cette solution a le potentiel de bouleverser le schéma traditionnel de fabrication comme l’illustre le schéma ci-dessous.

Figure 1 – Modification des étapes de fabrication d’un comprimé par implémentation de l’impression 3D (Source : Merck)

La réglementation 

Le premier médicament commercialisé imprimé en 3D a été approuvé par la FDA en 2015. Sa substance active est le lévétiracétam. L’objectif de l’utilisation de l’impression 3D pour ce médicament était d’obtenir un comprimé plus poreux, se dissolvant plus facilement et convenant mieux aux patients souffrant de troubles de la déglutition. En dépit de ces premières approbations et de ces premiers accès au marché, la réglementation reste encore à construire, il est en effet encore nécessaire d’évaluer les changements de bonnes pratiques que cette technologie de l’impression 3D pourrait imposer et déterminer quels types de tests et de contrôles devraient être mis en œuvre. Les contrôles qualité destructifs n’étant pas particulièrement adaptés aux petits lots produits par la technique de l’imprimante 3D. Pour le moment, il n’existe à notre connaissance aucune imprimante 3D agrée GMP pour la fabrication de médicaments.

L’avenir de l’impression 3D des médicaments passera-t-il par l’intelligence artificielle ?

Un nombre d’auteurs de plus en plus importants pensent que l’impression 3D de médicaments ne pourra sortir des laboratoires et devenir une technologie couramment utilisée dans l’industrie qu’à la condition d’intégrer l’intelligence artificielle. En effet, dans l’état actuel des choses, du fait de la grande flexibilité évoquée plus haut, l’utilisation de l’impression 3D requiert une longue phase itérative : il est nécessaire de tester des milliers de facteurs concernant notamment les excipients utilisés mais également les paramètres de l’imprimante ainsi que la technique d’impression à sélectionner. Le choix de ces différents facteurs se fait actuellement par l’équipe de galénique en fonction de ses objectifs et contraintes : quelle est la meilleure combinaison de facteurs pour répondre à un critère donné de pharmacocinétique ? Quels sont ceux qui permettent de minimiser les coûts de production ? Quels sont ceux qui permettent de respecter au mieux un éventuel cadre réglementaire ? Quels sont ceux qui permettent de produire rapidement ? Cette phase itérative est extrêmement consommatrice en temps et en capitaux, ce qui contribue à rendre l’impression 3D de médicaments incompatible pour le moment avec les impératifs du développement pharmaceutique. L’Intelligence Artificielle semble être le moyen le plus simple à déployer pour surmonter ce défi et pour rendre « evidence-based » le choix multi-dimensionnel des paramètres à mettre en œuvre en fonction des objectifs. L’Intelligence artificielle pourra également être impliquée dans le contrôle qualité des lots ainsi fabriqués.

L’utilisation de l’Intelligence Artificielle pour designer de nouveaux médicaments ouvre la perspective de nouveaux défis techniques, notamment en ce qui concerne la disponibilité des données nécessaires à ces modèles de Machine Learning, souvent conservées dans le secret des laboratoires pharmaceutiques.  Nous pouvons imaginer que des bases de données pourront tout de même être constituées en pratiquant le text-mining sur les articles scientifiques et des brevets traitant des différentes formes galéniques et des différents types d’excipients puis complétées de manière expérimentale, ce qui demandera une dépense en temps de travail non négligeable. Parallèlement à ces défis techniques, il sera également nécessaire de se poser des questions plus éthiques, notamment en ce qui concerne le bouleversement des responsabilités causé par l’implémentation de ces nouvelles technologies : qui serait responsable en cas de libération d’un lot non conforme ? Le fabricant de l’imprimante 3D ? Le développeur de l’algorithme qui a designé le médicament ? Celui de l’algorithme qui a validé le contrôle qualité ? Ou encore le Pharmacien Responsable du laboratoire ?

Au total, nous pouvons conclure que l’impression 3D des médicaments est une technologie déjà bien maîtrisée, dont le marché est en croissance de 7% chaque année pour atteindre un marché envisagé de 440 millions de dollars en 2025, mais dont l’utilité est jusqu’à présent limitée à certains cas d’usage mais qui pourrait demain, du fait du déblocage de son potentiel par combinaison à l’Intelligence Artificielle nous permettre d’atteindre un développement galénique et une fabrication des formes orales totalement automatisés et optimisés, enfin adaptés à la médecine ultra-personnalisée qui vient.

Vous souhaitez discuter du sujet ? Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial relatif à la PharmaTech ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !


Pour aller plus loin :

  • Moe Elbadawi, Laura E. McCoubrey, Francesca K.H. Gavins, Jun J. Ong, Alvaro Goyanes, Simon Gaisford, and Abdul W. Basit ; Disrupting 3D Printing of medicines with machine learning ; Trends in Pharmacological Sciences, September 2021, Vol 42, No.9
  • Moe Elbadawi, Brais Muñiz Castro, Francesca K H Gavins, Jun Jie Ong, Simon Gaisford, Gilberto Pérez , Abdul W Basit , Pedro Cabalar , Alvaro Goyanes ; M3DISEEN: A novel machine learning approach for predicting the 3D printability of medicines ; Int J Pharm. 2020 Nov 30;590:119837
  • Brais Muñiz Castro, Moe Elbadawi, Jun Jie Ong, Thomas Pollard, Zhe Song, Simon Gaisford, Gilberto Pérez, Abdul W Basit, Pedro Cabalar, Alvaro Goyanes ; Machine learning predicts 3D printing performance of over 900 drug delivery systems ; J Control Release. 2021 Sep 10;337:530-545. doi: 10.1016/j.jconrel.2021.07.046
  • Les médicaments imprimés en 3D sont-ils l’avenir de la médecine personnalisée ? ; 3D Natives, le média de l’impression 3D ; https://www.3dnatives.com/medicaments-imprimes-en-3d-14052020/#!
  • Les médicaments de demain seront-ils imprimés en 3D ? ; Le mag’ Lab santé Sanofi ; https://www.sanofi.fr/fr/labsante/les-medicaments-de-demain-seront-ils-imprimes-en-3D
  • Press Releases – Merck and AMCM / EOS Cooperate in 3D Printing of Tablets ; https://www.merckgroup.com/en/news/3d-printing-of-tablets-27-02-2020.html

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Clinique Préclinique Recherche exploratoire

Pourquoi réalisons-nous encore des méta-analyses à la main ?

« It is necessary, while formulating the problems of which in our further advance we are to find solutions, to call into council the views of those of our predecessors who have declared an opinion on the subject, in order that we may profit by whatever is sound in their suggestions and avoid their errors. »

Aristote, De anima, Livre 1, Chapitre 2

Les revues systématiques de la littérature et les méta-analyses constituent des outils indispensables à la synthèse des connaissances actuelles et à l’éclosion de nouvelles connaissances scientifiques. Leur utilisation dans l’industrie pharmaceutique est variée et est appelée à encore se diversifier. Cependant,  elles sont particulièrement limités par le manque de scalabilité de leurs méthodologies actuelles, extrêmement consommatrices en temps humain et aux coûts prohibitifs. A l’heure à laquelle les articles scientifiques sont disponibles au format numérique et à laquelle les algorithmes de Natural Language Processing permettent d’automatiser la lecture de textes, ne devrions-nous pas inventer des méta-analyses 2.0 ? Des méta-analyses boostées par l’intelligence artificielle, plus rapides et moins coûteuses, permettant d’exploiter davantage de données, d’une manière plus qualitative et à des fins différentes, constituent-elles un objectif atteignable à court terme ou un rêve irréaliste ?

La méta-analyse : méthodes et présentation

Une méta-analyse est basiquement une analyse statistique qui combine les résultats de nombreuses études. La méta-analyse, lorsqu’elle est bien réalisée constitue le gold-standard de la génération de preuves scientifiques et cliniques, en effet, l’agrégation d’échantillons et d’informations permet d’obtenir une puissance statistique importante. Cependant la manière dont est réalisée la méta-analyse peut affecter très profondément les résultats obtenus.

La réalisation d’une méta-analyse suit par conséquent une méthodologie très précise composée de différentes étapes :

  • Dans un premier temps, un protocole de recherche sera mis en place afin de déterminer quelle est la question à laquelle l’étude doit répondre, quels sont les critères d’inclusion et d’exclusion des articles que nous allons retenir. C’est également à ce stade du projet que l’algorithme de recherche est déterminé et testé.
  • Dans un second temps, la recherche est effectuée à proprement parler à l’aide de l’algorithme de recherche sur des bases de données d’articles. Les résultats sont exportés.
  • Les articles sont sélectionnés à partir des titres et des abstracts. Les raisons de l’exclusion d’un article sont mentionnées et seront comptabilisées dans le rapport final de la méta-analyse.
  • La validité des études sélectionnées est ensuite évaluée sur la base des caractéristiques des sujets, du diagnostic ainsi que du traitement.
  • Les différents biais sont contrôlés de manière à éviter les biais de sélection, d’extraction des données ainsi que les biais liés aux conflits d’intérêt et aux sources de financement.
  • Un test d’homogénéité sera réalisé afin de s’assurer que la variable évaluée est la même pour chaque étude. Il faudra également vérifier que les caractéristiques de collecte des données des études cliniques sont similaires
  • Une analyse statistique ainsi qu’une analyse de sensibilité sont menées.
  • Enfin, les résultats sont présentés dans une perspective quantitative et/ou qualitative dans le cadre d’un rapport de méta-analyse, d’une publication. Les conclusions sont discutées.

La revue systématique de la littérature (SLR), à l’inverse de la méta-analyse, dont elle partage un certain nombre d’étapes méthodologiques, n’a quant à elle pas de dimension quantitative mais a uniquement pour objet d’organiser et de décrire précisément un champ de la connaissance.

Le problème de scalabilité d’un outil puissant

Le problème de scalabilité est simple à mettre en équation et ne fera que s’empirer au fil du temps : l’augmentation du volume des données générées par des essais cliniques à traiter dans les revues de littérature est exponentielle alors que les méthodes utilisées pour l’extraction et le traitement de ces données n’ont que peu évolué et restent essentiellement manuelles. Les limites intellectuelles de l’homme sont ce qu’elles sont et l’humain ne peut se disrupter lui-même.

Ainsi qu’évoqué rapidement en introduction de cet article, les réalisations de méta-analyses sont relativement coûteuses en temps humain. On estime ainsi que 1000 heures de travail humain hautement qualifié sont nécessaires au minimum pour une simple revue de la littérature et que 67 semaines sont nécessaires entre le début du travail et sa publication. Ainsi les méta-analyses sont des outils ayant une inertie importante et dont la temporalité n’est à l’heure actuelle pas adaptée à certaines utilisations, comme la prise de décision stratégique qui nécessite parfois de disposer de certaines données rapidement. Des publications illustrent la réalisation de revues de la littérature complètes en 2 semaines et 60 heures de travail à l’aide d’outils d’automatisation utilisant l’intelligence artificielle.

« Le temps, c’est de l’argent » dit-on. Des universitaires ont ainsi calculé qu’en moyenne chaque méta-analyse coûte environ 141 000 dollars. Cette équipe a également déterminé que les 10 plus grandes entreprises pharmaceutiques dépensaient chacune environ 19 millions de dollars par an en méta-analyses. Même si ces sommes ne paraissent pas très importantes rapportées aux diverses autres dépenses de générations de preuves cliniques, elles ne sont tout de même pas négligeables et l’on peut envisager qu’un coût plus faible pourrait permettre la réalisation de davantage de méta-analyses ce qui permettrait notamment d’explorer la possibilité de réaliser des méta-analyses des données pré-cliniques et de potentiellement réduire le taux d’échec des essais cliniques – actuellement 90% des composés entrant en étude clinique échouent à démontrer une efficacité et une sécurité suffisantes pour atteindre la commercialisation.

Réduire la problématique de scalabilité de la méthodologie des revues de la littérature et des méta-analyses permettrait de travailler davantage et plus facilement avec des données issues d’essais pré-cliniques. Ces données présentent un certain nombre de spécificités qui complexifient leur utilisation dans le cadre des revues systématiques de littérature et des méta-analyses : les volumes de données sont extrêmement importants et évoluent particulièrement rapidement, les designs des études pré-cliniques ainsi que la forme des rapports et articles sont très variables et rendent les analyses ainsi que l’évaluation de la qualité des études particulièrement complexes. Cependant les revues systématiques de la littérature et autres méta-analyses portant sur les données pré-cliniques ont différentes utilisations : elles permettent d’identifier des trous dans les connaissances et d’orienter des recherches futures, d’informer le choix d’un design d’étude, d’un modèle, d’un critère de jugement ou encore la pertinence ou pas de démarrer un essai clinique. Différentes méthodologies d’exploitation des données précliniques ont été mises au point par des groupes universitaires et chacune d’elles s’appuie très largement sur des techniques d’automatisation faisant intervenir le text-mining et de manière générale l’intelligence artificielle.

L’un des autres problèmes récurrents des méta-analyses est qu’elles sont réalisées à un instant T et qu’elles peuvent devenir très rapidement obsolètes après leur publication, lorsque de nouvelles données ont été publiées et de nouveaux essais cliniques achevés. Autant de temps et d’énergie dépensés pour, dans certains cas après seulement quelques mois ou quelques semaines, présenter des conclusions imprécises ou partiellement fausses. Nous pouvons imaginer que la réalisation automatisée de méta-analyses permettrait de mettre à jour en temps réel leurs résultats.

Enfin, nous pouvons penser que cette automatisation permettrait également de contribuer à une évaluation davantage uniformisée de la qualité des études cliniques inclues dans les analyses. En effet, de nombreuses publications démontrent le fait que la qualité des études sélectionnées, ainsi que les biais qui peuvent les affecter, sont rarement évalués et que lorsqu’ils le sont, cela se fait selon des scores variés prenant peu de paramètres en compte – à titre d’exemple, la Jadad Score ne tient compte que de 3 caractéristiques méthodologiques – et cela est bien normal : le recueil des informations, même lorsqu’elles sont peu nombreuses, nécessite des efforts supplémentaires d’extraction et de traitement de données.

Les problèmes de scalabilité ainsi posés, quelles sont les solutions existantes ou envisageables ?

De nombreux outils déjà développés

L’automatisation des différentes étapes des méta-analyses est un champ de recherche de nombreux groupes universitaires et quelques outils ont été développés. Sans faire aucunement offense à ces outils, dont nous allons citer quelques exemples ci-dessous, il est permis de s’interroger sur les raisons pour lesquelles ils ne sont pas davantage utilisés actuellement. Le marché n’est-il pas assez mature ? Les outils, très fragmentés dans leur proposition de valeur, ne conviennent-ils pas à la réalisation complète d’une méta-analyse ? Ces outils, développés par des laboratoires de recherche, bénéficient-ils d’un marketing suffisant ? D’interfaces suffisamment user-friendly ?

Ainsi que mentionné plus haut, la plupart des outils et prototypes développés se focalisent sur une tâche bien précise de la méthodologie de la méta-analyse. Ainsi, nous pouvons mentionner par exemple Abstrackr spécialisé dans le screening des articles, ExaCT se focalisant quant à lui sur l’extraction des données ou encore RobotReviewer destiné à l’évaluation automatique des biais dans les rapports des essais cliniques contrôlés et randomisés.

Conclusion : une amélioration par l’automatisation ?

Lorsque nous tenons compte du champ d’exploration académique bourgeonnant concernant les méta-analyses automatisées ainsi que les différentes initiatives entrepreneuriales concernant ce domaine (nous pouvons notamment mentionner la toute jeune start-up : Silvi.ai), nous ne pouvons qu’acquérir la forte conviction que de plus en plus, la méta-analyse deviendra une tâche dédiée aux robots et que le rôle des humains se circonscrira à définir le protocole de recherche, en étant assisté par un logiciel nous permettant de faire les meilleurs choix possibles en termes de scope et d’algorithmes de recherche. Ainsi, en dehors des économies directes que permettra l’automatisation des méta-analyses, de nombreuses économies indirectes seront à prendre en compte, et notamment celles qui seront permises par les meilleures décisions qui seront prises, de débuter ou pas un essai clinique par exemple. Au total, l’automatisation des méta-analyses prendra part à l’invention de médicaments plus efficiente et plus rapide.

Resolving Pharma, dont le projet est de lier réflexion et action, s’investira dans les mois à venir dans l’élaboration concrète de solutions d’automatisation des méta-analyses.

Vous souhaitez discuter du sujet ? Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial relatif à la PharmaTech ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !


Pour aller plus loin :
  • Marshall, I.J., Wallace, B.C. Toward systematic review automation: a practical guide to using machine learning tools in research synthesis. Syst Rev 8, 163 (2019). https://doi.org/10.1186/s13643-019-1074-9
  • Clark J, Glasziou P, Del Mar C, Bannach-Brown A, Stehlik P, Scott AM. A full systematic review was completed in 2 weeks using automation tools: a case study. J Clin Epidemiol. 2020 May;121:81-90. doi: 10.1016/j.jclinepi.2020.01.008. Epub 2020 Jan 28. PMID: 32004673.
  • Beller, E., Clark, J., Tsafnat, G. et al. Making progress with the automation of systematic reviews: principles of the International Collaboration for the Automation of Systematic Reviews (ICASR). Syst Rev 7, 77 (2018). https://doi.org/10.1186/s13643-018-0740-7
  • Lise Gauthier, L’élaboration d’une méta-analyse : un processus complexe ! ; Pharmactuel, Vol.35 NO5. (2002) ; https://pharmactuel.com/index.php/pharmactuel/article/view/431
  • Nadia Soliman, Andrew S.C. Rice, Jan Vollert ; A practical guide to preclinical systematic review and meta-analysis; Pain September 2020, volume 161, Number 9, http://dx.doi.org/10.1097/j.pain.0000000000001974
  • Matthew Michelson, Katja Reuter, The significant cost of systematic reviews and meta-analyses: A call for greater involvement of machine learning to assess the promise of clinical trials, Contemporary Clinical Trials Communications, Volume 16, 2019, 100443, ISSN 2451-8654, https://doi.org/10.1016/j.conctc.2019.100443
  • Vance W. Berger, Sunny Y. Alperson, A general framework for the evaluation of clinical trial quality; Rev Recent Clin Trials. 2009 May ; 4(2): 79–88.
  • Une start-up spécialisée dans les méta-analyses augmentées par l’Intelligence Artificielle : https://www.silvi.ai/
  • Et enfin, la bible absolue de la méta-analyse : The handbook of research synthesis and meta-analysis, dirigé par Harris Cooper, Larry V. Hedges et Jefferey C. Valentine

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Généralités Préclinique Recherche exploratoire

Oligonucléotides et outils de Machine Learning

Les oligonucléotides, ces petites molécules d’ADN ou d’ARN, sont aujourd’hui des outils incontournables dans les projets de Biologie Moléculaire, mais également en thérapeutique et en diagnostic. En 2021, c’est une dizaine de thérapies antisens qui sont autorisées sur le marché, et plus encore qui sont en cours d’investigation clinique.

La récente crise sanitaire de la Covid-19 a également mis en avant les tests PCR qui utilisent des petites séquences d’une vingtaine de nucléotides afin d’amplifier et de détecter du matériel génétique. Le succès des oligos est tel que, depuis que leur synthèse a été automatisée, leur part de marché n’a cessé de croître. Il est estimé qu’elles atteindront les 14 milliards de dollars en 2026.

Les oligonucléotides ont l’élégance de leur simplicité. C’est dans les années 50 que Watson et Crick ont pu décrire la double hélice qui constitue notre code génétique, et la façon dont les bases Adénine/Thymine et Cytosine/Guanine s’apparient. Par cette propriété, les thérapies antisense peuvent virtuellement cibler la totalité de notre génome, et en réguler son expression. Ce sont des maladies difficiles à traiter comme le Spinal Dystrophy Disoder ou encore la maladie de Duchennes qui bénéficient aujourd’hui d’une prise en charge thérapeutique (1).

Cet article n’a pas pour but de reformuler l’histoire des oligonucléotides utilisés par les cliniciens (de nombreuses reviews sont déjà disponibles dans littérature (2), (3), (4)), mais de proposer un rapide coup d’œil sur de ce qui a été développé dans ce domaine, grâce au Machine Learning.

Nous espérons que l’article inspirera certains chercheurs, et que d’autres pourrons y trouver de nouvelles idées de recherche et d’exploration. À une époque où l’Intelligence Artificielle a atteint une certaine maturité, il est particulièrement intéressant de l’exploiter à son maximum et de rationaliser au mieux toutes les prises de décision dans les projets de R&D.

Cette liste est non exhaustive, et, si vous avez une un projet ou article à nous faire part, contactez nous à hello@resolving-pharma.com. Nous serons ravis d’en discuter et de l’inclure dans cet article.

L’utilisation du Deep Learning pour le design d’amorces de PCR

La crise sanitaire de la Covid-19 en a été le témoin, diagnostiquer la population est primordial dans le contrôle d’une pandémie. Grâce à deux amorces d’une vingtaine de nucléotides, une séquence spécifique peut-être amplifiée et détecter, même à très faible niveau (la technique de PCR est techniquement capable de détecter jusqu’à 3 copies d’une séquence d’intérêt (5))

Un groupe de l’université d’Utrecht, aux Pays-Bas, (6) a développé un RNC (pour Réseau de Neurones Convolutifs, un type de réseau neuronal particulièrement efficace dans la reconnaissance d’images) capable de révéler des zones d’exclusivité sur un génome, permettant de développer des amorces ultra-spécifiques à la cible d’intérêt. Dans leur cas, ils ont analysé plus de 500 génomes de virus de la famille des Coronavirus afin d’entrainer l’algorithme à différencier les génomes entre eux. Les séquences de primers obtenues par le modèle ont démontré une efficacité similaire aux séquences utilisées en pratique. Cet outil pourrait être utilisé afin de développer des outils de diagnostic PCR avec une plus grande efficacité et une plus grande rapidité.

Prédire le pouvoir de pénétration d’un oligonucléotide

Il existe de nombreux peptides qui améliorent la pénétration des oligonucléotides au sein des cellules.  Ces peptides sont appelés CPP pour Cell Penetrating Peptides, des petites séquences de moins de 30 acides aminés. Grâce à un arbre de décision aléatoire, une équipe du MIT (7) a pu prédire l’activité des CPP pour des oligonucléotides modifiés par morpholino phosphorodiamidates (MO). Même si l’utilisation de ce modèle est limitée (il existe énormément de modifications chimiques à ce jour et les MO n’en couvrent qu’une petite partie) il reste néanmoins possible de développer ce concept à de plus larges familles chimiques. Le modèle a ainsi pu prédire expérimentalement qu’un CPP allait améliorer par trois la pénétration d’un oligonucléotide au sein des cellules.

Optimiser les oligonucléotides thérapeutiques

Même si les oligonucléotides sont connus pour être faiblement immunogènes (8), ils n’échappent pas à la toxicité associée à toutes thérapies. “Tout est poison, rien n’est poison : c’est la dose qui fait le poison.” – Paracelse

La toxicité est un élément clé dans le futur du développement d’un médicament. Un groupe danois (9) a développé un modèle de prédiction capable d’estimer l’hépatotoxicité qu’aurait une séquence de nucléotides sur des modèles murins. Encore une fois, ici ce sont « seulement » des oligonucléotides non-modifiés et d’autres modifiés par des LNA (pour Locked Nucleic Acid, une modification chimique qui stabilise l’hybridation de l’oligonucléotide thérapeutique à sa cible) qui ont été analysés. Il serait intéressant d’augmenter l’espace chimique étudié et ainsi étendre les possibilités de l’algorithme. Toutefois c’est ce type de modèle qui permet, à terme, de réduire l’attrition du développement de nouveaux médicaments. Dans une autre optique (10), un modèle d’optimisation de la structure des LNA a été développé dans l’utilisation des oligonucléotides en tant que gapmers. Les gapmers sont des séquences d’oligonucléotides hybrides qui possèdent deux extrémités modifiées chimiquement, résistantes aux enzymes de dégradation, et une partie centrale non modifiée, elle, susceptible d’être dégradée une fois hybridée à sa cible. C’est cette « coupure » finale qui va générer l’effet thérapeutique désiré. Grâce à leur modèle, les chercheurs ont pu prédire le design de gapmer qui possède le meilleur profil pharmacologique.

Accélérer la découverte de nouveaux aptamères

Aussi surnommés “chemical antibodies” les aptamères sont des séquences d’ADN ou d’ARN capables de reconnaître et de se lier à une cible particulière, avec autant d’affinité qu’un anticorps monoclonal. De très bonnes reviews sur le sujet sont disponibles ici (11) ou encore ici (12). En clinique, le pegatinib est le premier aptamère à avoir été autorisé sur le marché. Le composé est indiqué dans certaines formes de la DMLA.

Les méthodes de recherche actuelles, basées sur le SELEX (pour Systematic Evolution of Ligands by Exponential Enrichment), ont permis de générer des aptamères dirigés contre des cibles d’intérêt thérapeutique et diagnostic, comme la nucléoline ou encore la thrombine. Même si le potentiel de la technologie est attrayant, il est difficile et laborieux de découvrir de nouvelles paires séquence/cible. Pour booster la recherche de nouveaux candidats, une équipe américaine (13) a pu entrainer un algorithme afin d’optimiser un aptamère et de réduire la taille de sa séquence, tout en conservant voire en augmentant son affinité à sa cible. Ils ont ainsi pu prouver expérimentalement que l’aptamère généré par l’algorithme avait plus d’affinité que le candidat de référence, tout en étant 70% plus court. L’intérêt ici est de conserver la partie expérimentale (la partie SELEX), et de la combiner avec ces outils in silico afin d’accélérer l’optimisation de nouveaux candidats.

Il est certain que le futur des oligonucléotides est prometteur, et leur versatilité est telle qu’on les retrouve dans des domaines totalement différents, allant des nanotechnologies à base d’ADN ou encore dans la technologie CRISP/Cas. Ces deux derniers domaines pourraient, à eux seuls, faire l’objet d’articles individuels tellement leurs horizons de recherche sont importants et intéressants.

Dans notre cas, nous espérons que ce petit article vous aura fait découvrir de nouvelles idées et concepts, et vous a donné envie d’en apprendre davantage sur les oligonucléotides et le Machine Learning.


Bibliographie :
  1. Bizot F, Vulin A, Goyenvalle A. Current Status of Antisense Oligonucleotide-Based Therapy in Neuromuscular Disorders. Drugs. 2020 Sep;80(14):1397–415.
  2. Roberts TC, Langer R, Wood MJA. Advances in oligonucleotide drug delivery. Nat Rev Drug Discov. 2020 Oct;19(10):673–94.
  3. Shen X, Corey DR. Chemistry, mechanism and clinical status of antisense oligonucleotides and duplex RNAs. Nucleic Acids Res. 2018 Feb 28;46(4):1584–600.
  4. Crooke ST, Liang X-H, Baker BF, Crooke RM. Antisense technology: A review. J Biol Chem [Internet]. 2021 Jan 1 [cited 2021 Jun 28];296. Available from: https://www.jbc.org/article/S0021-9258(21)00189-7/abstract
  5. Bustin SA, Benes V, Garson JA, Hellemans J, Huggett J, Kubista M, et al. The MIQE Guidelines: Minimum Information for Publication of Quantitative Real-Time PCR Experiments. Clin Chem. 2009 Apr 1;55(4):611–22.
  6. Lopez-Rincon A, Tonda A, Mendoza-Maldonado L, Mulders DGJC, Molenkamp R, Perez-Romero CA, et al. Classification and specific primer design for accurate detection of SARS-CoV-2 using deep learning. Sci Rep. 2021 Jan 13;11(1):947.
  7. Wolfe JM, Fadzen CM, Choo Z-N, Holden RL, Yao M, Hanson GJ, et al. Machine Learning To Predict Cell-Penetrating Peptides for Antisense Delivery. ACS Cent Sci. 2018 Apr 25;4(4):512–20.
  8. Stebbins CC, Petrillo M, Stevenson LF. Immunogenicity for antisense oligonucleotides: a risk-based assessment. Bioanalysis. 2019 Nov 1;11(21):1913–6.
  9. Hagedorn PH, Yakimov V, Ottosen S, Kammler S, Nielsen NF, Høg AM, et al. Hepatotoxic Potential of Therapeutic Oligonucleotides Can Be Predicted from Their Sequence and Modification Pattern. Nucleic Acid Ther. 2013 Oct 1;23(5):302–10.
  10. Papargyri N, Pontoppidan M, Andersen MR, Koch T, Hagedorn PH. Chemical Diversity of Locked Nucleic Acid-Modified Antisense Oligonucleotides Allows Optimization of Pharmaceutical Properties. Mol Ther – Nucleic Acids. 2020 Mar 6;19:706–17.
  11. Zhou J, Rossi J. Aptamers as targeted therapeutics: current potential and challenges. Nat Rev Drug Discov. 2017 Mar;16(3):181–202.
  12. Recent Progress in Aptamer Discoveries and Modifications for Therapeutic Applications | ACS Applied Materials & Interfaces [Internet]. [cited 2021 Jul 25]. Available from: https://pubs-acs-org.ressources-electroniques.univ-lille.fr/doi/10.1021/acsami.0c05750
  13. Bashir A, Yang Q, Wang J, Hoyer S, Chou W, McLean C, et al. Machine learning guided aptamer refinement and discovery. Nat Commun. 2021 Apr 22;12(1):2366.

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Préclinique Recherche exploratoire

Robots au laboratoire : les chercheurs de demain seront-ils également roboticiens ?

Il y a bien souvent dans un laboratoire des tâches très répétitives et laborieuses qui pourraient être automatisées. Que ce soit compiler des données sur un tableur ou préparer un gel pour une électrophorèse, le ratio valeur générée / temps utilisé n’est pas souvent élevé. Derek Lowe, chimiste et auteur du blog Into The Pipeline (1), se remémore avec humour une époque où une simple purification par chromatographie prenait énormément de temps à réaliser (époque aujourd’hui quasiment révolue), et note avec justesse que le but de l’automatisation n’est pas d’expulser le chercheur de sa paillasse, mais bien de réduire toutes ces tâches laborieuses et de pousser l’apport intellectuel du scientifique au maximum.

En Chimie ou en Biologie, de nombreux groupes essaient d’imaginer le laboratoire du futur, celui qui pourrait de bout en bout exécuter la synthèse puis le test d’une molécule. Cependant, d’un point de vue technique, la palette des actions nécessaires pour reproduire le travail du chercheur par un robot est beaucoup trop large pour être efficace à ce jour, mais les différents projets présentés ci-dessous sont prometteurs pour la suite.

***

Dans le domaine du diagnostic, il devient de plus en plus vital d’automatiser les tests afin de répondre à la demande des patients et des cliniciens. Afin de vous donner un ordre d’idée, c’est par exemple au Royaume-Uni près d’un million de tests PCR qui sont effectués par jour, rien que pour le diagnostic de la covid-19 (2).

En microbiologie clinique, l’utilisation des automates est particulièrement intéressante, là où les protocoles demandent beaucoup de temps et d’attention de la part des microbiologistes. Le robot WASP, conçu par Copan (3), combine robotique et logiciel et est capable d’effectuer des opérations de mise en culture, d’isolement bactérien, et de surveiller si la pousse se fait correctement grâce à une petite caméra installée dans l’automate. Il existe également l’automate de Roche (4), Cobas, capable de réaliser différents tests de biologie moléculaire comme la qPCR. La versatilité de ces robots leur permet d’être facilement adaptés à d’autres fins diagnostiques.

***

Dans un cadre plus chimique, un groupe liverpuldien dirigé par le Pr. Andrew Cooper (5) a conçu un robot capable de se déplacer physiquement dans le laboratoire afin d’optimiser la production d’hydrogène par photocatalyse. L’avantage de cet automate est qu’il est de taille humaine et qu’il peut opérer et se mouvoir librement dans n’importe quelle pièce. Même s’il a fallu un peu de temps pour mettre en place un tel système, il est estimé que l’automate a été 1000 fois plus rapide que si les travaux étaient effectués manuellement. Pour les curieux, la vidéo du robot est disponible ci-dessous :

L’Intelligence artificielle implémentée dans la plupart des robots fonctionne par itérations : les résultats de chaque expérience sont évalués par l’algorithme et lui permettent de concevoir l’expérience suivante.

Figure 1 : La combinaison d’Intelligence Artificielle et robotique permet de créer un circuit itératif, où chaque cycle analyse les résultats du précédent, et adapte les paramètres afin d’optimiser le processus défini par le chercheur.

Dans le domaine de la chimie des matériaux, Alán Aspuru-Guzik et al.(6) ont développé une plateforme automatisée et autonome, capable de travailler avec un grand nombre de paramètres, afin de découvrir de nouveaux matériaux utiles aux panneaux solaires ou aux consommables électroniques. En Chimie Organique cette fois, Coley et al. (7) ont utilisé l’AI et la robotique afin de concevoir des petites molécules par chimie en flux. Il suffit au chimiste d’indiquer la molécule qu’il souhaite obtenir, et l’AI va réaliser sa propre voie de retro synthèse et essayer de synthétiser le composé. De cette façon, leur automate a pu synthétiser 15 petites molécules thérapeutiques, allant de l’aspirine à la warfarine.

On peut noter d’autres initiatives, notamment de la part des Big Pharma comme celle d’AstraZeneca et son iLab (8), qui a pour but d’automatiser la découverte de molécules thérapeutiques via un circuit itératif de Design, Make, Test, Analyse. En Chimie Médicinale, les méthodes de Chimie combinatoire permettent d’explorer très rapidement l’espace chimique d’une cible, grâce à des réactions maîtrisées et optimisées. Ces projets sont témoins de l’avancée de la Recherche vers des systèmes de synthèse totalement autonomes.

***

Il est probablement juste de noter que certains chercheurs sont frileux à l’idée d’utiliser les robots, et se sentent parfois menacés d’être remplacés par une machine. Moi-même, en tant qu’apprenti chimiste et en explorant le sujet, je me suis dit à plusieurs reprises “Hé, mais ce robot pourrait travailler à ma place !”. Je me souviens des semaines que j’ai pu passer à essayer d’optimiser une réaction, testant différents catalyseurs à la chaîne, un travail qu’un automate (ou un singe !) aurait pu faire à ma place beaucoup plus rapidement et certainement plus efficacement. La robotique a ce potentiel énorme d’amélioration de la productivité des chercheurs, et de réduction des tâches pénibles qui requièrent finalement peu, voire aucune réflexions intellectuelles.

Il existe également des outils qui aident le chercheur à développer des plans de recherche afin d’optimiser un processus X ou Y de la façon la plus efficace possible. Par exemple, l’outil EDA développé par le NC3Rs (9) est utile pour les projets de recherche in vivo, où on essaie d’obtenir des données statistiquement puissantes tout en réduisant le nombre d’animaux utilisés. D’autres outils ont également pu être conçus grâce à des modèles Bayensien ou de Montecarlo Research Tree (10), et permettent de concevoir des plans d’expériences optimaux. Dans la même ligne d’idées, Aldeghi et al. ont développé Golem (11), un outil open-source disponible sur GitHub (12).

Les technologies du cloud (i.e. l’accès à un service via internet) sont également très prometteuses pour le laboratoire du futur. Elles permettront aux chercheurs d’effectuer leur recherche entièrement depuis chez eux, grâce à “quelques” lignes de code. Des projets comme celui de Strateos ont initié cette pratique et permettent déjà aux chercheurs de programmer des expériences de Chimie, de Biochimie et de Biologie depuis chez eux. Lorsque le protocole est défini, le chercheur n’a plus qu’à lancer l’expérience depuis son ordinateur et le robot localisé à des milliers de kilomètres effectuera l’opération pour lui. Dans quelques années, et si le service se démocratise dans la communauté scientifique, tout le monde pourra facilement y avoir accès.

Figure 2 : Principe du Cloub Lab. 1) Le chercheur envoie son protocole de recherche à l’automate, situé à l’autre bout du monde. 2) L’automate réalise l’expérience conçue par le chercheur et 3) et lui renvoie les résultats dès que l’expérience est terminée.

***

Entre progrès et doutes, il n’est sans doute qu’une question de temps avant que la communauté scientifique adopte une mentalité différente. Il fut un temps où les standards téléphoniques étaient entièrement gérés par des personnes, jusqu’au jour où tout a été remplacé par des automates. Ce court documentaire de David Hoffman a cristallisé cette transition et la réaction des utilisateurs lorsqu’ils entendent une voix robotisée pour la toute première fois. Même si quelques-uns d’entre eux étaient réticents au départ, l’implémentation de la reconnaissance vocale a permis de rendre le service beaucoup plus efficient et moins coûteux pour les consommateurs. Est-ce que demain les chercheurs ne seront pas tous un peu roboticiens ?


Bibliographie

  1. Lab! Of! The! Future! | In the Pipeline [Internet]. 2021 [cited 2021 Jun 9]. Available from: //blogs-sciencemag-org.ressources-electroniques.univ-lille.fr/pipeline/archives/2021/03/31/lab-of-the-future
  2. Testing in the UK | Coronavirus in the UK [Internet]. [cited 2021 Jun 13]. Available from: https://coronavirus.data.gov.uk/details/testing
  3. Copan WASP DT: Walk-Away Specimen Processor [Internet]. [cited 2021 Jun 9]. Available from: https://www.beckmancoulter.com/products/microbiology/copan-wasp-dt-walk-away-specimen-processor
  4. Automation in Molecular Diagnostic Testing [Internet]. Diagnostics. [cited 2021 Jun 13]. Available from: https://diagnostics.roche.com/global/en/article-listing/automation-in-molecular-diagnostic-testing.html
  5. Burger B, Maffettone PM, Gusev VV, Aitchison CM, Bai Y, Wang X, et al. A mobile robotic chemist. Nature. 2020 Jul;583(7815):237–41.
  6. MacLeod BP, Parlane FGL, Morrissey TD, Häse F, Roch LM, Dettelbach KE, et al. Self-driving laboratory for accelerated discovery of thin-film materials. Sci Adv. 2020 May 1;6(20):eaaz8867.
  7. Coley CW, Thomas DA, Lummiss JAM, Jaworski JN, Breen CP, Schultz V, et al. A robotic platform for flow synthesis of organic compounds informed by AI planning. Science [Internet]. 2019 Aug 9 [cited 2021 Jun 3];365(6453). Available from: http://science.sciencemag.org/content/365/6453/eaax1566
  8. The AstraZeneca iLab [Internet]. [cited 2021 Jun 27]. Available from: https://www.astrazeneca.com/r-d/our-technologies/ilab.html
  9. du Sert NP, Bamsey I, Bate ST, Berdoy M, Clark RA, Cuthill IC, et al. The Experimental Design Assistant. Nat Methods. 2017 Nov;14(11):1024–5.
  10. Dieb TM, Tsuda K. Machine Learning-Based Experimental Design in Materials Science. In: Tanaka I, editor. Nanoinformatics [Internet]. Singapore: Springer; 2018 [cited 2021 Jun 6]. p. 65–74. Available from: https://doi.org/10.1007/978-981-10-7617-6_4
  11. Aldeghi M, Häse F, Hickman RJ, Tamblyn I, Aspuru-Guzik A. Golem: An algorithm for robust experiment and process optimization. ArXiv210303716 Phys [Internet]. 2021 Mar 5 [cited 2021 Jun 9]; Available from: http://arxiv.org/abs/2103.03716
  12. aspuru-guzik-group/golem [Internet]. Aspuru-Guzik group repo; 2021 [cited 2021 Jun 9]. Available from: https://github.com/aspuru-guzik-group/golem

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Préclinique Recherche exploratoire

Organ-On-Chip : vers des essais miniaturisés ?

Avant de tester une nouvelle molécule chez l’Homme, il est nécessaire d’effectuer des prédictions toxicologiques et pharmacocinétiques sur différents modèles précliniques. Les chercheurs essaient de reconstituer au mieux ce qu’il se passerait sur un tissu ou un organe spécifique. Parmi les techniques les plus utilisées, nous pouvons citer les cultures cellulaires
qui, même si efficaces, peinent à simuler pleinement la dynamique d’un organe ou d’une pathologie. Ou encore les modèles animaux in vivo, qui sont souvent plus pertinents, mais qui ne sont pas adaptés à une génération de données à haut débit. D’abord éthiquement, les modèles doivent être sacrifiés et ce qui est observé chez l’Animal ne l’est pas toujours chez l’Humain. Parmi les composés qui échouent en clinique, il est estimé que 60% des causes sont liées à un manque d’efficacité chez l’Humain, et 30% à une toxicité non prévue (1) . Indéniablement, de nouveaux modèles biologiques sont nécessaires.

***

Paradoxalement, les chimiothèques sont de plus en plus grosses mais le nombre de médicaments sortant s’étiole. La communauté scientifique doit alors repenser ses modèles en permanence afin de générer une information plus fiable et à plus haute intensité. C’est à partir de cette problématique que la genèse des Organs-On-Chips (OOC) commence. C’est en 1995 que Michael L. Schuler fut le premiers à proposer un prototype de culture cellulaire analogue, connectant plusieurs compartiments de cellules différentes (2) . C’est quand ces compartiments seront connectés par des microcanaux que le terme “organ-on-a-chip” apparaitra.

Les OOC sont des appareils aussi gros qu’une clé USB. Cela est possible grâce à la technologie des microcanaux qui exploite des volumes de l’ordre du nanolitre, et au deçà.
Les OOC ont trois particularités qui leur permettent de mieux modéliser un tissu ou un organe :

  1. Le contrôle de la répartition tridimensionnelle des cellules
  2. L’intégration de différentes populations cellulaires
  3. Et la possibilité de générer et contrôler des forces biomécaniques.

Cela permet de retranscrire des conditions physiologiques beaucoup plus fidèlement, comparées à une culture cellulaire statique en deux dimensions, sur surface plate. Il n’existe pas un design unique d’OOC, mais l’exemple le plus simple à visualiser est peut-être celui du poumon qui mime l’interface air-alvéole. (voir Figure 1).

Figure 1 : Illustration d’un OOC mimant l’interface air-poumon. Une membrane semi-perméable sépare l’environnement extérieur des cellules pulmonaires. La chambre à vide va quant à elle, mimer le diaphragme.

À ce jour, différents OOC ont été conçus, allant du foie au modèle de bronchopneumopathie chronique obstructive. Riahi et al. ont par exemple développé un OOC hépatique, capable d’évaluer la toxicité chronique d’une molécule en quantifiant l’évolution de certains biomarqueurs (3) . Comparé aux cultures 2D, l’OOC est viable beaucoup plus longtemps et génère des données qui n’auraient pu être observées qu’in vivo. Un autre modèle intéressant a été développé par Zhang et al. et se concentre cette fois sur le cœur et ses cardiomyocytes (4) . En intégrant des électrodes sur la puce, les chercheurs ont pu évaluer la contractilité des cellules, et évaluer l’efficacité et la cardiotoxicité de certains médicaments.
Si l’adoption de la technologie est réussie, les OOC seront dans un premier temps utilisés comme compléments aux tests cellulaires et aux modèles animaux, puis les remplaceront peut-être totalement.

Encore plus impressionnant, la versatilité du concept permettra d’évaluer la réponse de nos propres cellules à un traitement spécifique. En implémentant par exemple un extrait de tumeur d’un patient, il sera possible d’observer et d’optimiser la réponse thérapeutique à une molécule X, et de retranscrire ces observations en clinique (5) . C’est un premier pas des OOC vers la médecine personnalisée.

***

À termes, les différents modèles d’OOC pourront être combinés afin de regrouper plusieurs organes et simuler un organisme entier. Cette dernière idée, aussi appelée “body-on-a-chip”, est extrêmement puissante et pourrait capturer à la fois l’effet d’un médicament et sa toxicité associée sur les différents organes. Certains modèles, comme celui de Skardal et al. ont permis d’étudier la migration de cellules tumorales d’un OOC de colon, jusqu’à un OOC de foie (6) . Les chercheurs Edington et al. ont eux pu connecter jusqu’à 10 OOC différents, capturant une partie des fonctions physiologiques du foie, des poumons, des intestins, de l’endomètre, du cerveau, du cœur, du pancréas, des reins, de la peau et des muscles squelettiques. Le système étant fonctionnel durant quatre semaines (7) . Même si de tels systèmes ne sont pas encore optimaux, leur exploration permettra dans le futur de générer des données beaucoup plus pertinentes et beaucoup plus rapidement, afin de booster les projets de Drug Discovery.


Pour aller plus loin :

Human Organs-on-Chips

D’excellentes reviews sur le sujet sont disponibles:

  • Low, L.A., Mummery, C., Berridge, B.R. et al. Organs-on-chips: into the next decade. Nat Rev Drug Discov 20, 345–361 (2021). https://doi-org/10.1038/s41573-020-0079-3
  • Wu, Q. et al. Organ-on-a-chip: recent breakthroughs and future prospects. BioMedical Engineering OnLine 19, 9 (2020). https://doi.org/10.1186/s12938-020-0752-0
  • Sung, J. H. et al. Recent advances in body-on-a-chip systems. Anal Chem 91, 330–351 (2019). https://doi.org/10.1021/acs.analchem.8b05293

Bibliographie

  1. Waring, M. J. et al. An analysis of the attrition of drug candidates from four major pharmaceutical companies. Nat. Rev. Drug Discov. 14, 475–486 (2015).
  2. Sweeney, L. M., Shuler, M. L., Babish, J. G. & Ghanem, A. A cell culture analogue of rodent physiology: Application to naphthalene toxicology. Toxicol. In Vitro 9, 307–316 (1995).
  3. Riahi, R. et al. Automated microfluidic platform of bead-based electrochemical immunosensor integrated with bioreactor for continual monitoring of cell secreted biomarkers. Sci. Rep. 6, 24598 (2016).
  4. Zhang, X., Wang, T., Wang, P. & Hu, N. High-Throughput Assessment of Drug Cardiac Safety Using a High-Speed Impedance Detection Technology-Based Heart-on-a-Chip. Micromachines 7, 122 (2016).
  5. Shirure, V. S. et al. Tumor-on-a-chip platform to investigate progression and drug sensitivity in cell lines and patient-derived organoids. Lab. Chip 18, 3687–3702 (2018).
  6. Skardal, A., Devarasetty, M., Forsythe, S., Atala, A. & Soker, S. A Reductionist Metastasis-on-a-Chip Platform for In Vitro Tumor Progression Modeling and Drug Screening. Biotechnol. Bioeng. 113, 2020–2032 (2016).
  7. Edington, C. D. et al. Interconnected Microphysiological Systems for Quantitative Biology and Pharmacology Studies. Sci. Rep. 8, 4530 (2018).

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !