Catégories
Généralités Préclinique Recherche exploratoire

Oligonucléotides et outils de Machine Learning

Les oligonucléotides, ces petites molécules d’ADN ou d’ARN, sont aujourd’hui des outils incontournables dans les projets de Biologie Moléculaire, mais également en thérapeutique et en diagnostic. En 2021, c’est une dizaine de thérapies antisens qui sont autorisées sur le marché, et plus encore qui sont en cours d’investigation clinique.

La récente crise sanitaire de la Covid-19 a également mis en avant les tests PCR qui utilisent des petites séquences d’une vingtaine de nucléotides afin d’amplifier et de détecter du matériel génétique. Le succès des oligos est tel que, depuis que leur synthèse a été automatisée, leur part de marché n’a cessé de croître. Il est estimé qu’elles atteindront les 14 milliards de dollars en 2026.

Les oligonucléotides ont l’élégance de leur simplicité. C’est dans les années 50 que Watson et Crick ont pu décrire la double hélice qui constitue notre code génétique, et la façon dont les bases Adénine/Thymine et Cytosine/Guanine s’apparient. Par cette propriété, les thérapies antisense peuvent virtuellement cibler la totalité de notre génome, et en réguler son expression. Ce sont des maladies difficiles à traiter comme le Spinal Dystrophy Disoder ou encore la maladie de Duchennes qui bénéficient aujourd’hui d’une prise en charge thérapeutique (1).

Cet article n’a pas pour but de reformuler l’histoire des oligonucléotides utilisés par les cliniciens (de nombreuses reviews sont déjà disponibles dans littérature (2), (3), (4)), mais de proposer un rapide coup d’œil sur de ce qui a été développé dans ce domaine, grâce au Machine Learning.

Nous espérons que l’article inspirera certains chercheurs, et que d’autres pourrons y trouver de nouvelles idées de recherche et d’exploration. À une époque où l’Intelligence Artificielle a atteint une certaine maturité, il est particulièrement intéressant de l’exploiter à son maximum et de rationaliser au mieux toutes les prises de décision dans les projets de R&D.

Cette liste est non exhaustive, et, si vous avez une un projet ou article à nous faire part, contactez nous à hello@resolving-pharma.com. Nous serons ravis d’en discuter et de l’inclure dans cet article.

L’utilisation du Deep Learning pour le design d’amorces de PCR

La crise sanitaire de la Covid-19 en a été le témoin, diagnostiquer la population est primordial dans le contrôle d’une pandémie. Grâce à deux amorces d’une vingtaine de nucléotides, une séquence spécifique peut-être amplifiée et détecter, même à très faible niveau (la technique de PCR est techniquement capable de détecter jusqu’à 3 copies d’une séquence d’intérêt (5))

Un groupe de l’université d’Utrecht, aux Pays-Bas, (6) a développé un RNC (pour Réseau de Neurones Convolutifs, un type de réseau neuronal particulièrement efficace dans la reconnaissance d’images) capable de révéler des zones d’exclusivité sur un génome, permettant de développer des amorces ultra-spécifiques à la cible d’intérêt. Dans leur cas, ils ont analysé plus de 500 génomes de virus de la famille des Coronavirus afin d’entrainer l’algorithme à différencier les génomes entre eux. Les séquences de primers obtenues par le modèle ont démontré une efficacité similaire aux séquences utilisées en pratique. Cet outil pourrait être utilisé afin de développer des outils de diagnostic PCR avec une plus grande efficacité et une plus grande rapidité.

Prédire le pouvoir de pénétration d’un oligonucléotide

Il existe de nombreux peptides qui améliorent la pénétration des oligonucléotides au sein des cellules.  Ces peptides sont appelés CPP pour Cell Penetrating Peptides, des petites séquences de moins de 30 acides aminés. Grâce à un arbre de décision aléatoire, une équipe du MIT (7) a pu prédire l’activité des CPP pour des oligonucléotides modifiés par morpholino phosphorodiamidates (MO). Même si l’utilisation de ce modèle est limitée (il existe énormément de modifications chimiques à ce jour et les MO n’en couvrent qu’une petite partie) il reste néanmoins possible de développer ce concept à de plus larges familles chimiques. Le modèle a ainsi pu prédire expérimentalement qu’un CPP allait améliorer par trois la pénétration d’un oligonucléotide au sein des cellules.

Optimiser les oligonucléotides thérapeutiques

Même si les oligonucléotides sont connus pour être faiblement immunogènes (8), ils n’échappent pas à la toxicité associée à toutes thérapies. “Tout est poison, rien n’est poison : c’est la dose qui fait le poison.” – Paracelse

La toxicité est un élément clé dans le futur du développement d’un médicament. Un groupe danois (9) a développé un modèle de prédiction capable d’estimer l’hépatotoxicité qu’aurait une séquence de nucléotides sur des modèles murins. Encore une fois, ici ce sont « seulement » des oligonucléotides non-modifiés et d’autres modifiés par des LNA (pour Locked Nucleic Acid, une modification chimique qui stabilise l’hybridation de l’oligonucléotide thérapeutique à sa cible) qui ont été analysés. Il serait intéressant d’augmenter l’espace chimique étudié et ainsi étendre les possibilités de l’algorithme. Toutefois c’est ce type de modèle qui permet, à terme, de réduire l’attrition du développement de nouveaux médicaments. Dans une autre optique (10), un modèle d’optimisation de la structure des LNA a été développé dans l’utilisation des oligonucléotides en tant que gapmers. Les gapmers sont des séquences d’oligonucléotides hybrides qui possèdent deux extrémités modifiées chimiquement, résistantes aux enzymes de dégradation, et une partie centrale non modifiée, elle, susceptible d’être dégradée une fois hybridée à sa cible. C’est cette « coupure » finale qui va générer l’effet thérapeutique désiré. Grâce à leur modèle, les chercheurs ont pu prédire le design de gapmer qui possède le meilleur profil pharmacologique.

Accélérer la découverte de nouveaux aptamères

Aussi surnommés “chemical antibodies” les aptamères sont des séquences d’ADN ou d’ARN capables de reconnaître et de se lier à une cible particulière, avec autant d’affinité qu’un anticorps monoclonal. De très bonnes reviews sur le sujet sont disponibles ici (11) ou encore ici (12). En clinique, le pegatinib est le premier aptamère à avoir été autorisé sur le marché. Le composé est indiqué dans certaines formes de la DMLA.

Les méthodes de recherche actuelles, basées sur le SELEX (pour Systematic Evolution of Ligands by Exponential Enrichment), ont permis de générer des aptamères dirigés contre des cibles d’intérêt thérapeutique et diagnostic, comme la nucléoline ou encore la thrombine. Même si le potentiel de la technologie est attrayant, il est difficile et laborieux de découvrir de nouvelles paires séquence/cible. Pour booster la recherche de nouveaux candidats, une équipe américaine (13) a pu entrainer un algorithme afin d’optimiser un aptamère et de réduire la taille de sa séquence, tout en conservant voire en augmentant son affinité à sa cible. Ils ont ainsi pu prouver expérimentalement que l’aptamère généré par l’algorithme avait plus d’affinité que le candidat de référence, tout en étant 70% plus court. L’intérêt ici est de conserver la partie expérimentale (la partie SELEX), et de la combiner avec ces outils in silico afin d’accélérer l’optimisation de nouveaux candidats.

Il est certain que le futur des oligonucléotides est prometteur, et leur versatilité est telle qu’on les retrouve dans des domaines totalement différents, allant des nanotechnologies à base d’ADN ou encore dans la technologie CRISP/Cas. Ces deux derniers domaines pourraient, à eux seuls, faire l’objet d’articles individuels tellement leurs horizons de recherche sont importants et intéressants.

Dans notre cas, nous espérons que ce petit article vous aura fait découvrir de nouvelles idées et concepts, et vous a donné envie d’en apprendre davantage sur les oligonucléotides et le Machine Learning.


Bibliographie :
  1. Bizot F, Vulin A, Goyenvalle A. Current Status of Antisense Oligonucleotide-Based Therapy in Neuromuscular Disorders. Drugs. 2020 Sep;80(14):1397–415.
  2. Roberts TC, Langer R, Wood MJA. Advances in oligonucleotide drug delivery. Nat Rev Drug Discov. 2020 Oct;19(10):673–94.
  3. Shen X, Corey DR. Chemistry, mechanism and clinical status of antisense oligonucleotides and duplex RNAs. Nucleic Acids Res. 2018 Feb 28;46(4):1584–600.
  4. Crooke ST, Liang X-H, Baker BF, Crooke RM. Antisense technology: A review. J Biol Chem [Internet]. 2021 Jan 1 [cited 2021 Jun 28];296. Available from: https://www.jbc.org/article/S0021-9258(21)00189-7/abstract
  5. Bustin SA, Benes V, Garson JA, Hellemans J, Huggett J, Kubista M, et al. The MIQE Guidelines: Minimum Information for Publication of Quantitative Real-Time PCR Experiments. Clin Chem. 2009 Apr 1;55(4):611–22.
  6. Lopez-Rincon A, Tonda A, Mendoza-Maldonado L, Mulders DGJC, Molenkamp R, Perez-Romero CA, et al. Classification and specific primer design for accurate detection of SARS-CoV-2 using deep learning. Sci Rep. 2021 Jan 13;11(1):947.
  7. Wolfe JM, Fadzen CM, Choo Z-N, Holden RL, Yao M, Hanson GJ, et al. Machine Learning To Predict Cell-Penetrating Peptides for Antisense Delivery. ACS Cent Sci. 2018 Apr 25;4(4):512–20.
  8. Stebbins CC, Petrillo M, Stevenson LF. Immunogenicity for antisense oligonucleotides: a risk-based assessment. Bioanalysis. 2019 Nov 1;11(21):1913–6.
  9. Hagedorn PH, Yakimov V, Ottosen S, Kammler S, Nielsen NF, Høg AM, et al. Hepatotoxic Potential of Therapeutic Oligonucleotides Can Be Predicted from Their Sequence and Modification Pattern. Nucleic Acid Ther. 2013 Oct 1;23(5):302–10.
  10. Papargyri N, Pontoppidan M, Andersen MR, Koch T, Hagedorn PH. Chemical Diversity of Locked Nucleic Acid-Modified Antisense Oligonucleotides Allows Optimization of Pharmaceutical Properties. Mol Ther – Nucleic Acids. 2020 Mar 6;19:706–17.
  11. Zhou J, Rossi J. Aptamers as targeted therapeutics: current potential and challenges. Nat Rev Drug Discov. 2017 Mar;16(3):181–202.
  12. Recent Progress in Aptamer Discoveries and Modifications for Therapeutic Applications | ACS Applied Materials & Interfaces [Internet]. [cited 2021 Jul 25]. Available from: https://pubs-acs-org.ressources-electroniques.univ-lille.fr/doi/10.1021/acsami.0c05750
  13. Bashir A, Yang Q, Wang J, Hoyer S, Chou W, McLean C, et al. Machine learning guided aptamer refinement and discovery. Nat Commun. 2021 Apr 22;12(1):2366.

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Recherche exploratoire

Données de santé : introduction à la révolution des données synthétiques

Les données, parfois considérées comme l’or noir du XXIème siècle, constituent effectivement le carburant indispensable des modèles d’intelligence artificielle, et sont déjà très largement utilisées par l’Industrie Pharmaceutique. Cependant, et notamment du fait du domaine particulièrement sensible de la santé, leur utilisation connaît plusieurs limitations. Les données synthétiques constitueront-elles l’une des solutions permettant la résolution de ces problèmes ?

Qu’est-ce que les données synthétiques et pourquoi les utiliser ?

Les données synthétiques sont des données créées artificiellement par l’utilisation d’algorithmes génératifs, plutôt que recueillies lors d’évènements réels. La technique a été initialement développée dans les années 90, afin de travailler sur les données du recensement américain sans divulguer les informations personnelles des répondants, tout en conservant des donnés de grande qualité et à grande échelle.

Ces données sont généralement fabriquées à partir de véritables données, issues par exemple des dossiers patients dans le cas des données de santé, et préservent les distributions statistiques de celles-ci. Ainsi, il est théoriquement possible de générer des cohortes de patients virtuels, n’ayant aucune identité réelle mais correspondant statistiquement en tous points aux cohortes réelles. Des chercheurs ont notamment réussi à synthétiser des dossiers patients virtuels à partir de données démographiques et épidémiologiques accessibles publiquement. Nous parlons alors dans ce cas de « fully synthetic data » par opposition aux « partially synthetic data » qui sont des données synthétiques fabriquées afin de, par exemple, remplacer les données manquantes de datasets recueillies classiquement.

***

Actuellement, et en dépit d’initiatives diverses et variées – comme le Health Data Hub en France, sur lequel nous aurons l’occasion de revenir dans d’autres articles – visant à démocratiser leur usage, de nombreux problèmes limitent encore l’utilisation optimale et massive des données patient. Les données synthétiques sont l’une des solutions qu’il est possible de mettre en face afin d’y répondre.

  • La confidentialité des données de santé :

Naturellement, les données de santé sont particulièrement sensibles en matière de confidentialité. La préservation de l’anonymat des patients induit un certain nombre de problématiques d’accessibilité et de coût de traitement des données. De nombreux acteurs, telles les industries pharmaceutiques, peinent à obtenir ces données et lorsqu’ils réussissent à y accéder, leur traitement induit des dépenses réglementaires et de cyber sécurisation importantes. Les délais d’accès sont également souvent extrêmement longs, ce qui ralentit les projets de recherche. Dans le cas de certaines bases, il est parfois réglementairement imposé de s’offrir les services d’une entreprise tierce, accréditée à manipuler ces données.

Pour permettre leur utilisation, les données patient sont généralement anonymisées à l’aide de différentes méthodes : la suppression des variables identifiantes ; leur modification par ajout de bruit ou par le groupement des variables catégorielles, afin d’éviter que certaines catégories ne contiennent que trop peu d’individus. L’efficacité de ces méthodes a cependant été très régulièrement remise en question par des études montrant qu’il était possible de remonter à l’identité des patient, en effectuant notamment des appariements (probabilistes ou déterministes) avec d’autres bases de données. La génération de données synthétiques peut, dans ce contexte, être utilisée comme une alternative sûre et facile d’utilisation.

  • La qualité des données :

La technique de la génération des données synthétiques est couramment mise en œuvre afin de compléter des données manquantes dans des datasets de données réelles, qu’il est impossible ou très couteux de recueillir à nouveau. Ces nouvelles données sont représentatives de la distribution statistique de ces variables dans le dataset de données réelles, elles permettent d’améliorer la qualité des datasets et la pertinence des algorithmes qui les utilisent.

  • Le volume trop faible des datasets de données de santé pour pouvoir être exploité par intelligence artificielle :

L’entraînement des modèles de Machine ou Deep Learning requiert parfois de larges volumes de données afin d’obtenir des résultats de qualité satisfaisante : en effet, il est couramment accepté qu’il faut en général au minimum environ 10 fois plus d’exemples que de degrés de libertés du modèle. Or, lorsque l’on utilise le Machine Learning en santé, il est courant que le volume de données ne permette pas la mise en production et l’obtention de résultats de qualité satisfaisante, dans le cas par exemple de pathologies rares peu documentées, ou de sous-populations représentant peu d’individus. L’utilisation de données synthétiques fait partie, dans ce cas de figure, de l’arsenal technique à la disposition des data scientists.

L’utilisation de données synthétiques constitue un champ industriel naissant, dont certains spécialistes pensent qu’il prendra part à dépasser certaines limites actuelles de l’IA. Parmi les différents avantages apportés par les données synthétiques dans le champ de l’IA, nous pouvons notamment citer : le fait qu’il est rapide et peu coûteux de créer autant de données que l’on souhaite, sans avoir besoin de les étiqueter à la main comme cela est souvent le cas pour les données réelles, mais aussi que ces données peuvent être modifiées à plusieurs reprises afin de rendre le modèle le plus efficace possible dans son traitement de données réelles.

Les techniques de génération de données synthétiques

La génération des données synthétiques implique plusieurs phases :

  • La préparation des données de l’échantillon à partir duquel, le cas échéant, les données synthétiques seront générées : afin d’obtenir un résultat de qualité, il est nécessaire de nettoyer et d’harmoniser les données si elles proviennent de sources différentes
  • La génération à proprement parler des données synthétiques, dont nous allons détailler ci-dessous certaines techniques
  • La vérification et l’évaluation de la protection de la confidentialité offerte par les données synthétiques

Figure 1 – Schéma de génération de données synthétiques

Les méthodes de génération de données sont nombreuses et le choix de leur utilisation dépend notamment de l’objectif, du type de données que nous souhaitons créer ainsi que du contexte : faut-il créer des données à partir de données déjà existantes et ainsi suivre leurs distributions statistiques ? Ou des données pleinement virtuelles suivant des règles leur permettant d’être réalistes (comme du texte par exemple) ? Dans le cas des méthodes « data driven », on tire profit de données existantes : des modèles génératifs de Deep Learning seront utilisés. Dans le cas des méthodes « process-driven », permettant notamment à des modèles mathématiques de générer des données à partir de processus physiques sous-jacents, il s’agira de ce que l’on appelle des modélisations à base d’agents.

De manière plus opérationnelle, les données synthétiques sont généralement créées en langage Python – très connu des Data Scientists. Différentes librairies Python sont utilisées, comme : Scikit-Learn, SymPy, Pydbgen et VirtualDataLab. Un prochain article de Resolving Pharma fera suite à cette introduction en présentant techniquement comment créer des données de santé synthétiques à l’aide de ces librairies.

***
L’évaluation des données synthétiques

Il est courant d’évaluer les données patient anonymisées selon deux critères principaux : d’une part la qualité de l’utilisation qu’il est possible d’en faire, et d’autre part la qualité de la confidentialité que l’anonymisation a permis d’obtenir. Il a été démontré que plus des données étaient correctement anonymisées et plus l’utilisation possible était limitée, puisque des features importantes mais identifiantes sont supprimées ou que l’on perd en précision en regroupant des classes de valeurs. Il y a donc un équilibre à trouver entre les deux, en fonction de la destination des données.

Les données synthétiques sont quant à elles évaluées selon trois critères principaux :

  • La fidélité des données par rapport à l’échantillon de base
  • La fidélité des données par rapport à la distribution de la population générale
  • Le niveau de confidentialité permis par ces données.

Différentes méthodes et métriques existent pour évaluer ces critères :  

En permettant de s’assurer que la qualité des données générées est suffisante pour l’utilisation qui doit en être faite, l’évaluation est un élément indispensable et central du processus de génération de données synthétiques.

Les données synthétiques, quels cas d’usage pour l’industrie pharmaceutique ?

Il y a quelques mois, les entreprises Accenture Life Sciences et Phesi, deux sociétés de services aux entreprises pharmaceutiques, ont corédigé un rapport enjoignant ces dernières à intégrer davantage les données synthétiques à leurs activités. Le cas d’usage mentionné dans ce rapport est celui des bras de contrôle synthétiques qui pourtant utilise généralement des données réelles, issues de différents essais cliniques et retravaillés statistiquement.

En dehors des frontières de l’industrie pharmaceutique, dans le monde de la santé, les données synthétiques sont déjà utilisées afin d’entraîner des modèles de reconnaissance visuelle, en imagerie notamment : les chercheurs peuvent ajouter de manière artificielle des pathologies sur des clichés de patients sains et donc de tester leurs algorithmes sur leurs capacités à détecter ces pathologies. Sur le modèle de ce use-case, il est aussi possible de créer des données de coupes histologiques qui pourraient servir à entraîner des modèles d’IA en préclinique.

***

A n’en pas douter, l’industrie bourgeonnante des données synthétiques est bien partie pour bousculer l’intelligence artificielle telle que nous la connaissons actuellement et son utilisation dans l’industrie de la santé qui a la particularité de manipuler des données sensibles et difficilement accessibles. Nous pouvons imaginer par exemple un écosystème où il sera plus facile et efficace pour les industriels de créer leurs propres données synthétiques, que de chercher à avoir accès aux bases de données médicales ou médico-administratives. Cette technologie serait alors l’une de celles qui modifieraient l’organisation de l’innovation dans les industries de santé, en offrant une place moins centrale aux données réelles.


Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Entrepreneuriat Généralités

Blockchain, Applications mobiles : la technologie permettra-t-elle de résoudre le problème des médicaments contrefaits ?

« Fighting counterfeits drugs is only the start of what blockchain could achieve through creating [pharmaceutical] ‘digital trust’.»

Andreas Schindler, Blockchain Expert

20% des médicaments en circulation dans le monde sont des médicaments contrefaits, dont la plupart ne contiennent pas la bonne substance active ou pas en bonne quantité. Représentant 200 milliards de dollars par an, ce trafic – 10 à 20 fois plus rémunérateur pour le crime organisé que celui de l’héroïne – cause chaque année la mort des centaines de milliers de personnes dont une majorité d’enfants que leurs parents pensent soigner avec de véritables médicaments. Pour lutter contre ce fléau, laboratoires et autorités sanitaires internationales doivent présenter un front uni, dont la technologie pourrait être la clef de voute.

***
Le problème de la contrefaçon de médicaments

C’est un fléau quasiment invisible, dont il est difficile de définir les contours, une épidémie mondiale à bas bruit, qui ne provoque ni confinements ni campagnes massives de vaccinations mais qui pourtant tue chaque année des centaines de milliers de patients. Les médicaments contrefaits, définis par l’OMS comme étant « des médicaments fabriqués de manière frauduleuse, mal étiquetés, de mauvaise qualité, dissimulant le détail ou l’identité de la source et ne respectant pas les normes définies », concernent généralement des maladies graves comme le sida, la tuberculose ou le paludisme et conduisent notamment au décès d’environ 300 000 enfants de moins de 5 ans atteints de pneumonie et de paludisme. Dans les faits, l’appellation généraliste « médicaments contrefaits » regroupe des produits très différents : certains ne contenant aucun principe actif, d’autres renfermant des principes actifs différents de ce qui est indiqué sur leur étiquetage, d’autres encore contenant le principe actif indiqué en quantité différente. En plus de leur responsabilité dans ces innombrables drames humains du présent, les médicaments contrefaits participent également à ceux de demain en participant notamment à l’augmentation de l’antibiorésistance dans des zones du monde où les systèmes de santé sont déjà défaillants et ne seront probablement pas en mesure de faire face à l’avenir à ce nouveau défi.

Parlons désormais d’argent. En dehors de ces considérations de santé publique, les médicaments contrefaits sont également un problème économicopolitique pour les états : ce trafic représentant 200 milliards de dollars par an permet d’une part d’alimenter d’autres filières du crime organisé et représente d’autre part un coût très important pour les systèmes de santé. Concernant les industries pharmaceutiques, les problématiques causées par ce trafic sont également nombreuses : un manque à gagner représentant 20% de leurs ventes mondiales ; un immense déficit de confiance des patients – ne sachant pas la plupart du temps que les médicaments contrefaits ne sont pas les originaux ; et enfin des dépenses considérables afin de lutter contre les contrefaçons.

***
Les initiatives pour contrer les contrefaçons de médicaments

Les médicaments contrefaits sont généralement distribués à travers des réseaux extrêmement complexes, ce qui rend particulièrement difficile la lutte pour endiguer leur propagation. Dans son « Guide pour l’élaboration de mesures visant à éliminer les médicaments contrefaits », l’OMS identifie différentes initiatives juridico-socio-politiques pouvant être mises en place pour les Etats afin de limiter la propagation de ces médicaments contrefaits, ces recommandations certes pertinentes sont particulièrement difficiles à mettre en place dans des régions du globe dans lesquelles les Etats ont peu de moyens et dont les structures sont gangrénées par la corruption endémique. Dans cet article, nous nous intéresserons par conséquent davantage aux solutions mises en place par des entreprises privées : start-ups spécialisées dans la lutte contre les médicaments contrefaits ou grandes entreprises pharmaceutiques.

L’une des pistes suivies par différentes start-up, notamment PharmaSecure, basée en Inde, ou Sproxil, basée au Nigéria et collaborant activement avec le gouvernement de ce pays, est d’utiliser le très large accès au smartphone des populations de ces pays pour leur permettre d’identifier les boîtes de médicaments contrefaites selon le modèle suivant : les fabricants de médicaments collaborent avec ces start-ups afin de mettre en place des codes (sous forme numérique ou de QR codes) dissimulées à l’intérieur des boîtes ou sur l’emballage du médicament, sous une surface à gratter ou décoller. Le patient peut télécharger gratuitement une application et y scanner ces codes pour vérifier que ses médicaments sont authentiques. Ces applications permettent en-sus aux patients de bénéficier de conseils relatifs à leurs traitements. Elles tiennent le rôle, dans leur fonctionnement, d’un tiers de confiance permettant de certifier au patient, consommateur final du médicament, que personne ne s’est substitué frauduleusement au fabricant légitime.

Figure 1 – Modèle de fonctionnement des applications mobiles de vérification de l’authenticité des médicaments

Le système décrit ci-dessus fonctionne globalement de la même manière que la sérialisation dont la mise en place a commencé il y a plusieurs années et est décrite dans le règlement européen 2016/61 ; à l’exception du fait que la vérification est réalisée par le patient et pas par le pharmacien.

D’autres applications mobiles, comme CheckFake et DrugSafe, développent un système de vérification différent, tirant profit de la caméra du smartphone pour vérifier la conformité en matière de formes, de contenus et de couleurs des packaging des médicaments. Enfin, une autre catégorie d’applications, mettent en place un système permettant d’analyser la forme et la couleur des médicaments eux-mêmes de manière à identifier de quels comprimés il s’agit et s’ils sont authentiques.

Ces différentes solutions présentent un certain nombre de qualités, en particularité leur facilité de déploiement et d’utilisation par les patients dans tous les pays du monde. En revanche, elles présentent l’inconvénient d’être lancées dans une course de vitesse avec les contrefacteurs poussés à produire des contrefaçons de plus en plus réalistes et ressemblantes. Par ailleurs, elles sont difficilement applicables pour aller plus loin : sécuriser la totalité des chaînes d’approvisionnement ou encore tracker le circuit des médicaments dans les hôpitaux, c’est la raison pour laquelle de nombreux grands groupes pharmaceutiques, comme Merck ou Novartis par exemple, misent depuis quelques temps déjà sur une technologie différente : la Blockchain. Explications.

***
Présentation succincte de la technologie Blockchain –

La Blockchain est une technologie conçue en 2008, sur laquelle se sont construites les crypto monnaies depuis cette date. Il s’agit d’une technologie sécurisée par cryptographie de stockage et de transmission d’informations sans organe de contrôle centralisé. L’objectif principal est de permettre à un protocole informatique d’être un vecteur de confiance entre différents acteurs sans tiers intermédié. Le mécanisme de la Blockchain permet aux différents acteurs qui y participent d’obtenir un accord unanime sur le contenu des données et d’éviter leur falsification ultérieure. Ainsi, la méthode historique de consensus entre les acteurs est celle dite de la « preuve de travail » : un certain nombre d’acteurs fournissent de la puissance de calcul afin de valider l’arrivée de nouvelles informations. Dans le cadre des cryptomonnaies, ces acteurs sont appelés les mineurs : des machines informatiques très puissantes et aux dépenses énergétiques importantes reçoivent toutes en même temps un problème mathématique complexe à résoudre, la première qui réussira sera en mesure de valider la transaction et d’être rémunérée pour cela. Chacun des participants, appelés « nœuds », possède par conséquent un historique mis à jour du grand livre de compte qu’est la Blockchain. Dans les faits, cette attaque est peu envisageable, sur des blockchains comme celles du Bitcoin par exemple, tant la puissance de calcul à développer serait phénoménale (peut-être qu’un jour l’ordinateur quantique rendra-t-il obsolète ce que nous considérons actuellement comme de la cryptographie, mais c’est un autre débat…) D’autres techniques de validation existent désormais, comme la preuve de participation ou encore la preuve de stockage. Elles ont essentiellement été conçues afin de répondre aux problématiques de scalabilité et de durabilité énergétique des blockchains.

Figure 2 – Schéma de l’ajout d’un bloc à une blockchain

Conçue à la suite de la crise financière de 2008, cette technologie a une forte connotation politique, et le Bitcoin a par exemple pour philosophie de permettre un affranchissement des individus envers les systèmes de contrôle bancaire et politique. Ainsi, les blockchains originelles, comme celle du Bitcoin, sont dites « ouvertes » : chacun peut lire et écrire les registres de la chaîne. Avec le temps, et pour davantage de praticité par des entreprises privées, des blockchains semi-fermées (tout le monde peut lire mais seul un organisme centralisateur peut écrire) ou fermées (la lecture et l’écriture sont réservées à un organisme centralisateur) ont été développées. Ces nouvelles formes de blockchains s’éloignent considérablement de la philosophie de départ, et l’on peut légitimement interroger leur pertinence : elles présentent certains inconvénients de la blockchain en termes de difficulté d’utilisation tout en conservant également les problématiques liées à une base de données centralisées : une seule entité peut décider volontairement de la corrompre ou souffrir d’un piratage. Cette configuration fermée permet souvent une plus grande scalabilité mais pose une question autant technologique que philosophique : une blockchain, lorsqu’elle est pleinement centralisée, en est-elle encore une ?

***
Perspectives d’utilisation de la technologie Blockchain dans la lutte contre les médicaments contrefaits

A l’heure où la confiance est plus que jamais une problématique centrale de l’industrie pharmaceutique, qui voit sa légitimité et son honnêteté questionnées sans répit, il est logique que les acteurs de ce secteur s’intéressent à la technologie de la confiance par excellence. Parmi les différents cas d’usage possibles, sur lesquels nous pourrons sans doute revenir lors de prochains articles, la lutte contre les médicaments contrefaits est l’un des plus prometteurs et des plus importants en termes de vies humaines potentiellement sauvées. Ainsi, Merck a récemment commencé à collaborer avec Walmart, IBM et KPMG dans le cadre d’un projet pilote porté par la FDA afin d’utiliser la blockchain pour permettre aux patients de tracker la totalité du circuit du médicament qu’ils ont entre les mains. Ce concept est déjà mis à l’étude de manière fonctionnelle à Hong Kong à propos du Gardasil et à l’aide d’applications mobiles téléchargées par les pharmaciens et les patients. Ainsi, toute la chaîne d’approvisionnement du médicament est bâtie autour de la blockchain permettant de récupérer et d’assembler un grand nombre de données concernant par exemple les dates d’expédition ou encore les conditions et températures de conservation. Le consortium précédemment cité explore également l’utilisation de Non-Fungible Tokens (NFT) : des jetons numériques uniques et non interchangeable. A chaque boîte de médicament produite serait associé un NFT, qui suivrait la boîte dans son circuit, du fabricant au grossiste, du grossiste au pharmacien et du pharmacien au patient, par exemple. Ainsi, chaque patient recevrait dans le futur un NFT en même temps que sa boîte de médicaments afin d’en certifier l’inviolabilité de la provenance. Aucun des acteurs de la chaîne d’approvisionnement ne pourrait prendre la liberté d’ajouter frauduleusement des médicaments contrefaits puisque ces derniers ne posséderaient pas leur NFT associé. Cette vision du futur est probablement réjouissante et en faveur d’une sécurité accrue du médicament, mais elle ne sera réalisable qu’après un travail important, d’une part d’éducation des parties prenantes et d’autre part de mise en place d’interfaces digitales accessibles à tous les patients.

***

Avec l’émergence du e-commerce et de sa facilité d’accès toujours plus importante, le problème des médicaments contrefaits a explosé ces dernières années et il sera nécessaire que les différents acteurs de l’écosystème pharmaceutique se mobilisent et se montrent créatifs pour l’endiguer, ainsi que pour restaurer la confiance détériorée. Plusieurs initiatives extrêmement intéressantes utilisant la technologie de la blockchain sont actuellement portées par différents acteurs du secteur de la santé, nous pouvons voir dans ces projets l’esquisse d’une potentielle solution à la contrefaçon des médicaments, mais nous devons toutefois les considérer avec un certain esprit critique tant la tentation de faire du marketing autour du buzz-word que représente la blockchain depuis l’explosion des crypto-monnaies en 2017 peut être forte – et même, malheureusement, lorsque les problématiques pourraient parfaitement se satisfaire d’une base de données centralisée. Pouvons-nous aller jusqu’à penser comme certains spécialistes de cette technologie que la blockchain n’est viable et utile que lorsqu’elle est utilisée pour des transferts financiers ? Le débat est ouvert et nul doute que le futur y apportera rapidement une réponse !

Vous souhaitez discuter du sujet ? Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial relatif à la PharmaTech ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Pour aller plus loin :

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !

Catégories
Interviews

Utilisation des données de vie réelle, une interview d’Elise Bordet – RWD and Analytics Lead

Chaque mois, Resolving Pharma s’attache à interviewer les acteurs qui, dès aujourd’hui, font la santé et l’industrie pharmaceutique de demain. Elise Bordet nous fait l’honneur de se prêter au jeu, nous l’en remercions !

«L’accès à la donnée et les capacités d’analyses vont devenir un avantage compétitif de plus en plus important pour les entreprises pharmaceutiques.»

[Resolving Pharma] Pour commencer, pouvez-vous nous présenter votre parcours ? Pourquoi avoir fait le choix de travailler à l’intersection de la Data et de la Pharma ?

[Elise Bordet] Je suis ingénieur agronome, j’ai une thèse en immuno-virologie et ensuite j’ai fait un MBA avant de rejoindre mon entreprise actuelle. Ce qui me passionne ce sont les sujets très techniques, de pointe, l’implémentation de nouvelles approches de recherche. J’avais été très marquée par une conférence sur l’intelligence artificielle et la notion de 4ième révolution industrielle, je ne voulais pas passer à côté de ce sujet.

J’étais très attachée à la recherche fondamentale publique mais j’ai quand même voulu me faire ma propre idée sur l’industrie pharmaceutique et je ne suis pas déçue du tout. Je crois que c’est un très bel endroit pour contribuer à la recherche et au bien commun. 

J’aime les sujets en changement perpétuel, où tout change au jour le jour, où il est nécessaire de toujours se remettre en question pour rester à la pointe des dernières nouveautés. Les sujets Pharma, Data et IA, c’est le paradis pour moi !

Pouvez-vous nous présenter ce que sont les Real World Data ainsi que les manières dont les utilise l’industrie pharmaceutique ?

On définit comme Real World Data les données qui ne sont pas collectées dans un essai clinique randomisé. Par conséquent, c’est un sujet immense. Cela peut aller de données provenant de registres à des bases de données plus larges comme les bases médico-administratives.

Ces données permettent notamment à l’industrie pharmaceutique de créer des médicaments mieux adaptés à la réalité d’un système de santé. Elles permettent aussi de créer de nouvelles approches de recherche, de soutenir les approches de « drug repurposing » par exemple.

En quoi les approches basées sur la Real World Evidence diffèrent-elles des approches traditionnelles de l’industrie pharmaceutique ? Quelles sont leurs plus-values ?

Finalement, ces approches existent depuis longtemps, notamment pour les sujets de pharmaco-vigilance (la fameuse Phase IV). En revanche, la quantité de données disponibles, leur qualité et nos capacités de calcul et d’analyses ont été bouleversées. L’ensemble de ces changements nous permet de répondre à de nouvelles questions de recherche. Des questions qui restaient sans réponse parce que l’on n’avait pas la capacité d’aller regarder ce qu’il se passait dans la réalité. Le deuxième sujet, c’est les grands apports de l’intelligence artificielle : scientifiquement, on va pouvoir aller beaucoup plus loin.

A votre avis, comment l’industrie pharmaceutique équilibrera-t-elle à l’avenir l’utilisation de la Real World Evidence avec celle des données cliniques et pré-cliniques générées de manière plus traditionnelle ?

Les données Real World vont jouer un rôle de plus en plus important. Chaque type de données a ses avantages et ses inconvénients. Finalement, il ne s’agit pas d’opposer les données entre elles, bien au contraire, le plus intéressant c’est de pouvoir regrouper toutes ces données et d’en tirer un maximum d’informations.

Quel impact l’utilisation de ce type de données pourrait avoir concernant la chaîne de valeur du médicament et des partenariats que doit mettre en place l’industrie pharmaceutique ?

L’accès à la donnée et les capacités d’analyses vont devenir un avantage compétitif de plus en plus important pour les entreprises pharmaceutiques. La stratégie Data des entreprises est l’un des piliers incontournables. J’imagine qu’à l’avenir on regardera non seulement la valeur du portfolio d’une entreprise mais aussi la valeur et l’impact des analyses qui peuvent être réalisées par celle-ci. La data va tellement jouer sur la probabilité de succès des projets qu’il est difficile d’imaginer ne pas la prendre en compte dans les métriques de valorisation économique. 

Vous avez récemment réalisé une présentation de la technologie des jumeaux numériques. Pouvez-vous nous expliquer de quoi il s’agit ?

Le jumeau numérique est un très beau concept qui revient à se dire : à chaque développement, nous créons de nouvelles données sur lesquelles nous devons nous appuyer pour le développement suivant. Ces données doivent nous permettre de modéliser un maximum de niveau d’organisations biologiques : moléculaire, cellulaire, tissulaire puis à l’échelle des organes voire de l’organisme. Cette modélisation nous évitera de répliquer des connaissances déjà créées et permettra notamment d’accélérer le développement pré-clinique et clinique, et pourquoi pas de modéliser de manière très précise les premiers résultats de Phase I. 

Comment voyez-vous l’industrie pharmaceutique dans 30 ans ?

Oula ! Tout va être différent ! Premièrement, je pense que comme dans toutes les industries, la technologie aura permis une transformation en profondeur de l’ensemble des prises de décision, c’est ce qu’on appelle « le data-driven decision making».  La science aura fait des progrès incroyables, les capacités de calcul et de prédiction auront été démultipliées, il y aura des nouvelles approches d’intelligence artificielle que l’on ne connait pas aujourd’hui. Nous aurons fait d’immenses progrès en matière d’inter-opérabilité des différentes bases de données de santé qui sont aujourd’hui morcelées. C’est un bon exercice d’essayer de se projeter dans 30 ans. On ne se souviendra plus de comment on faisait avant, c’est le principe des révolutions technologiques ; on a déjà oublié comment on vivait sans portable et internet ! On ne se verra plus sans la Data et l’IA au centre de nos décisions et projets. D’un point de vue plus organisationnel, le partage des données aura permis de faciliter les collaborations scientifiques publiques et privées et de mettre en place des projets qui accélèreront la recherche, à l’image du Health Data Hub en France ou de l’European Health Data Space qui va être lancé par l’Union Européenne.

Avez-vous un conseil à donner à quelqu’un qui souhaiterait travailler dans la Data Science en santé ? 

Nous, scientifiques, avons appris par le doute et restons hantés par lui. Ce n’est parce que vous avez une expertise dans un autre corps de métier (essais cliniques, recherche au laboratoire, etc) que vous ne pouvez pas en acquérir une autre en Data Science ou en Intelligence Artificielle par exemple. Les profils polyvalents sont et seront les plus recherchés. Mon conseil est donc : pas de panique !

Si vous pouvez, commencez rapidement à s’autoformer, Internet nous met à un clic des meilleurs cours sur la programmation, la Data Science et beaucoup d’autres sujets de pointe, profitez-en ! 

Prenez de l’avance sur demain !

Ces articles pourraient vous intéresser

Vitalik_Buterin_Scientist_Landscape

Introduction à la DeSci

Ou comment la Science du futur est en train de naître sous vos yeux « [DeSci] transformed my research impact from a low-impact virology article every other year to saving the…
Illustration In Silico

Vers des essais cliniques virtuels ?

Les essais cliniques font partie des étapes les plus critiques et les plus coûteuses dans le développement du médicament. Ils sont fortement régulés par les différentes agences de santé internationales,…

Pour s’inscrire gratuitement à la Newsletter mensuelle, cliquez ici.

Vous souhaitez prendre part à la rédaction d’articles de la Newsletter ? Vous souhaitez participer à un projet entrepreneurial sur ces thématiques ?

Contactez-nous à l’adresse hello@resolving-pharma.com ! Rejoignez notre groupe LinkedIn !