La recherche pharmaceutique souffre d’un déclin de découverte de nouveaux composants thérapeutiques. Notamment à cause de la lenteur des essais cliniques et des coûts qu’ils nécessitent. Dans un rapport sur le sujet, les analystes du cabinet McKinsey jugent que les technologies big data présentent notamment le potentiel de mener à l’adoption, par la recherche pharmaceutique, d’un modèle plus prédictif, c’est-à-dire tirant davantage parti des techniques d’analyses mathématiques en vue de prédire précisément les effets physiologiques de molécules candidates dans le processus d’élaboration de nouveaux médicaments. Autre opportunité: l’analyse de l’activité des patients sur les réseaux sociaux promet d’optimiser le processus de sélection de candidats adéquats pour les essais cliniques. Avec à la clé, des recherches moins longues, moins coûteuses et potentiellement plus efficaces. Toutefois, le cabinet McKinsey observe qu’en dépit de ces perspectives encourageantes, les firmes pharmaceutiques sont encore réticentes à investir dans les technologies big data.
Des algorithmes capables d’intégrer des données hétérogènes
Selon les analystes de McKinsey, diverses mesures permettraient aux firmes pharmaceutiques d’augmenter la masse de données qu’elles collectent et d’optimiser leur gestion et analyse. Une mesure consiste à se doter de la capacité à intégrer des données à tous les stades de la chaîne de valeur, de la découverte d’un médicament à son utilisation concrète après approbation. Un défi réalisable à l’aide d’algorithmes reliant adéquatement les données de laboratoire et les données cliniques, et établissant des rapports automatisés afin d’identifier de possibles applications thérapeutiques ou des composés moléculaires pertinents. Une telle intégration de données de bout en bout permettrait aux chercheurs de disposer des informations résultant de l’association précise de données disparates de sources multiples, des recherches elles-mêmes, mais aussi des revendeurs, des patients ou des soignants.