Informations

Quelle est la reproductibilité des modèles précliniques ?


Officieusement, les chercheurs en biologie se plaignent toujours de la fréquence à laquelle ne parviennent pas à reproduire les résultats obtenus par d'autres. Mais bien sûr, de telles expériences ratées sont sous-estimées.

Existe-t-il des données, ou du moins des hypothèses bien motivées, sur le taux de réussite de la réplication des expériences dans les modèles précliniques ? Je ne parle pas de la recherche translationnelle et de l'impossibilité de reproduire le résultat d'une souris chez un humain. Ma question concerne le fait de ne pas reproduire les résultats dans le même système de modèle, répliqué au niveau de détail disponible dans la publication originale (par exemple, même souche animale, mêmes dosages de médicaments, etc.)


La Collaboration Cochrane a beaucoup de ce type d'analyse. L'une de mes fonctionnalités préférées d'une revue Cochrane est l'utilisation de routine des graphiques en entonnoir, où il existe suffisamment de données pour les produire. Une interprétation judicieuse des graphiques en entonnoir peut donner des indications assez solides sur la reproductibilité de la littérature publiée.

Les graphiques en entonnoir montrent les points de données d'études publiées individuelles qui ont étudié l'efficacité d'une technique lorsqu'elle est utilisée dans un but spécifique. Les points de données sont tracés par la taille de l'effet estimée (sur l'axe des x) et une évaluation de la qualité de l'essai, incorporant des éléments tels que la taille de l'échantillon et la conception expérimentale (sur l'axe des y). Une étude avec une petite taille d'échantillon et/ou une conception médiocre (faible sur l'axe des y) devrait fournir une estimation relativement inexacte de la véritable taille de l'effet de la méthode. Au fur et à mesure que la taille des échantillons augmente et que la méthodologie expérimentale s'améliore (en remontant l'axe des y), vous vous attendez à ce que les études se concentrent sur la véritable taille de l'effet, donnant une forme de pyramide ou d'"entonnoir" au graphique global.

La reproductibilité des essais affecte l'emplacement des points dans la pyramide de plusieurs manières.

S'il y avait un tas d'études qui cherchaient un effet de la méthode et n'en trouvaient pas, elles pourraient ne pas être publiées parce que les résultats nuls sont considérés comme ennuyeux par les éditeurs de revues - le soi-disant « effet tiroir de fichiers ». Cela apparaîtrait dans un graphique en entonnoir comme une pyramide qui a un nombre étrangement faible de points de données sur le côté de la pyramide qui est proche de la taille d'effet zéro. Les points de données « manquants » sont un indicateur que cette technique Probablement ne reproduisaient pas toujours une taille d'effet aussi forte que les tailles d'effet publiées.

L'autre façon dont les graphiques en entonnoir peuvent informer sur la reproductibilité des études publiées est simplement en regardant la largeur de la base de la pyramide. S'il est large, alors avec les méthodes de conception expérimentale des études en bas, les résultats ne sont pas très reproductibles - différentes études donnent des résultats très différents lorsqu'on examine la même question.

C'est un gros travail de synthétiser cela dans une évaluation globale de « la reproductibilité des essais précliniques », mais si cela vous intéresse, je vous recommande de passer du temps à parcourir la bibliothèque Cochrane pour vous familiariser avec les types de variance vous traitez.


Concevoir des études précliniques pour la reproductibilité

Pour stimuler le pipeline de recherche de médicaments et de thérapies, le travail préclinique requis doit être conçu pour faciliter la reproductibilité.

La fraction infime des études précliniques publiées de médicaments et de thérapies qui ont été testées dans des études de cas ou des essais cliniques est une preuve incontournable que la traduction clinique est complexe et coûteuse. Un autre facteur est également critique : les difficultés de reproductibilité (par une équipe différente utilisant une configuration différente), voire de réplicabilité (par une équipe différente utilisant la même configuration), des protocoles, des procédures et des résultats. Les quelques efforts de reproductibilité qui ont été menés en biomédecine (principalement en biologie du cancer) ont rapporté que seulement 10 à 25 % des petits ensembles d'études précliniques considérés pouvaient être reproduits avec succès.

Chris Ryan/Nature, Springer Nature Ltd.

Une conception, une mise en œuvre et un compte rendu inappropriés des études précliniques de médicaments et de thérapies peuvent nuire à leur reproductibilité et à leur traduisibilité. Figure reproduite de La nature 529, 456–458 (2016).

Les résultats précliniques peuvent être difficiles à reproduire et à reproduire, en raison des obstacles associés à l'hétérogénéité et à la complexité biologiques, ou à l'utilisation de méthodes non standard ou de matériaux ou de technologies coûteux. Mais de nombreuses études publiées souffrent malheureusement aussi d'une conception d'étude médiocre ou biaisée, d'une puissance statistique insuffisante ou d'un manque de respect des normes de rapport. recherche prometteuse - sont tout à fait évitables.

Comment concevoir des études biomédicales précliniques pour maximiser les chances de traduction clinique ? Une perspective de John Ioannidis, Betty Kim et Alan Trounson, publiée dans ce numéro, fournit des conseils spécifiques pour les études en nanomédecine et en thérapie cellulaire. Par exemple, pour minimiser les effets de l'hétérogénéité biologique lors de la conception d'une étude pour tester un nouveau nanomédicament ou un nouveau produit cellulaire, les chercheurs doivent adopter ou développer des échantillons, des matériaux et des protocoles standardisés, et utiliser plusieurs modèles in vitro et modèles animaux pertinents pour la maladie. Par exemple, les modèles murins immunocompétents et les modèles utilisant des cellules dérivées de patients récapitulent généralement mieux les aspects critiques de la maladie humaine que les animaux immunodéprimés et les xénogreffes dérivées de lignées cellulaires. Pourtant, tous les modèles ont des limites pour éviter le battage médiatique, ces limites et toutes les autres limites, hypothèses et mises en garde de l'étude doivent être signalées. Et pour réduire la variabilité biologique et les biais d'expérimentation (et d'expérimentateur), la réplication par différents chercheurs (idéalement dans un projet de collaboration multi-sites) à travers des spécimens ou des systèmes biologiques indépendants est souvent nécessaire. De plus, lors de la conception de nouveaux médicaments ou thérapies, les premières tentatives visant à réduire les complexités de la synthèse ou de la fabrication des produits et les coûts des matériaux devraient payer trop souvent, les nanomédicaments et les produits cellulaires prometteurs ne sont pas traduisibles car leur synthèse ne peut pas être étendue (ou leur production avec des l'homogénéité ou la pureté serait irréalisable ou trop coûteuse), ou parce que leurs profils d'innocuité n'offrent pas de garanties satisfaisantes pour les tests chez l'homme.

Les outils qui protègent les enquêteurs contre les biais et les résultats statistiquement médiocres peuvent constituer des garanties efficaces contre les échecs de reproductibilité dans les études précliniques testant des médicaments ou des thérapies. En particulier, la randomisation et la mise en aveugle, lorsque cela est possible, réduisent les biais. Et des études de grande envergure et statistiquement alimentées renforcent la confiance dans les allégations. Pourtant, les études qui manquent de contrôles négatifs lorsqu'elles déclarent un résultat positif, qui manquent de contrôles positifs lorsqu'elles déclarent un résultat négatif, qui revendiquent une signification statistique sur la base de P des valeurs à peine inférieures au seuil arbitraire de 0,05, ou qui rapportent sélectivement les résultats d'analyses de données post-hoc exhaustives effectuées pour trouver des modèles statistiquement significatifs dans les données, polluent collectivement la littérature biomédicale et nuisent à la recherche biomédicale. Les biais, qui sont rarement intentionnels, résultent généralement d'une formation inadéquate ou d'incitations et de récompenses faussées, telles que la pression de publier des résultats significatifs. Par conséquent, la conception de l'étude, y compris des analyses statistiques bien informées, devrait idéalement être en place avant la mise en œuvre de l'étude (sauf pour les travaux de nature exploratoire) et être enregistrée dans une base de données accessible au public (telle que preclinicaltrials.eu).

Même lorsque les études précliniques ont été correctement conçues, le manque de rapports suffisamment complets et clairs peut entraver leur reproductibilité. À cet égard, des lignes directrices telles que ARRIVE (Animal Research: Reporting of In Vivo Experiments) et des listes de contrôle de rapport (telles que le Nature Research Reporting Summary, qui est inclus dans chaque article de recherche publié par Nature Génie Biomédical) invitent les auteurs à fournir des détails sur la conception de l'étude, les méthodes, les protocoles, les matériaux, les modèles animaux, l'acquisition et le traitement des données et les logiciels utilisés.

Pourtant, une conception d'étude appropriée et des rapports clairs et approfondis, bien que nécessaires pour la reproductibilité et la traduisibilité, ne sont pas suffisants. Sans une compréhension adéquate des mécanismes biologiques sous-jacents à l'action et à la performance d'un médicament ou d'une thérapie particulière, les tentatives de reproductibilité et de traductibilité peuvent être entravées. Naturellement, dévoiler une compréhension mécanistique suffisante nécessite des recherches exploratoires, ce qui est parfois extrêmement difficile et peut nécessiter de nouveaux modèles animaux ou des modèles microphysiologiques in vitro qui récapitulent mieux la biologie de la maladie humaine.

Les bonnes pratiques dans la conception des études, la normalisation des méthodes, des protocoles, des modèles et des rapports, et une meilleure compréhension des mécanismes peuvent mieux faciliter la reproductibilité de médicaments et de thérapies prometteurs lorsque les données, les protocoles, les matériaux uniques et les modèles de maladie sont facilement partagés entre les chercheurs via bases de données et référentiels reconnus par la communauté. Ce n'est que lorsque toutes ces mesures seront poursuivies collectivement, parallèlement à l'appel au financement d'études de reproductibilité, que le pipeline translationnel sera élargi et les efforts translationnels accélérés.


L'"étalon-or" de la recherche préclinique donne des résultats "très peu fiables", selon une étude

Un rack de cages à souris dans une animalerie, où les animaux sont gardés dans des conditions très standardisées. (Photo : Hanno Würbel)

Selon l'étude, l'augmentation de la diversité de l'échantillon d'étude peut "significativement​” améliorer la reproductibilité des résultats expérimentaux.

Cependant, la normalisation est l'étalon-or en recherche animale - sinon un dogme, a déclaré l'auteur principal, le professeur Hanno Würbel, directeur de la Division du bien-être animal à l'Université de Berne, qui a longtemps émis l'hypothèse que la normalisation peut être une cause de mauvaise reproductibilité, plutôt que l'antidote.

Plus vous standardisez les animaux et l'environnement, plus vous risquez d'obtenir des résultats spécifiques à ces conditions standardisées mais qui ne seraient pas reproductibles avec des animaux différents ou dans des conditions différentes», a-t-il expliqué.

L'objectif de l'étude, qui a été publiée récemment dans PLOS Biology, était d'examiner dans quelle mesure la normalisation peut être un problème dans la recherche animale préclinique, et si une approche multi-laboratoires pourrait être une solution, a déclaré Würbel.

Des chercheurs des universités de Berne et d'Édimbourg ont utilisé des simulations informatiques basées sur 440 études précliniques sur 13 traitements différents dans des modèles animaux. La reproductibilité des résultats a ensuite été comparée entre les études monolaboratoires et multilaboratoires.

Nous avons constaté que l'étalon-or des études en laboratoire unique menées dans des conditions standardisées donne des résultats très peu fiables», a déclaré Würbel.

À l'inverse, les chercheurs ont découvert que l'utilisation du même nombre d'animaux répartis dans quatre laboratoires au maximum donnait « beaucoup plus précis et mieux reproductible» résultats.


Reproductibilité de la recherche translationnelle préclinique académique : enseignements du développement d'inhibiteurs de la voie Hedgehog pour traiter le cancer

La recherche translationnelle académique se développe à un rythme effréné à une époque où des questions ont été soulevées sur la reproductibilité des résultats précliniques. Le développement d'inhibiteurs de la voie Hedgehog (HH) pour le traitement du cancer au cours des deux dernières décennies offre une étude de cas pour comprendre les causes profondes de l'échec à prédire les résultats cliniques découlant de la recherche translationnelle préclinique universitaire. Bien que de tels inhibiteurs aient été autrefois considérés comme efficaces dans jusqu'à 25 % des cancers humains, les études cliniques ont montré des réponses uniquement dans le carcinome basocellulaire et le sous-type HH du médulloblastome. Un examen attentif des études publiées révèle des limites dans les modèles utilisés, un manque de normes quantitatives, l'utilisation de concentrations élevées de médicaments associées à des toxicités non spécifiques et une mauvaise utilisation des modèles de lignées cellulaires et de souris. Ces problèmes découlent en partie de la complexité scientifique, par exemple, l'échec des lignées cellulaires tumorales à maintenir l'activité de la voie HH in vitro, mais un facteur contributif plus important semble être l'influence d'un biais inconscient. Il y avait une forte attente que les inhibiteurs de la voie HH auraient un impact profond sur le cancer humain et les expériences ont été conçues avec cette hypothèse à l'esprit.

1. Introduction

Au cours des deux dernières décennies, une grande partie du fardeau de la recherche préclinique, et même des premiers essais cliniques, s'est déplacée des laboratoires industriels vers les laboratoires universitaires, car les entreprises préservent leurs ressources. Il existe aujourd'hui une forte demande de l'industrie pour que les laboratoires académiques dé-risquent les projets, en fournissant des indications fortes d'efficacité, avant la formation de partenariats. Cependant, de plus en plus, des questions se posent sur le manque de reproductibilité des résultats de la recherche translationnelle académique dans les laboratoires industriels [1]. Cela a conduit à des appels à une plus grande éducation à la méthodologie statistique, à des stratégies pour vérifier la reproductibilité et à la création de sites Web de surveillance des publications, tels que PubPeer et Montre de rétraction, consacré à souligner les lacunes dans la littérature publiée. Cependant, chacune de ces initiatives ne parvient pas à résoudre le problème à la racine. Plutôt que de fournir un discours théorique sur les problèmes, je passerai en revue les étapes clés impliquées dans le développement de petites molécules inhibitrices de la voie Hedgehog (HH) pour le traitement du cancer, pour illustrer les enseignements pragmatiques de la recherche translationnelle préclinique. Bien que le développement d'inhibiteurs de la voie HH pour le traitement du cancer ait été un voyage translationnel réussi, menant à l'approbation de médicaments, il y a eu de nombreux échecs instructifs en cours de route. Ces faux pas indiquent un raisonnement erroné, une mauvaise utilisation des modèles, un manque d'approches scientifiques quantitatives et l'auto-illusion, qui découlent chacun d'un biais inconscient omniprésent dans la recherche translationnelle universitaire. Pour éclairer ces problèmes, il est nécessaire de creuser dans les détails de la science pour comprendre et, espérons-le, éviter des problèmes similaires à l'avenir.

2. La différence entre recherche translationnelle et recherche fondamentale

Il existe une différence fondamentale entre la recherche translationnelle et la recherche fondamentale. Dans la recherche fondamentale, les chercheurs peuvent favoriser une hypothèse particulière, mais ils s'efforcent de maintenir le désintérêt tout en testant leurs idées grâce à une expérimentation critique qui fait progresser les connaissances quel que soit le résultat. Dans la recherche translationnelle, l'objectif est de générer des résultats positifs qui soutiennent le développement d'un produit, ou d'une stratégie d'intervention, pour améliorer les résultats pour les patients. En thérapeutique expérimentale, les enjeux peuvent être très importants lors de la phase de recherche préclinique, menée pour accompagner la décision de faire avancer un produit en clinique. De même, dans les essais cliniques de phase I/II, il peut y avoir d'énormes conséquences négatives si un produit progresse seulement pour échouer au stade ultérieur de la phase III, ou au-delà. Dans l'industrie, de gros efforts sont déployés pour contester les projets le plus tôt possible dans le pipeline en raison des coûts financiers et des opportunités perdues d'un échec à un stade avancé. En effet, les scientifiques de l'entreprise sont souvent récompensés pour avoir découvert des failles scientifiques, des effets hors cible ou des toxicités inattendues qui entraînent l'arrêt d'un projet avant qu'il ne consomme des ressources excessives. Cependant, cette incitation n'existe pas dans le milieu universitaire et c'est là que réside le problème.

La devise de la recherche universitaire est les publications et les subventions. Il est notoire qu'il est très difficile de publier des données négatives et que les subventions ne sont pas attribuées ou renouvelées lorsqu'un projet ne donne pas des résultats prometteurs. Cela signifie que se lancer dans une étude translationnelle pluriannuelle est une entreprise à haut risque pour l'ensemble de l'équipe de recherche. Les étudiants ont besoin de publications pour obtenir leur diplôme, les boursiers ont besoin d'études à fort impact pour ouvrir la porte à une carrière indépendante et les chefs de laboratoire doivent constamment générer des revenus de subventions pour survivre. Dans ce climat, il est presque impossible de maintenir le désintérêt. Même si cette perspective peut être maintenue au niveau conscient, des vœux pieux s'insinuent à cause de préjugés inconscients.

3. Identification de la cible

La première étape de tout projet de développement de médicaments consiste à identifier une cible. Dans le cas de la voie HH, la cible a été découverte à la suite des études de cartographie génétique, démontrant que le syndrome de naevus basocellulaire (BCNS), également connu sous le nom de syndrome de Gorlin, est une conséquence de mutations dans Patched-1 (PTCH1) , le récepteur des ligands HH [2,3]. En plus des défauts de développement, le BCNS est associé à une fréquence élevée de carcinome basocellulaire (BCC) et à une incidence élevée de médulloblastome (MB) de tumeur cérébrale pédiatrique [4]. Perte germinale d'un exemplaire de PTCH1 est complétée par une mutation somatique, ou un silençage, de l'allèle restant dans les cellules tumorales, révélant que PTCH1 agit comme un gène suppresseur de tumeur classique dans le BCC et le MB. Ces premiers rapports ont été rapidement suivis d'études identifiant PTCH1 mutations dans le BCC et le MB sporadiques [5]. Il est maintenant clair que d'autres mutations dans la voie, y compris des mutations de gain de fonction dans Smoothened (SMO) et la perte de Suppresseur-de-Fusible (SUFU), résultent également en BCC et MB [6]. Dans tous les cas, ces mutations entraînent des niveaux élevés d'activité de la voie HH, indépendamment des ligands, conduisant à une expression élevée des gènes cibles transcriptionnels en aval, y compris GLI1 et GLI2.

Les travaux ont progressé rapidement, en grande partie grâce aux décennies précédentes de recherche fondamentale exceptionnelle, initiée par des travaux pionniers en Drosophile génétique [7] qui a été récompensée par l'attribution d'un prix Nobel à Christiane Nusslein-Voldhard, Eric Wieschaus et Edward Lewis. Ce travail a été prolongé par des études de biologie du développement de haute qualité qui ont élucidé le rôle critique de la voie HH dans un large éventail de tissus en développement [8]. Il est important de souligner que la recherche translationnelle de qualité repose sur une recherche fondamentale de qualité, et nous devons continuer à interpréter les résultats de la recherche translationnelle dans le contexte d'une connaissance détaillée de la biologie de la cible. Ceci était particulièrement important dans le développement des inhibiteurs de SMO, car les craintes de toxicités osseuses développementales, en raison du rôle bien connu de la voie HH dans la plaque de croissance osseuse [9], ont été confirmées en clinique [10,11]. Cela a entraîné une restriction de la Federal Drug Administration sur l'utilisation d'inhibiteurs de SMO chez les jeunes enfants avant la fin de la croissance osseuse qui, malheureusement, n'a été mise en place qu'après que les malformations osseuses, décrites pour la première fois chez les jeunes souris [12,13], aient été récapitulées dans enfants.

L'identification de PTCH1 la perte en tant que cible thérapeutique présentait une énigme : parce qu'elle est supprimée des cellules tumorales, comment cibler une absence ? La solution a été révélée par une remarquable série d'observations qui, reliées entre elles, se lisent comme les indices d'un roman policier (figure 1). Le premier indice était l'observation d'une holoprosencéphalie chez les agneaux, causée par l'ingestion de lys de maïs (Veratrum californicum) par des brebis gravides [14]. En fin de compte, les tératogènes ont été identifiés comme des alcaloïdes stéroïdiens végétaux [15] et l'un d'entre eux, appelé cyclopamine en raison de sa capacité à induire une holoprosencéphalie (le phénotype de type cyclope connu depuis l'Antiquité), a également montré qu'il induisait des malformations des membres [16]. Des défauts similaires se produisent à la suite de mutations génétiques dans Hérisson sonique (chut) et d'autres composants de la voie HH dans une gamme d'espèces, y compris les humains [17]. Il a ensuite été démontré que la cyclopamine fonctionnait comme un inhibiteur de la voie HH [18,19]. Ainsi, le tératogène naturel, la cyclopamine, induit une phénocopie de certaines mutations de la voie HH. La principale découverte qui a lié les fils de l'histoire était l'observation du Beachy Laboratory que la cyclopamine fonctionne par liaison directe à SMO pour arrêter l'activité de la voie HH [20].

Figure 1. Les mouches, les moutons, les lys de maïs, les cyclopes et Sonic the Hedgehog ouvrent la voie à de nouvelles thérapies contre le cancer. Les premières études génétiques en Drosophile (une) a décrit le rôle de la voie HH dans le développement et a ensuite été étendu aux mammifères. Des mutations du gène HH provoquent une holoprosencéphalie (phénotype de type cyclope) chez la souris, le mouton (b), humains et bêtes mythiques (c). Le même phénotype apparaît chez les agneaux nés de brebis qui ingèrent la plante de lys de maïs (V. californicum) () au premier trimestre. C'est l'indice qui a finalement conduit à l'identification de petites molécules inhibitrices de la voie HH. La famille des gènes HH des mammifères comprend SHH, un nom inspiré du personnage de jeu vidéo éponyme conçu par Sega Inc. (e). Illustrations de T. Curran.

La complexité de la voie HH continue d'évoluer jusqu'à nos jours. En bref, les ligands HH (Sonic, Indian et Desert) se lient et inhibent PTCH1 (figure 2). PTCH1 est un régulateur négatif de SMO. Ainsi, dans les cellules tumorales dépourvues de PTCH1, la SMO est constitutivement active et l'activité de la voie HH reste élevée. La cyclopamine, et des composés agissant de manière similaire, se lie au SMO et bloque sa fonction, coupant ainsi l'activité de la voie HH. Avec la découverte que la cyclopamine est un inhibiteur de SMO, l'objectif de nombreux chercheurs dans le domaine est passé d'une perspective de recherche fondamentale à la recherche translationnelle préclinique. Ces groupes partageaient l'objectif commun de développer des données de preuve de concept, en utilisant la culture cellulaire et des modèles animaux, pour soutenir l'utilisation d'inhibiteurs de la voie HH comme agents anticancéreux dans les essais cliniques chez l'homme. Cependant, même si cela semblait simple, des défis ont été rencontrés immédiatement, ce qui a conduit à une surinterprétation des résultats et à des attentes irréalistes.

Figure 2. La voie de signalisation HH. Les ligands HH se lient à la protéine associée à la membrane PTCH1 et inhibent sa fonction. PTCH1 inhibe la SMO en l'empêchant de se déplacer vers le cil primaire. SMO inhibe SUFU qui, à son tour, inhibe l'activation et la translocation de GLI1 et GLI2 vers le noyau. SUFU active également GLI3, qui est traité par clivage protéolytique pour devenir un répresseur transcriptionnel. GLI1 et GLI2 activent la transcription de plusieurs gènes cibles, y compris eux-mêmes et PTCH1. La perte de PTCH conduit à une activation constitutive de la voie. Les inhibiteurs de petites molécules se lient et inhibent le SMO.

4. L'utilisation de modèles de cancer

Traditionnellement, la première étape des tests d'agents anticancéreux potentiels consiste à déterminer s'ils peuvent inhiber la croissance des cellules tumorales en culture. Le problème auquel étaient confrontés les chercheurs étudiant les inhibiteurs de SMO était qu'il n'y avait pas de lignées cellulaires tumorales disponibles dans lesquelles des mutations activatrices de la voie HH avaient été documentées et une activité élevée de la voie HH avait été démontrée. Après les premières études en culture cellulaire, la prochaine étape serait normalement de tester les médicaments dans des modèles de xénogreffe de tumeurs humaines, mais il n'y avait aucun modèle dans lequel le statut de la voie HH avait été validé. Une approche alternative a été proposée par le Ptch1 +/- souche de souris générée par le Scott Laboratory [21]. Ces souris développent des tumeurs ressemblant au sous-type desmoplastique du MB humain et elles abritaient une voie HH activée. La faible fréquence et l'apparition sporadique des tumeurs ont été corrigées en croisant les souris dans un p53 −/− fond pour générer une souche, Ptch1 +/- p53 −/− souris, qui présentaient une incidence de 100 % de MB à l'âge de deux semaines [22]. Les souris ont également été utilisées pour générer un modèle de BCC en exposant leur peau à des rayonnements ultraviolets ou ionisants [23].

Le premier rapport publié, étudiant l'efficacité de l'inhibiteur de SMO cyclopamine en tant qu'agent anticancéreux, a utilisé des cellules tumorales cultivées de souris et d'humains ainsi que des tumeurs allogreffes établies à partir de lignées cellulaires tumorales de souris [24]. Cependant, il a été montré par la suite que l'activité de la voie HH est rapidement supprimée lorsque les cellules MB de Ptch1 +/- les souris sont cultivées in vitro [25]. Récemment, cela s'est avéré être une conséquence de la perte d'astrocytes associés aux tumeurs qui maintiennent l'activité de la voie HH dans les cellules tumorales en sécrétant SHH [26]. Les tumeurs allogreffes, dérivées de cellules MB de souris en culture, n'hébergent pas de voie HH active et ne répondent pas aux inhibiteurs de SMO [25]. Alors, comment a-t-il été possible d'obtenir des données d'efficacité favorables pour la cyclopamine si la cible n'était pas active dans les modèles utilisés ?

Le problème bien connu de la cyclopamine est que la concentration de médicament nécessaire pour bloquer la voie HH est proche de la concentration qui induit la mort cellulaire indépendamment de la voie HH [27]. La culture de cellules MB de souris et humaines en présence de 3 à 5 µM de cyclopamine (ou dans le cas de la variante plus puissante KAAD-cyclopamine, 1 µM) pendant 48 à 72 h a réduit la croissance des cellules tumorales [24]. Cependant, cette concentration de cyclopamine est toxique pour de nombreux types cellulaires. En effet, il a maintenant été démontré que la cyclopamine favorise l'apoptose dans la lignée cellulaire MB humaine DAOY en induisant l'expression de la sphingomyéline phosphodiestérase neutre 3, qui augmente la production de céramide et induit la mort cellulaire, indépendamment de la voie HH [28]. Ainsi, les études utilisant des lignées cellulaires tumorales MB de souris cultivées sont entravées par le fait que la cyclopamine a de forts effets toxiques hors cible et que la voie HH n'est plus active dans ces cellules. Les premiers rapports documentant les effets de la cyclopamine sur le développement embryonnaire et l'inhibition de la voie HH utilisaient des concentrations de médicament aussi faibles que 120-130 nM pour obtenir des effets biologiques spécifiques [18,19]. En revanche, la majorité des études sur les lignées cellulaires tumorales ont utilisé 5 à 10 µM, et parfois jusqu'à 20 à 30 µM de cyclopamine, pour inhiber la croissance [29]. Cela signifie que la plupart des études ont été menées dans des conditions dans lesquelles la cyclopamine favorise la mort cellulaire induite par les céramides indépendamment de la SMO.

Tentatives initiales pour générer des lignées cellulaires tumorales MB de souris qui conservent l'activité de la voie HH in vitro a échoué [25]. Bien que les cellules tumorales se soient développées facilement in vitro, ils ne présentaient plus la signature d'expression du gène de la voie HH. Certaines lignées cellulaires ont exprimé GLI1, qui a augmenté lorsqu'elles ont été propagées sous forme d'allogreffes, cependant, cela s'est avéré être une conséquence de Gli1 amplification génique mais pas signalisation SMO [25]. Les efforts ultérieurs ont revendiqué un plus grand succès, mais les lignées ont été établies à une faible fréquence (20 %) et elles n'ont présenté qu'une sensibilité partielle à des doses élevées de l'inhibiteur de SMO, LDE225 [30]. Des études récentes ont révélé que les cellules tumorales MB de souris nécessitent la présence d'astrocytes associés à la tumeur pour maintenir une voie HH active en culture [26]. Ces cellules sont perdues lorsque le tissu tumoral est placé en culture cellulaire et c'est pourquoi la voie HH est supprimée in vitro.

L'autre expérience critique dans le rapport initial sur l'utilisation de la cyclopamine comme agent anticancéreux était le traitement de souris porteuses de tumeurs allogreffes dérivées de cellules MB de souris [24]. La cyclopamine s'est avérée provoquer une régression tumorale dans ce modèle. Cependant, ces allogreffes étant dérivées de cellules MB de souris propagées en culture, elles n'auraient pas dû héberger de voie HH active [25]. La méthode choisie pour l'administration du médicament dans cette étude était l'inoculation sous-cutanée de 0,1 ml de cyclopamine en suspension dans un mélange 4 : 1 de trioléine/éthanol [24]. D'autres ont rapporté que cette approche provoquait des lésions au site d'injection, forçant l'arrêt prématuré des expériences [31,32]. L'une des préoccupations est que, à mesure que les lésions se propagent en raison du traitement quotidien, cela peut finalement avoir conduit à l'inoculation du médicament à proximité ou même directement dans la masse tumorale, inhibant potentiellement la croissance des cellules tumorales, non pas à cause de la suppression de la voie HH, mais comme en raison des effets toxiques non ciblés des concentrations élevées de médicament. Dans un certain nombre de cas, l'alcool était présent dans le porteur à hauteur de 20 %, ce qui provoque une nécrose au site d'inoculation dans les tumeurs [33]. Reconnaissant ce problème, des supports alternatifs dépourvus d'éthanol ont été développés pour la cyclopamine. Cependant, la pratique consistant à injecter le médicament par voie sous-cutanée à proximité ou directement dans la tumeur a été largement adoptée [34-36]. Une stratégie courante de traitement par xénogreffe a été décrite de la manière suivante : « dès que la tumeur était palpable, de la cyclodextrine conjuguée à la cyclopamine ou au support de cyclodextrine seule (Sigma) à 10 mg kg -1 était injectée à proximité immédiate, ou par voie intratumorale lorsque cela était possible, deux fois par jour » ([36], données supplémentaires p. S6). Ce procédé continue d'être utilisé aujourd'hui, même si des inquiétudes concernant la procédure ont été signalées, notamment le fait que la concentration de médicament au site d'injection est extrêmement élevée et supérieure au niveau qui induit une toxicité hors cible [37]. De plus, étant donné que la tumeur est traitée avant qu'elle ne s'établisse, le test mesure réellement l'inhibition de l'établissement de la tumeur plutôt que l'inhibition de la croissance tumorale. Enfin, les dommages physiques et de pression hydrostatique résultant d'inoculations deux fois par jour dans de petits volumes tumoraux peuvent à eux seuls suffire à empêcher la croissance. Cette approche a conduit à une surestimation de la gamme de types de tumeurs qui semblent répondre aux inhibiteurs de SMO. Les facteurs discutés ci-dessus, y compris la toxicité hors cible de la cyclopamine, l'utilisation de concentrations excessivement élevées de médicaments, le manque de marqueurs d'expression génique communs pour définir l'activation de la voie HH et l'injection directe de cyclopamine dans les tumeurs, continuent d'affecter le domaine aujourd'hui. [38].

En général, l'utilisation d'une voie d'administration systémique est recommandée lors de l'essai d'agents anticancéreux dans des modèles animaux, par exemple, par gavage oral ou inoculation intrapéritonéale. Lorsque la voie orale par gavage a été testée pour la cyclopamine, il n'a pas été possible d'atteindre une dose supprimant complètement l'activité de la voie HH, chez des souris porteuses d'un Gli-transgène rapporteur de la luciférase, en raison de sa toxicité [13]. Il est également important de traiter les tumeurs établies, généralement supérieures à 150 mm 3 , pour obtenir une mesure fiable de la régression tumorale. Le traitement des cellules tumorales transplantées avant que la tumeur ne soit établie ne fournit pas de données fiables sur la croissance tumorale. Au contraire, il fournit des informations sur le fait que le traitement peut empêcher la greffe chez l'hôte. Bien que nous sachions maintenant que les inhibiteurs de SMO sont efficaces dans le traitement d'un sous-ensemble de BCC et MB humains, il est important de réexaminer attentivement les rapports initiaux, car ces études ont établi des pratiques méthodologiques qui ont été adoptées par le domaine et sont actuellement utilisées aujourd'hui.

5. Transition de la recherche préclinique vers les essais cliniques

Plusieurs composés d'une gamme de classes structurelles, avec un indice thérapeutique bien meilleur que la cyclopamine, ont été générés dans un criblage de petites molécules à haut débit mené par Curis Inc. [39]. Ces composés ont inhibé l'activité de la voie HH à des niveaux nanomolaires et ont démontré leur efficacité dans le ex vivo modèle BCC de souris skin punch de Ptch1 +/- souris décrites ci-dessus [40]. Cependant, c'était leur capacité à éliminer même les grandes MB de souris spontanées dans Ptch1 +/- p53 −/− qui ont suscité un grand intérêt pour leurs agents anticancéreux potentiels [41]. Dans ce cas, les composés testés ont été administrés par gavage oral et ont montré qu'ils traversaient la barrière hémato-encéphalique pour bloquer l'activité de la voie HH dans les tissus tumoraux du cerveau. Deux semaines de traitement, deux fois par jour, avec 100 mg kg -1 d'un des composés, appelé HhAntag, ont complètement éliminé les grosses tumeurs MB [41]. Par la suite, il a été constaté que MB, à partir de Ptch1 +/- et Ptch1 +/- p53 −/− les souris, greffées sur le flanc de souris immunodéprimées, ont conservé ce niveau élevé de sensibilité aux inhibiteurs de SMO, de sorte que même les masses tumorales importantes ont pu être éradiquées en moins de 5 jours de traitement [25]. En raison de sa facilité d'utilisation, ce système d'allogreffe directe est devenu le modèle de choix pour de nombreuses études précliniques, y compris celles utilisées pour soutenir le lancement d'essais cliniques réussis et les approbations ultérieures du vismodegib (Genentech Inc.) et du sonedigib (Novartis Inc.) par le Administration fédérale des médicaments. Il est important de noter qu'aucune étude de xénogreffe humaine n'a présenté ce niveau de réponse et qu'il ne reste aucun modèle de xénogreffe humaine validé pour les tumeurs de la voie HH, même à l'heure actuelle. Un grand nombre d'entreprises ont mené avec succès leurs propres criblages de petites molécules, car la SMO s'est avérée être une cible hautement médicamenteuse, ce qui a conduit à tester 10 inhibiteurs de SMO différents dans 86 essais cliniques répertoriés sur essaiscliniques.gov.

Contrairement à l'utilisation de modèles de souris génétiquement modifiés (GEM) pour développer des inhibiteurs de SMO pour le traitement du BCC et du MB, de nombreux groupes ont utilisé des lignées cellulaires tumorales humaines et des modèles de xénogreffe dans des études précliniques pour étendre l'application potentielle des inhibiteurs de SMO à un large éventail des cancers humains. La plupart des études initiales utilisaient la cyclopamine comme inhibiteur de SMO, mais, plus récemment, une gamme plus large d'inhibiteurs de SMO a également été utilisée. Ces études ont suivi un chemin familier, commençant généralement par tester les inhibiteurs sur une collection de lignées cellulaires tumorales pour inhiber la prolifération cellulaire et induire l'apoptose avant de passer aux modèles de xénogreffe. Bien qu'aucune de ces autres tumeurs ne présentait de mutations dans la voie HH, la preuve de l'expression des gènes de la voie HH a été interprétée comme une indication que la voie était activée. Invariablement, ces études ont rapporté des preuves d'efficacité préclinique, ouvrant ainsi la voie aux 86 essais cliniques mentionnés ci-dessus. Plusieurs centaines de ces études ont été publiées et les suivantes sont des exemples représentatifs d'analyses spécifiques à la tumeur : cancer du poumon à petites cellules [42], cancer du pancréas [43], cancer colorectal [29], cancer de la prostate [44], cancer du sein [45] , carcinome hépatocellulaire [46], carcinome ovarien [47] et gliome [36]. Chacune de ces études a utilisé de la cyclopamine, à diverses concentrations jusqu'à 20 µM, pour induire la mort cellulaire dans des cultures de cellules tumorales. Sur la base de ces résultats et d'autres, il a été affirmé que la voie HH contribue à environ 25 % des décès par cancer chez l'homme [48]. Par conséquent, ce fut une grande déception d'apprendre que, malgré ces études précliniques positives, des réponses cliniques n'ont été rapportées que dans le BCC et le MB [11,49-53]. Plusieurs études ont documenté le manque d'efficacité des inhibiteurs de SMO, seuls ou en association avec une chimiothérapie, dans une gamme de tumeurs [54-58], même si dans certains cas, une réduction des niveaux d'expression de GLI1 a été observée dans les tissus tumoraux. De nombreux autres résultats négatifs n'ont pas encore été signalés. L'explication simple de l'échec généralisé des inhibiteurs de SMO dans les essais cliniques est que les données précliniques utilisées pour soutenir la transition vers la clinique représentaient des résultats faussement positifs.

6. Pourquoi les études précliniques des inhibiteurs de SMO n'ont pas réussi à prédire les réponses en clinique

Contrairement à BCC et MB, aucune mutation activatrice dans les gènes de la voie HH n'a été rapportée dans les autres tumeurs proposées pour être traitées avec des inhibiteurs de SMO [31-38]. La preuve d'une signature d'expression génique de la voie HH a été utilisée pour déterminer que la voie était active dans ces tumeurs. Cependant, il n'y avait aucune norme établie pour le niveau d'expression génique requis, aucune définition des gènes devant être utilisés pour représenter la signature authentique de la voie HH, et aucune méthodologie convenue pour documenter l'expression génique de la voie HH. Cela a conduit chaque chercheur à définir ses propres normes, ce qui a finalement conduit à une confusion sur la définition de la «voie HH activée» et sur la façon dont cela devrait être mesuré. Au MB, les sous-ensembles tumoraux ont été identifiés initialement par analyse de clustering hiérarchique supervisée à l'aide de sondes spécifiques de gènes dont l'expression augmentait en présence de ligands HH [59]. Cette approche a facilement identifié le sous-type HH-MB et une stratégie similaire appliquée à la voie WNT distinguait les tumeurs avec des mutations de la -caténine [59]. Par la suite, ces groupes ont été affinés à l'aide d'approches de clustering non supervisées et les gènes de la signature n'étaient pas nécessairement des cibles transcriptionnelles de la signalisation de la voie HH [60,61]. Cependant, pour les études précliniques des inhibiteurs de SMO, les chercheurs se sont généralement appuyés sur un certain nombre de gènes cibles de la voie HH. Dans de nombreux cas, le niveau de GLI1 expression a été utilisée comme mesure quantitative de l'activité de la voie HH. Cependant, cela peut être trompeur car GLI1 peut être régulé indépendamment de la voie HH [62], et il peut présenter un nombre accru de copies dans l'ADN tumoral qui influence son niveau d'expression indépendamment de la voie HH. En fait, le nom GLI a été inventé sur la base de sa découverte en tant que gène amplifié dans le gliome [63].

Même si GLI1 est un gène cible de la transcription dans la voie HH, ce n'est pas un gène essentiel pour le développement [64] et MB peut survenir en l'absence de Gli1 dans Ptch1 +/- souris, mais à un niveau réduit [65]. Ces tumeurs expriment des niveaux élevés de Gli2 qui a des fonctions qui se chevauchent avec Gli1. Ainsi, la présence et le niveau de GLI1 l'expression peut ne pas refléter le niveau d'activité de la voie HH dans les tumeurs. Dans les cellules C3H10T1/2, GLI1 et GLI1 les constructions rapporteurs sont des indicateurs très sensibles de l'activité de la voie HH sur une large plage dynamique [39]. Les inhibiteurs de SMO sont capables d'éliminer essentiellement GLI1 l'expression et le blocage de l'activité de la luciférase entraînés par GLI1-sites de liaison sur plusieurs ordres de grandeur [39]. Par conséquent, les observations d'une baisse modeste de 50 % seulement du niveau de GLI1 L'ARN dans les cellules tumorales traitées avec de fortes doses de cyclopamine ne supporte pas l'argument selon lequel la voie HH conduit à la fois GLI1 l'expression et la croissance de telles cellules [66,67]. Au lieu de cela, ces résultats indiquent que la cyclopamine peut inhiber la croissance cellulaire indépendamment de son effet sur l'activité des voies SMO et HH. Néanmoins, il est important de souligner que GLI1 est une cible de bonne foi dans certaines tumeurs quel que soit son rôle dans la voie HH.Toftgard et ses collaborateurs [68] ont développé un inhibiteur de GLI1, GANT61, qui est efficace pour inhiber la croissance des cellules tumorales in vitro et in vivo. De plus, il a été démontré que le trioxyde d'arsenic (ATO), un médicament approuvé par la FDA, se lie et inhibe le GLI1, entraînant une réduction de la croissance des cellules tumorales in vitro et in vivo [69,70]. Les inhibiteurs de GLI1, comme GANT61, peuvent avoir une indication beaucoup plus large que les inhibiteurs de SMO car GLI1 est exprimé dans de nombreuses cellules tumorales qui n'ont pas de voie HH active. Dans ce dernier cas, on ne s'attendrait pas à ce que ces tumeurs répondent aux inhibiteurs de SMO. De même, les tumeurs avec une mutation activatrice dans la voie HH en aval de SMO, telles que SUFU ou des tumeurs qui développent une résistance aux inhibiteurs de SMO, peuvent être sensibles à GANT61 ou à des inhibiteurs similaires qui ciblent GLI1 [71-74]. Comme GLI1 n'est ni nécessaire ni suffisant pour l'activité de la voie HH, on ne peut pas s'y fier, à lui seul, pour fournir un biomarqueur pour la voie. L'absence d'un biomarqueur standard quantitatif défini de la voie HH activée, associée au rôle plus large de GLI1 dans les tumeurs, signifie que le nombre et la diversité des tumeurs de la voie HH ont été largement surestimés.

7. Activité des voies paracrines et autocrines du Hérisson

L'absence de mutations de la voie HH dans les tumeurs proposées pour avoir une voie HH activée a conduit à suggérer que la signalisation autocrine par les ligands HH était responsable de l'activité de la voie HH et de la croissance tumorale [43,44,75]. Les preuves soutenant l'expression chevauchante des gènes de la voie HH, y compris les ligands, dans les cellules tumorales reposaient sur l'immunohistochimie réalisée à l'aide d'anticorps disponibles dans le commerce sur lesquels il est notoirement difficile de s'appuyer en raison du manque de spécificité. L'analyse de l'ARN des tumeurs de la prostate a révélé l'expression des gènes de la voie HH chut, PTCH1 et GLI1 à des niveaux élevés par rapport aux tissus normaux environnants dans une large gamme de 1,5 à 300 fois [44]. Cependant, il n'y avait pas de corrélation entre les niveaux d'expression de chacun de ces gènes, ce qui implique qu'il n'y avait pas de coordination entre le niveau de ligand et celui de deux gènes cibles transcriptionnels différents de la voie HH. Il y avait également une variation significative parmi les réponses des lignées cellulaires à une concentration élevée, 10 µM, de cyclopamine [43,44]. D'autres groupes qui ont étudié des lignées cellulaires de cancer de la prostate identiques ou similaires n'ont pas pu confirmer ces résultats, ce qui les a amenés à conclure qu'il n'y avait aucune preuve de signalisation autocrine, bien qu'il y ait eu des preuves que les ligands HH sécrétés par les cellules tumorales agissaient sur le stroma tumoral. 76,77].

La controverse a été abordée dans une analyse exhaustive réalisée par de Sauvage et ses collègues [78] chez Genentech Inc., en utilisant un inhibiteur de SMO plus puissant et moins toxique appelé HhAntag, en plus de la cyclopamine, pour étudier l'HH paracrine et autocrine. voie de signalisation dans les cellules tumorales. Il s'agissait d'une étude remarquable pour un certain nombre de raisons. Pour planter le décor, à ce moment-là, le rôle de la voie HH dans le cancer a fait l'objet de discussions animées lors de nombreuses réunions scientifiques. En fait, cet auteur a participé à un débat organisé, avec l'un des partisans du modèle de signalisation paracrine, lors de la réunion annuelle de l'American Association for Cancer Research en 2007. Les enjeux étaient relativement importants car plusieurs grandes sociétés pharmaceutiques et de nombreuses sociétés de biotechnologie avaient activement programmes conçus pour développer de petites molécules inhibitrices de SMO. Les enquêteurs de Genentech se trouvaient dans une position inhabituelle. En tant que première grande entreprise à développer un programme de voie HH, en collaboration avec Curis Inc., il aurait été dans leur intérêt de trouver des preuves étayant l'opinion optimiste selon laquelle les inhibiteurs de SMO seraient efficaces dans 25 % des cancers humains. Cependant, ils n'ont trouvé aucune preuve de signalisation autocrine dans aucune lignée cellulaire tumorale étudiée [78]. Ils ont confirmé que des concentrations élevées de cyclopamine ou de HhAntag pouvaient inhiber la croissance cellulaire, mais cela n'était pas corrélé avec l'activité de la voie HH et, dans le cas de HhAntag, ils devaient utiliser des concentrations environ 400 fois plus élevées que celles requises pour bloquer l'activité de la voie HH. Cette analyse a utilisé 122 lignées cellulaires tumorales, dont beaucoup étaient les mêmes lignées utilisées par d'autres chercheurs pour parvenir à la conclusion opposée. Les auteurs ont conclu que les effets précédemment rapportés des inhibiteurs de SMO sur la croissance et l'activité de la voie HH dans les cellules tumorales étaient une conséquence d'effets hors cible résultant de l'utilisation des inhibiteurs à des concentrations élevées et non physiologiques.

On ne peut s'empêcher de se demander si cet échec retentissant à reproduire les études translationnelles précliniques académiques, et le fait que 0/122 lignées cellulaires cancéreuses humaines ont soutenu un rôle pour la voie HH dans la croissance des cellules tumorales peuvent avoir causé une certaine pause au leadership d'entreprise avant de continuer sur la voie de développement clinique.

En plus d'étudier les lignées cellulaires tumorales, de Sauvage et ses collaborateurs [78] ont également étudié une large collection de modèles de xénogreffes. Ils ont noté que certaines lignées cellulaires et certaines xénogreffes humaines exprimaient des ligands HH et ils ont démontré que les ligands sécrétés par les cellules tumorales étaient capables de stimuler l'activité de la voie HH dans les cellules stromales. Ils ont ensuite montré que les inhibiteurs de SMO étaient capables de retarder la croissance de certains modèles de xénogreffes en inhibant l'activité de la voie HH dans l'environnement stromal. Cependant, bien que cet effet soit statistiquement significatif, il était relativement modeste et aucune régression tumorale n'a été observée. Ce faible niveau de retard de croissance dans les modèles de xénogreffe prédit rarement, voire jamais, les réponses en clinique. Les auteurs sont restés prudents dans leur interprétation tout en reconnaissant que le mécanisme exact par lequel l'augmentation de l'activité de la voie HH dans les cellules stromales soutient la croissance tumorale restait à déterminer, l'observation a soulevé le potentiel d'utilisation d'inhibiteurs de SMO pour cibler le microenvironnement tumoral.

L'effet proposé de la signalisation paracrine HH sur le stroma tumoral a également été étudié dans un modèle GEM d'adénocarcinome canalaire pancréatique [79]. Ce modèle a été généré par l'expression conditionnelle de mutants K-ras et p53 gènes dans les cellules progénitrices pancréatiques [80]. Les auteurs ont émis l'hypothèse que la signalisation HH des cellules tumorales peut soutenir le maintien du compartiment stromal et que la perturbation de la signalisation HH pourrait faciliter l'administration d'agents chimiothérapeutiques. Ils ont rapporté que le traitement combiné des souris avec la gemcitabine et l'inhibiteur de SMO IPI-926 [81] a entraîné une augmentation de la survie de 11 à 25 jours [79]. Bien que ce résultat soit statistiquement significatif, il représente un effet relativement modeste, car toutes les souris traitées sont mortes en quelques jours. En outre, l'effet était encore moins convaincant lorsque l'on comparait la survie des souris traitées avec la gemcitabine seule à celles traitées avec l'association médicamenteuse. De plus, toutes les tumeurs n'ont pas présenté de diminution transitoire de taille au cours du traitement. Il s'agit peut-être d'un vœu pieux — qu'un retard aussi modeste de la croissance tumorale se traduirait par une réponse clinique chez les patients. Un essai clinique de phase II sponsorisé par Infinity Pharmaceuticals (IPI-926-03), dans lequel les patients ont reçu soit la combinaison de gemcitabine plus IPI-926, soit un placebo, a été interrompu prématurément en raison de mauvais résultats. Un essai similaire, utilisant la combinaison de gemcitabine et de l'inhibiteur de SMO vismodegib, n'a pas non plus montré d'amélioration de la survie [82]. Dans une étude de suivi du modèle murin, la suppression de Chut des cellules épithéliales pancréatiques a entraîné une croissance tumorale plus précoce et une diminution de la survie des souris [83]. Cette étude n'a pas non plus réussi à reproduire les résultats antérieurs obtenus en traitant des tumeurs avec l'IPI-926 plus la gemcitabine. En fait, les chercheurs ont découvert que le traitement par IPI-926 provoquait une croissance tumorale plus agressive [83]. Ces résultats indiquent que, dans ce modèle tumoral, SHH n'est pas seulement indispensable pour la tumorigenèse, mais qu'il limite en fait la progression tumorale.

8. La voie Hedgehog non canonique

Canon, qui signifie règle ou principe accepté, est dérivé du grec ancien kanon—une tige de mesure ou un étalon. La voie HH standard, ou canonique, dans les cellules de mammifères fait référence au processus de signalisation défini génétiquement et biochimiquement impliquant les ligands HH, les protéines PTCH1, SMO, SUFU et GLI. Il existe, bien sûr, de nombreuses autres protéines impliquées dans la signalisation HH, mais on pense principalement qu'elles modulent les composants centraux énumérés ci-dessus. L'absence de corrélation entre les effets des inhibiteurs de SMO sur la croissance des cellules tumorales et les niveaux de gènes cibles de la voie HH a conduit certains chercheurs à proposer que la signalisation de la voie HH « non canonique », impliquant potentiellement une interaction avec les voies RAS et TGFβ [84 ], la signalisation des récepteurs aux androgènes [85], la voie mTOR [86] et la voie WNT [87] entre autres, ont contribué à la progression tumorale. Compte tenu de l'éventail des facteurs contributifs impliqués, il est devenu difficile de faire la distinction entre plusieurs voies HH non canoniques possibles. S'il est clair que la signalisation HH influence et est influencée par de nombreuses autres voies de signalisation, il n'est pas facile de déterminer si celles-ci constituent vraiment des voies non canoniques. Les études référencées ci-dessus souffrent de certaines des lacunes déjà discutées, notamment le fait que la présence de GLI1 en soi n'implique pas une voie HH activée. Par conséquent, le fait que les inhibiteurs de GLI1 comme GANT61 puissent inhiber la croissance des cellules tumorales, alors que les inhibiteurs de SMO n'ont aucun effet, ne peut pas être utilisé comme preuve d'une voie HH non canonique [68,84]. Au lieu de cela, ces études indiquent que l'expression de GLI1 ne nécessite pas toujours SMO et que GLI1 a une croissance intrinsèque et des propriétés oncogènes, indépendamment de la voie canonique HH. L'autre caractéristique commune parmi les études de voie HH non canoniques est l'utilisation d'inhibiteurs de SMO à des concentrations élevées où ils inhibent la croissance cellulaire par des effets hors cible.

Récemment, la signalisation par le ligand SHH exogène s'est produite dans les cellules MB dépourvues de PTCH1 [26]. Cet effet nécessitait encore la SMO et il était bloqué par les inhibiteurs de la SMO [26]. La source de SHH in vivo s'est avéré être des astrocytes associés aux tumeurs. Contrairement à la voie HH régulière, dans ce cas, SHH induit l'expression de nestin dans les cellules MB de souris (figure 4). Cet effet, qui pourrait être bloqué par les inhibiteurs de SMO, a entraîné la séquestration et l'inhibition de GLI3, abrogeant ainsi son effet inhibiteur sur la voie HH. Alors que le récepteur SHH dans les cellules dépourvues de PTCH1 n'a pas encore été identifié, il a été démontré que PTCH2 module la tumorigenèse dans Ptch1 +/- souris [88]. Dans d'autres cellules, en l'absence de PTCH1, PTCH2 médie la réponse à SHH [89]. L'induction de nestin expression par SHH dans Ptch1 Les cellules −/− semblent indépendantes de GLI1 car elles n'étaient pas favorisées par une surexpression exogène de GLI1 [26]. L'induction de nestin dans les cellules MB par la SHH sécrétée par les astrocytes implique clairement un mécanisme paracrine. Ainsi, dans le cas du MB de souris, la progression tumorale est associée à une acquisition progressive de nestin expression qui abroge une contrainte négative sur l'activité de la voie HH. Il semble que les inhibiteurs de SMO puissent être particulièrement efficaces dans ce modèle murin MB car ils bloquent simultanément l'activité intrinsèque de la voie HH résultant de Ptch1 ainsi que l'effet extrinsèque de la SHH sécrétée par les astrocytes. Comme l'induction de nestin par les signaux SHH via SMO, il n'est peut-être pas exact de qualifier ce processus de voie non canonique. Cependant, son absence de dépendance vis-à-vis de PTCH1 et GLI1 la rend différente de la voie canonique, elle a donc été qualifiée de voie HH paradoxale [26]. Quel que soit son nom, il semble jouer un rôle important dans la croissance du MB de la souris et, potentiellement, du MB humain.

9. Le cas curieux du rhabdomyosarcome

Le rhabdomyosacrome (RMS) est un ensemble de sarcomes des tissus mous, dérivés du muscle squelettique, qui surviennent principalement chez les enfants. Ils peuvent être très difficiles à traiter, selon le sous-type [90]. La perte de PTCH1 dans le syndrome de Gorlin est associée à une gamme de tumeurs rares en plus du BCC et du MB, y compris le rhabdomyome fœtal [91]. Chez la souris, la perte hétérozygote de Ptch1 chez les souris CD1 est associée à une incidence de 9 % de tumeurs ressemblant au sous-type embryonnaire de RMS (ERMS) [92]. L'incidence de ces tumeurs est influencée par des modificateurs génétiques, car elles ne sont que rarement rencontrées sur un fond C57Bl/6. Entre parenthèses, Balmain et ses collaborateurs [93] ont démontré qu'un variant polymorphe dans Ptch1, présent chez les souris FVB/N mais absent chez les souris C57BL/6, fonctionne comme un modificateur génétique pour promouvoir le carcinome épidermoïde induit par RAS. Tumeurs ERMS de Ptch1 +/- les souris présentent des niveaux élevés de certains gènes cibles de la voie HH, y compris Gli1, Ptch1 et Igf2 [94]. Plusieurs groupes ont réalisé des études précliniques détaillées sur le RMS dans le but de déterminer s'ils sont de bons candidats pour un traitement avec des inhibiteurs de la voie HH. Cependant, ce travail s'est avéré difficile et plusieurs questions subsistent [31,92,95-98]. Le consensus émergeant semble être que, bien que de telles tumeurs puissent être ciblées par des agents qui inhibent GLI1, tels que GANT61, elles ne sont pas sensibles au traitement avec des niveaux physiologiques d'inhibiteurs de SMO [97].

L'ERMS chez l'homme n'a pas été lié à des mutations dans la voie HH et bien qu'il y ait une perte fréquente d'hétérozygotie du chromosome 11p15, les translocations chromosomiques indicatives d'un RMS alvéolaire ne sont pas présentes [99]. Souvent, l'activité de la voie HH est signalée comme étant élevée dans l'ERMS sur la base principalement de la détection de niveaux élevés de GLI1 et PTCH1 Expression de l'ARN [99,100]. Cependant, ce n'est pas le profil d'expression génique standard qui définit une voie HH activée. La complication est que PTCH1 est un régulateur négatif de la voie HH et, en tant que cible transcriptionnelle de la voie, il participe à une boucle de rétroaction négative [101]. Cela conduit à des observations contradictoires selon lesquelles des niveaux élevés de PTCH1 L'ARN indique une voie HH activée mais, à l'inverse, la présence de niveaux élevés de protéine PTCH1 implique que la voie est inhibée. Dans le BCC, une forte expression fortuite de PTCH1 et GLI1 n'est observé que dans les tumeurs exprimant une mutation PTCH1 allèle qui est inefficace pour supprimer la voie HH [102]. Ce n'est pas le cas dans RMS car PTCH1 les mutations ne sont pas présentes dans ces tumeurs [103]. En MB avec une voie HH activée, haute GLI1 l'expression est associée à de faibles niveaux d'expression de la normale PTCH1 allèle [104]. Ainsi, la présence de niveaux élevés des deux PTCH1 et GLI1 peut ne pas impliquer que la voie HH est active dans l'ERMS. Hahn et ses collaborateurs [97] ont rapporté qu'une série de quatre inhibiteurs de SMO étaient inefficaces pour inhiber GLI1 l'expression dans les cellules RMS et, dans certains cas, le traitement a même entraîné des niveaux d'expression élevés. Le changement des niveaux d'expression détectés était relativement modeste, principalement de l'ordre de 0,5 à 1,5 fois. Cela contraste avec l'inhibition d'environ 50 fois de GLI1 et d'autres gènes cibles de la voie HH observés dans le MB traité avec des inhibiteurs de SMO [41]. Les concentrations d'inhibiteur de SMO utilisées par Hahn et ses collègues (jusqu'à 30 µM) dépassaient largement les niveaux requis pour bloquer complètement l'activité de SMO (0,1 µM) [41,97]. Ces résultats indiquent que l'activité de la voie HH dépendante de SMO est absente des lignées cellulaires tumorales RMS. Bien que les fortes concentrations d'inhibiteurs de SMO utilisées aient affecté la croissance cellulaire, les effets observés étaient variables d'une lignée cellulaire à l'autre, ils pouvaient être positifs ou négatifs, et ils n'étaient pas corrélés avec l'effet sur GLI1 expression. Comme l'ont conclu Hahn et ses collaborateurs [97], les effets observés peuvent représenter des effets hors cible des composés. C'est l'explication la plus probable des observations de réponses différentes parmi une classe d'inhibiteurs qui partagent le même mécanisme d'action : l'inhibition de la SMO. Comme indiqué précédemment, la cyclopamine a un index thérapeutique étroit, il peut donc être difficile de distinguer les effets sur cible des effets hors cible. En revanche, les autres inhibiteurs de SMO n'ont présenté d'effets inhibiteurs sur la croissance des cellules tumorales que lorsqu'ils sont utilisés à des concentrations plusieurs centaines de fois supérieures à celles requises pour atteindre l'inhibition de la cible. Ces doses très élevées sont peu susceptibles d'être atteintes chez les patients et, si elles pouvaient l'être, elles pourraient bien s'accompagner de toxicités hors cible. Ainsi, ces études ne soutiennent pas l'utilisation d'inhibiteurs de SMO pour le traitement du RMS.

Le fait que la perte hétérozygote de Ptch1 chez la souris est associée à l'ERMS, en fonction du bagage génétique, démontre que l'activation de la voie HH est capable de conduire l'initiation du RMS, même si elle n'est pas répandue dans le cancer humain [92]. L'insensibilité de ces tumeurs au traitement par la cyclopamine a conduit à la proposition que, bien que l'initiation de l'ERMS puisse être dépendante de la voie HH, au cours de la progression tumorale, la dépendance à la signalisation de la voie HH est perdue [31]. Fait intéressant, tandis que l'expression d'un activé Smo gène a été montré pour conduire la formation de BCC et MB dans les lignées cellulaires qui sont à la fois HH-exprimant et HH-sensible, ERMS provient de lignées cellulaires dans lesquelles la voie HH n'est pas active [105]. Pris ensemble, les résultats indiquent que l'ERMS est dans une catégorie distincte de BCC et MB, qui abritent clairement une voie HH activée. Néanmoins, la présence de niveaux élevés de GLI1 dans l'ERMS peut être une opportunité pour des agents tels que GANT61, même si les inhibiteurs de SMO ne sont pas recommandés [95]. Une situation similaire peut exister dans les tumeurs rhabdoïdes qui expriment GLI1 mais ne contiennent pas de mutations de la voie HH [62]. Ces tumeurs surviennent à la suite de la perte de SNF5, un composant de remodelage de la chromatine, qui peut se lier directement à GLI1 [62]. Semblable à l'ERMS, la cyclopamine n'a pas été capable d'inhiber la croissance tumorale, alors que l'ATO a montré une certaine activité [106].

10. Mécanismes de résistance

Le talon d'Achille de la thérapeutique de précision est la facilité avec laquelle la résistance aux médicaments peut se développer. Cela était évident dans le premier essai clinique d'inhibiteurs de SMO, dans lequel un patient atteint de MB métastatique avancé a rechuté après une réponse initiale dramatique au traitement [73]. L'analyse moléculaire d'une biopsie tumorale récurrente a révélé la présence d'une mutation ponctuelle dans SMO (D473H) qui a réduit l'affinité pour le vismodegib. Fait intéressant, la même mutation a été observée dans une étude conçue pour modéliser la résistance aux médicaments dans les tumeurs allogreffes de souris [73]. La découverte que la substitution d'acides aminés bloquait efficacement la liaison médicamenteuse a essentiellement prouvé le mécanisme d'action du vismodegib et c'était un signe avant-coureur des choses à venir (figure 3). Dans le BCC, la résistance aux médicaments est principalement due à l'activation de mutations dans SMO [72,107], alors qu'aucun SMO des mutations ont été détectées dans trois cas de HH-MB ayant acquis une résistance au vismodegib [50]. Des mutations dans la voie HH qui se trouvent en aval de SMO, y compris la perte de SUFU et l'amplification de GLI1/2, confèrent également une résistance aux inhibiteurs de SMO [72,107]. Cela a également été prédit à partir d'études de modèle GEM [25,71].Ainsi, la résistance acquise aux inhibiteurs de SMO dans BCC et MB se développe, au moins en partie, par des altérations qui contournent le rôle de SMO dans la conduite de l'activité de la voie HH (figure 3).

Figure 3. La voie HH paradoxale. La SHH, sécrétée par les astrocytes associés aux tumeurs, induit l'expression de la nestine dans les cellules tumorales dépourvues de PTCH1, via un mécanisme de signalisation qui nécessite SMO. La nestine s'accumule dans les cellules tumorales et se lie au GLI3, annulant ainsi une boucle de rétroaction négative, entraînant une augmentation de l'activité de la voie HH. L'induction de l'expression de GLI1 en l'absence de PTCH1 et l'expression de la nestine induite par SHH nécessitent la présence de cholestérol. Les statines et le vismodegib agissent en synergie dans l'inhibition de l'activité de la voie HH.

Une hypothèse supplémentaire, proposée pour la première fois par des chercheurs de Novartis Inc., a suggéré que la régulation à la hausse de la signalisation IGF-1/PI3 K compense la perte d'activité de la voie HH dans les MB qui acquièrent une résistance aux inhibiteurs de SMO [108]. Cependant, les auteurs ont signalé que si les inhibiteurs de PI3 K semblaient empêcher le développement d'une résistance à l'inhibiteur de SMO LDE-225, ils n'étaient pas capables d'inhiber la croissance de tumeurs établies. De plus, alors que la perte de PTEN dans Ptch1 +/- souris entraîne une MB qui répond aux inhibiteurs de SMO en arrêtant la croissance, les tumeurs traitées ne régressent pas [109]. La voie PI3 K a longtemps été proposée pour contribuer à la croissance de MB [110], des mutations de PTEN ont été rapportées dans MB humain [111] et l'ablation hétérozygote de PTEN chez des souris portant un SmoA1 le transgène favorise la formation de MB [112]. Récemment, il a été démontré que l'effet de la perte de PTEN sur la formation de MB se produit dans les cellules de la niche progénitrice périvasculaire postnatale [113]. Pris ensemble, ces résultats soutiennent un rôle pour la voie PI3 K dans MB, mais il reste difficile de savoir si cela représente ou non un mécanisme de résistance aux inhibiteurs de SMO. Néanmoins, les observations soulignent la nécessité de considérer des voies de signalisation supplémentaires comme cibles potentielles pour le co-traitement de la voie HH MB et BCC avec des inhibiteurs SMO. Dans les deux cas, de nombreuses lésions génétiques supplémentaires sont présentes dans les tumeurs et celles-ci peuvent représenter des moteurs potentiels qui pourraient être ciblés à l'aide de thérapies de précision [60,114].

La persistance de la signature d'expression du gène de la voie HH dans les tumeurs résistantes indique que, au moins en partie, le mécanisme de résistance implique l'activation de la voie au niveau ou en aval de la SMO. Récemment, Oro et ses collaborateurs [115] ont étudié le mécanisme par lequel l'activité de transcription de GLI1 est augmentée dans des BCC d'allogreffe de souris sélectionnées pour leur résistance aux inhibiteurs de SMO. Dans les tumeurs résistantes dépourvues de mutations activatrices dans SMO, ils ont découvert que GLI1 participe à un complexe avec SRF et MKL1 qui favorise une transcription améliorée des gènes cibles de la voie HH. Ils montrent également que MKL1 s'accumule dans le noyau suite à l'activation cytosquelettique de RHO. Les résultats suggèrent que les inhibiteurs de MKL1 peuvent être efficaces dans le traitement d'un sous-ensemble de tumeurs de la voie HH résistantes aux inhibiteurs de SMO et ils impliquent que l'utilisation combinée d'inhibiteurs de SMO et d'inhibiteurs de MKL1 doit être envisagée pour le traitement des tumeurs naïves [115]. Ces tumeurs seraient également sensibles aux agents ciblant les protéines GLI similaires à GANT61 [74].

11. Le cholestérol et la voie du hérisson

Le cholestérol joue plusieurs rôles dans la voie HH. C'est une modification nécessaire des ligands HH [116] qui est requise pour la signalisation à longue distance [117]. Initialement, il a été supposé que le métabolisme anormal du cholestérol pourrait affecter la fonction SHH, conduisant ainsi à une holoprosencéphalie [118]. Cependant, l'identification récente du cholestérol comme ligand endogène de la SMO [119,120] fournit un mécanisme alternatif convaincant. Le premier indice concernant un effet direct des stérols sur le SMO était l'observation que certains dérivés du cholestérol, les oxystérols, pouvaient stimuler l'activité de la voie HH [121]. Cependant, il n'était pas clair que l'abondance et l'affinité de ces composés étaient suffisantes pour permettre la liaison in vivo. Des études structurales ont confirmé l'interaction du cholestérol lui-même avec le domaine extracellulaire de la SMO [122]. Ces résultats ont immédiatement soulevé la question de savoir si les inhibiteurs cliniquement approuvés du métabolisme du cholestérol, les statines, seraient efficaces dans le traitement des tumeurs de la voie HH.

Des tentatives avaient déjà été faites pour étudier le potentiel des statines seules, ou en combinaison avec l'inhibiteur SMO cyclopamine, pour le traitement de MB et d'autres tumeurs supposées dépendre de l'activité de la voie HH [89, 123-126]. Ces études, pour la plupart, ont utilisé des lignées cellulaires tumorales qui, comme discuté ci-dessus, ne parviennent pas à maintenir une voie HH active [25]. Les effets observés ont nécessité l'utilisation de fortes concentrations de statines, environ 1000 fois supérieures à celles nécessaires pour bloquer la biosynthèse du cholestérol. De même, la cyclopamine a été utilisée à une concentration provoquant une toxicité hors cible [28]. Les limites de ces approches expérimentales signifient que les données n'ont pas fourni de preuve de concept pour l'utilisation des statines dans le traitement des tumeurs de la voie HH.

Récemment, Yang et ses collaborateurs [127] ont démontré que les statines fonctionnent en effet en synergie avec les inhibiteurs de SMO dans le traitement de la MB. Ils ont observé que la biosynthèse du cholestérol est régulée à la hausse dans le HH-MB des souris et des humains. L'inhibition de la biosynthèse du cholestérol, en utilisant des niveaux physiologiques de simvastatine, d'atorvastatine ou de triparanol, a réduit l'activité de la voie HH et la prolifération des cellules tumorales. La simvastatine ou l'atorvastatine seules ont réduit la croissance des allogreffes de souris MB et elles ont fonctionné en synergie, avec de faibles doses de vismodegib, pour empêcher la croissance tumorale [127]. Ces résultats soutiennent l'utilisation de statines dans le traitement des tumeurs de la voie HH en association avec des inhibiteurs de SMO, et ils suggèrent que certaines tumeurs résistantes peuvent encore être sensibles au traitement par statines. Actuellement, les inhibiteurs de SMO ne sont pas recommandés pour une utilisation chez les jeunes enfants en raison de leurs effets sur la croissance osseuse [10,11,13]. Potentiellement, l'utilisation combinée de statines peut permettre l'utilisation de doses plus faibles d'inhibiteurs de SMO pour éviter la toxicité osseuse tout en restant efficaces en tant qu'agents antitumoraux (figure 4).

Figure 4. Mécanismes de résistance aux inhibiteurs de SMO. Trois mécanismes de résistance acquise aux inhibiteurs de SMO ont été identifiés dans les tumeurs, tous entraînant une activation en aval de la voie. (une) La mutation de SMO dans le site de liaison au médicament entraîne une perte d'inhibition. (b) La perte de SUFU conduit à l'activation en aval de la voie. (c) Amplification de GLI1, ou GLI2, conduit à une expression accrue et à une activation en aval de la voie HH.

12. Conclusion

Les cancers BCC et MB qui hébergent une voie HH activée doivent être considérés comme une classe distincte des autres tumeurs dans lesquelles la voie HH a été proposée comme cible thérapeutique. Même dans le BCC et le MB, la décision d'inclure un inhibiteur de SMO parmi les options thérapeutiques dépend de la nature exacte de la mutation activant la voie HH et aussi, potentiellement, des mécanismes épigénétiques responsables du maintien de l'activité de la voie. Le message à retenir le plus important de cette revue est qu'il existe un manque de preuves précliniques convaincantes soutenant l'utilisation d'inhibiteurs de SMO dans une large classe de tumeurs dépourvues de mutations dans les gènes de la voie HH. Plusieurs facteurs, y compris les limites des systèmes modèles utilisés, les conceptions expérimentales et la surinterprétation des résultats marginaux, ont concouru à présenter des attentes irréalistes concernant l'impact potentiel des inhibiteurs de SMO sur le cancer humain. Il reste possible que des agents qui se lient directement à GLI1/2 puissent être utilisés dans les tumeurs qui expriment des niveaux élevés de ces protéines indépendamment de la présence de mutations activatrices dans la voie HH. De plus, les inhibiteurs de GLI1/2 peuvent également être efficaces dans les tumeurs abritant des mutations activatrices dans la SMO, ou des mutations en aval dans la voie HH, ainsi que dans les tumeurs qui ont acquis une résistance aux inhibiteurs de la SMO.

Les données obtenues à l'aide de lignées cellulaires tumorales humaines traitées avec des inhibiteurs de SMO n'étaient pas prédictives en clinique car la voie HH était supprimée en culture cellulaire. Dans le cas du MB de souris, l'absence du microenvironnement tumoral, en particulier des astrocytes qui sécrètent chut, n'était pas présent dans les conditions de culture cellulaire employées. Potentiellement, cela pourrait être résolu en définissant des systèmes de co-culture appropriés pour préserver le microenvironnement tumoral et l'activité de la voie HH in vitro [25,26]. Les modèles de xénogreffe, y compris les modèles de xénogreffe dérivés de patients, n'ont pas non plus fourni de données précliniques fiables. Alors que les allogreffes de souris MB ressemblent étroitement aux tumeurs spontanées d'origine, car elles recréent un microenvironnement tumoral de soutien dans le flanc des souris immunodéprimées, cela n'a pas encore été couronné de succès dans le cas des xénogreffes humaines. Par conséquent, dans HH BCC et MB, les modèles de xénogreffe ne sont pas recommandés pour les études précliniques.

L'utilisation de souris GEM, en particulier de souris à perte de fonction Ptch1 mutation, était critique pour le développement d'inhibiteurs de SMO. La stratégie développée pour l'utilisation réussie de cette classe de modèles pour le développement d'inhibiteurs de SMO peut être appliquée plus largement (figure 5). En bref, la première étape consiste à déterminer si le médicament peut se lier et inhiber la cible in vivo. Cette étape initiale doit utiliser une voie d'administration physiologique (par exemple, le gavage oral) et les expériences doivent être menées de manière quantitative pour déterminer le régime de dose qui maintient la suppression de la cible. Pour réussir, cette première in vivo L'étude nécessite l'utilisation de biomarqueurs robustes pour surveiller l'activité des voies dans les tissus tumoraux. La deuxième étape consiste à déterminer l'effet de la suppression de la cible sur la croissance tumorale. Cela nécessite une combinaison de méthodologie moléculaire, pharmacologique et histopathologique. Bien qu'il ne soit pas nécessaire de comprendre le mécanisme d'action de l'agent considéré, il est extrêmement utile pour soutenir le développement futur. Dans le cas des inhibiteurs de SMO, le mécanisme principal semblait être l'inhibition de la prolifération des cellules tumorales, conduisant à une différenciation abortive et finalement à la mort cellulaire [41]. En revanche, les effets hors cible des inhibiteurs de SMO utilisés à des concentrations élevées et non physiologiques ont entraîné une induction directe de l'apoptose [28]. La troisième étape consiste à déterminer si les effets de l'agent sur la croissance tumorale entraînent une augmentation de la survie. Cette étape nécessite un dosage prolongé qui doit être effectué en utilisant une voie physiologique qui modélise le système d'administration prévu prévu dans les études cliniques. Les modèles peuvent également être utilisés pour des études de suivi qui optimisent les schémas posologiques, identifient les mécanismes de résistance, explorent les combinaisons de médicaments et analysent les effets secondaires potentiels d'un traitement prolongé. En utilisant ces approches, une série de prédictions ont été faites sur la base des modèles GEM qui ont été récapitulés dans les essais cliniques d'inhibiteurs de SMO (figure 6).

Figure 5. Utilisation des modèles GEM. L'utilisation de modèles GEM pour le développement d'inhibiteurs de SMO a suivi un chemin en plusieurs étapes qui sert de ligne directrice pour le développement futur de médicaments. L'étape I consiste à déterminer le niveau d'inhibiteur requis pour bloquer la cible dans les tumeurs spontanées in vivo. Cela nécessitait l'utilisation de biomarqueurs quantitatifs pour la lecture de l'activité de la voie. L'étape II mesure les conséquences de l'inhibition de la cible en termes de croissance tumorale. L'étape III évalue si l'inhibition de la croissance tumorale entraîne une augmentation de la durée de vie. L'étape IV représente des études de suivi pour affiner les schémas posologiques, identifier les mécanismes de résistance aux médicaments, explorer les co-traitements potentiels et étudier les effets secondaires.

Figure 6. Prédictions d'inhibiteurs de SMO à partir de modèles GEM de souris. Un certain nombre d'observations ont été faites dans les modèles GEM qui sont parallèles à l'expérience avec les inhibiteurs de SMO en clinique. Il y avait une élimination dramatique initiale de la masse tumorale importante. Le génotype de la tumeur a prédit avec précision la réponse au traitement. Il y avait une acquisition rapide de résistance due à des mutations activatrices en aval dans la voie HH. Des toxicités développementales ont été observées dans la croissance osseuse chez les jeunes souris et les jeunes enfants.

Bon nombre des problèmes liés au manque de reproductibilité de la recherche préclinique, menée à l'aide d'inhibiteurs de SMO, semblent provenir du fait que plusieurs inhibiteurs ont été utilisés à des concentrations élevées où ils ont provoqué des effets toxiques hors cible, entraînant des données faussement positives. Cela a été particulièrement difficile dans le cas de l'inhibiteur naturel de SMO, la cyclopamine, car il présente un index thérapeutique très étroit. Dans le cas de certains des nouveaux inhibiteurs SMO très puissants, ces effets toxiques n'ont été observés que lorsque les médicaments ont été utilisés en grand excès (plusieurs centaines de fois) par rapport aux niveaux requis pour supprimer l'activité de la voie HH. La figure 7 illustre les différences relatives des courbes dose-réponse spécifiques et non spécifiques. C'est un principe fondamental très important en pharmacologie. Lorsque la dose d'un médicament atteint un niveau qui sature la cible, l'ajout de plus de médicament n'augmente pas la réponse spécifique. Ceci est une préoccupation particulière dans la recherche sur le cancer car les tests utilisés pour déterminer les réponses médicamenteuses impliquent l'inhibition de la prolifération cellulaire ou l'induction de la mort cellulaire, les deux pouvant facilement résulter d'effets non spécifiques non ciblés. De plus, traditionnellement, des agents chimiothérapeutiques classiques ont été développés pour être utilisés à la dose maximale tolérée. Ce concept a été développé pour les chimiothérapies largement actives, par exemple celles qui induisent des dommages à l'ADN, afin de causer le plus de dommages possible aux cellules cancéreuses tout en préservant la vie. Cependant, cette stratégie n'est pas adaptée aux thérapies ciblées qui doivent être utilisées à la dose spécifiquement requise pour bloquer la cible dans la tumeur.

Figure 7. Analyse dose-réponse. Cette illustration est basée sur les données rapportées dans [41]. À l'aide d'un test GLI1-luciférase dans des cellules NIH3T3, la dose de HhAntag (un inhibiteur de SMO) et de cyclopamine, nécessaire pour inhiber 50 % de l'activité de la voie HH induite par SHH, a été déterminée à 30 et 300 nM, respectivement. En revanche, la dose de chaque agent nécessaire pour bloquer la prolifération des lignées cellulaires tumorales de 50 % était d'environ 10 uM. Ces données, à elles seules, démontrent qu'il n'y a pas de relation entre l'effet des agents sur l'activité de la voie HH et la prolifération des cellules tumorales parce que les doses sont si différentes. Bien que simple, cette leçon clé a été largement ignorée en raison de préjugés inconscients.

La voie d'administration du médicament est également déterminante. Il est rarement, voire jamais, valable de tester le potentiel toxique des médicaments anticancéreux par inoculation directe de petites allogreffes ou xénogreffes. Dans ce cas, la concentration de médicament au site d'inoculation est extrêmement élevée et il n'est pas vraiment possible d'effectuer une analyse dose-réponse. De plus, étant donné que les petites allogreffes et xénogreffes ne sont pas encore établies en tant que tumeurs transplantées, le test ne porte en réalité que sur la capacité de l'agent testé à inhiber l'établissement d'une greffe, plutôt que sur sa capacité à provoquer une régression tumorale. Les processus biologiques impliqués dans la mise en place d'un greffon tumoral peuvent très bien être très différents de ceux responsables du maintien de la croissance tumorale par conséquent, les résultats obtenus ne sont pas pertinents pour le traitement du cancer humain.

Malgré l'approbation des inhibiteurs SMO pour le traitement du CBC aux États-Unis, le National Institute for Health and Care Excellence (NICE) au Royaume-Uni n'a pas recommandé l'utilisation du vismodegib pour le CBC symptomatique métastatique ou localement avancé. Cette décision était basée sur des données de survie globale et une estimation selon laquelle le rapport coût-efficacité du vismodegib, par rapport aux meilleurs soins de soutien, est bien supérieur à 30 000 livres sterling par année de vie gagnée ajustée sur la qualité. Cette analyse n'incluait pas l'utilisation de diagnostics moléculaires pour sélectionner uniquement les tumeurs pour le traitement qui seraient susceptibles de répondre. Le comité qui a formulé la recommandation a reconnu que les données de survie globale étaient immatures, que les essais précédents n'étaient pas applicables à la population britannique et que, bien que des avantages cliniquement pertinents soient plausibles, ils n'ont pas trouvé les preuves présentées comme substantielles. Le principal problème semble être l'insistance sur l'utilisation des données de survie globale comme critère principal de recommandation sans tenir dûment compte des impacts sur la qualité de vie liée à la santé. Dans le même temps, le comité a reconnu que la mortalité est rarement attribuée au CBC localement avancé dans la population moyenne du Royaume-Uni. Il reste un certain espoir, alors que les données s'accumulent à partir de sites en dehors du Royaume-Uni soutenant les avantages des inhibiteurs de SMO dans des populations de patients spécifiques, que cette décision sera réexaminée. Il sera également important d'inclure des diagnostics compagnons pour exclure les patients qui ne bénéficieraient pas des inhibiteurs de la SMO initialement ou après l'apparition de mutations résistantes aux médicaments.

13. Orientations futures

Le parcours translationnel des inhibiteurs de SMO nous enseigne qu'il n'y a pas d'approche idéale, unique ou de modèle parfait. Le cancer humain est diversifié et il n'est pas possible de représenter toute cette diversité dans des collections de lignées cellulaires, de tumeurs transplantées ou de modèles GEM. Cependant, des modèles spécifiques peuvent être utilisés très efficacement pour répondre à des questions de validation de principe définies. Les lignées cellulaires avec des constructions rapporteurs ont permis de déterminer avec précision les concentrations de médicament nécessaires pour supprimer complètement l'activité de la voie HH. Les tumeurs spontanées dans les modèles GEM ont permis d'analyser la capacité des composés à pénétrer la barrière hémato-encéphalique, à inhiber la voie HH dans les cellules tumorales et à montrer une efficacité antitumorale uniquement dans le sous-type moléculaire approprié de la tumeur. Les modèles d'allogreffe ont permis d'analyser les mécanismes impliqués dans l'élimination des tumeurs, et ils ont prédit des mécanismes de résistance aux médicaments qui ont été récapitulés en clinique. Ces mêmes modèles sont maintenant utilisés pour étudier des combinaisons de médicaments visant différentes cibles de la voie HH ou des cibles complémentaires qui pourraient être utilisées avec des inhibiteurs de SMO. Dans le cas du BCC, le développement d'applications topiques suscite un grand intérêt et les souris peuvent ne pas fournir de modèle approprié car la peau de souris est plus perméable que la peau humaine [128-130]. Des progrès récents dans la capacité de déterminer les profils génétiques tumoraux à partir de l'ADN tumoral circulant suggèrent que le sous-type moléculaire de MB pédiatrique peut être déterminé à partir d'échantillons biologiques sanguins, ouvrant la possibilité que les inhibiteurs de SMO pourraient être utilisés même avant la chirurgie, la radiothérapie ou la chimiothérapie, pour éviter le effets secondaires de ces approches traditionnelles [131]. Au fur et à mesure que ces études progressent, il est important que les chercheurs maintiennent une vigilance constante contre les biais inconscients. Nous devons également étudier nos échecs dans le contexte de la biologie tumorale pour comprendre leurs causes profondes. Comme nous le savons tous, si nous ne tirons pas les leçons de l'histoire, nous pourrions bien être condamnés à la répéter.


Les tendances

Les perceptions de l'irreproductibilité de la recherche en sciences précliniques sont basées sur des données limitées et souvent anecdotiques provenant de certains domaines thérapeutiques de la biologie cellulaire et moléculaire.

Les problèmes d'irreproductibilité identifiés dans le domaine de la recherche en oncologie, bien qu'ils ne soient pas bien caractérisés, ont été largement extrapolés à tous les domaines thérapeutiques en tant que facteurs causals du manque de productivité dans la découverte et le développement de médicaments.

Les lacunes dans la recherche publiée qui incluent la génération d'hypothèses, la conception expérimentale, le contrôle et l'exécution, la validation et/ou l'authentification des réactifs, l'analyse statistique et les rapports sont des facteurs qui contribuent au manque de reproductibilité de la recherche préclinique.

De nombreuses lignes directrices de recherche réfléchies et faisant autorité et/ou listes de contrôle de publication conçues pour améliorer la transparence et la reproductibilité ont émergé en tant que mesures correctives.

Dans le contexte d'une spécialisation thérapeutique et technologique accrue dans les sciences biomédicales, la mise en œuvre de ces lignes directrices et listes de contrôle peut offrir l'occasion d'exploiter les meilleures pratiques et de combler les écarts de connaissances entre les disciplines scientifiques établies et émergentes.

Les inquiétudes concernant la fiabilité des résultats de la recherche biomédicale ont été précipitées par deux rapports indépendants de l'industrie pharmaceutique qui ont documenté un manque de reproductibilité dans la recherche préclinique dans les domaines de l'oncologie, de l'endocrinologie et de l'hématologie. Compte tenu de leur impact potentiel sur la santé publique, ces préoccupations ont été largement couvertes par les médias. L'évaluation de l'ampleur et de la portée de l'irreproductibilité est limitée par la nature anecdotique des rapports initiaux et le manque de données quantitatives sur les échecs spécifiques à reproduire les recherches publiées. Néanmoins, les activités de remédiation se sont concentrées sur les améliorations nécessaires de la transparence et de la cohérence dans la communication des méthodologies expérimentales et des résultats. Bien que de telles initiatives puissent efficacement combler les lacunes dans les connaissances et faciliter les meilleures pratiques dans les disciplines de recherche et les domaines thérapeutiques établis et émergents, des inquiétudes subsistent quant à la manière dont elles améliorent le processus historique de réplication indépendante dans la validation des résultats de la recherche et leur potentiel à inhiber l'innovation scientifique.


Repenser la science dans le contexte de la crise de la reproductibilité.

En 2015, une crise de reproductibilité a laissé la communauté scientifique dans un état de désorientation très similaire à celui que les responsables de la santé se sont retrouvés pendant COVID à l'époque pré-vaccinale. Cet article inspiré de ma propre expérience en laboratoire et de la crise de reproductibilité mentionnée a été initialement publié en 2018 et fournit un cadre pour comprendre les anomalies scientifiques indiquant une convergence de la science et des sources juives.

Repenser la science dans le contexte de la crise de la reproductibilité

Face à la crise actuelle de la reproductibilité, cet article propose un regard différent sur ce que représentent les contributions scientifiques. Il propose que l'exigence de cohérence dans les publications scientifiques biologiques masque l'ambiguïté et l'indétermination inhérentes à la pratique de la science. La reconnaissance de cette ambiguïté est importante car elle permet la coexistence de perspectives opposées et le développement de modèles mutuellement complémentaires. Comme le processus de publication a tendance à filtrer ce qui ne rentre pas dans un récit logique linéaire, il crée un sentiment artificiel de certitude auto-construit. Au lieu de cela, les publications scientifiques devraient être considérées comme des moyens particuliers utiles de structurer l'ordre permettant une multiplicité de points de vue compatibles avec l'observation expérimentale.

"L'Aleph, le seul endroit sur terre où tous les lieux sont - vus sous tous les angles, chacun se tenant clairement, sans aucune confusion ni mélange."

"Pour signifier la divinité, un Persan parle d'un oiseau qui est en quelque sorte tous les oiseaux Alanus de Insulis, d'une sphère dont le centre est partout et la circonférence, n'est nulle part Ézéchiel, d'un ange à quatre faces qui à la fois se déplace vers l'est et à l'ouest, au nord et au sud.

« J'ai vu l'Aleph de tous les points et sous tous les angles, et dans l'Aleph j'ai vu la terre et dans la terre l'Aleph et dans l'Aleph la terre j'ai vu mon propre visage et mes propres entrailles J'ai vu ton visage et j'ai eu le vertige et j'ai pleuré , car mes yeux avaient vu cet objet secret et conjecturé dont le nom est commun à tous les hommes mais qu'aucun homme n'a regardé, l'univers inimaginable. Jorge Luis Borges, L'Aleph (1)

Ces dernières années, une crise de reproductibilité a mis la communauté scientifique dans un état de perplexité. En réponse à cette crise, l'accent a été mis sur l'exécution de la recherche avec rigueur. Certes, il y a des cas de recherche menée de manière bâclée, et des cas d'inconduite, mais même si l'on pouvait vider la littérature scientifique de ces cas, il y aurait toujours un problème intrinsèque avec la façon dont la science est pratiquée, comment le système scientifique est organisé, et la limitation de la science pour faire face à l'ambiguïté. La racine du problème doit être examinée non pas dans ce qui est publié, mais dans ce qui ne l'est pas.

L'un des piliers sur lesquels repose la science expérimentale est l'idée que les hypothèses sont vraies ou fausses, que la méthode scientifique peut discerner la véracité de toute hypothèse et, si elle est fausse, se corriger au fil du temps. Sur la base de cette hypothèse, deux hypothèses apparemment incompatibles ne peuvent pas être vraies en même temps. L'un doit être vrai et l'autre faux et cette hypothèse jette les bases de tout le système éthique qui régit la pratique de la science.

En réalité, l'approche réductionniste de la science fait que les chercheurs opèrent sur la base d'informations partielles qui révèlent des vérités partielles, parfois contradictoires, reflet d'une vérité supérieure.

Dans certains cas, ces vrais partiels peuvent être conciliés avec de nouvelles informations expérimentales conduisant à un modèle unificateur, mais dans d'autres cas, ils ne le peuvent pas. Imaginez que vous êtes un scientifique essayant de répondre à la question suivante : « Puis-je garer ma voiture au 3e étage du garage du terminal B de l'aéroport de Boston Logan ce soir à 21 h ? ». Pour répondre à la question, faites l'expérience suivante : vous conduisez votre voiture jusqu'à l'endroit du site à 21 h 00 et lorsque vous franchissez la rampe menant au troisième étage, vous regardez sur votre droite et voyez un panneau lumineux rouge indiquant « Complet ”. Vous concluez qu'il n'est pas possible de garer la voiture au dit lieu et à l'heure et publiez en conséquence. Maintenant, un deuxième scientifique vient derrière vous et effectue une expérience différente. Au lieu de regarder vers la droite, regarde vers la gauche et voit une place de parking vide. Il arrive à la conclusion inverse, qu'il est possible de garer la voiture à l'endroit et à l'heure indiqués. Un argument est établi, le deuxième scientifique étant probablement confronté à une barrière plus élevée imposée par lui-même ou par la communauté (c'est-à-dire les critiques) pour publier. Imaginez maintenant un troisième scientifique qui, plus réfléchi, a réalisé les deux expériences. À la lumière des données contradictoires, le scientifique trouvera les résultats non concluants et ne les publiera pas. L'ambiguïté a été masquée.

Éventuellement, en évaluant une autre information, c'est-à-dire dans le contexte culturel de l'emplacement du garage, qu'est-ce qui a plus de poids qu'un panneau indiquant que vous ne pouvez pas vous garer ou la disponibilité physique d'une place de stationnement vide, une décision est prise de garer la voiture ou continuez jusqu'au quatrième étage, en ignorant l'une des informations discordantes. Un choix est fait, laissant derrière lui l'ambiguïté et l'indétermination qui ont permis ce choix.

Il existe une indétermination qui sous-tend la manière dont les connaissances scientifiques sont générées. Même si l'ambiguïté se présente quotidiennement au laboratoire, elle est consciemment ou inconsciemment ignorée. Le produit final du processus de découverte, l'article publié, est linéaire et logique, mais le processus de découverte est chaotique et implique de nombreuses décisions conscientes ou inconscientes sur la manière qui affectent le résultat final. Chacune de ces décisions définit une trajectoire déterministe dans un paysage autrement indéterministe. Peut-être que la décision implique l'utilisation du protocole A au lieu du protocole B, ou simplement l'utilisation du protocole A sans considérer d'autres options. Nous pouvons attribuer aux résultats ambigus une explication rationnelle, par exemple la variabilité de l'échantillon. Pour tester une hypothèse, la preuve est généralement recherchée par trois, quatre ou cinq techniques différentes. Souvent, l'une de ces techniques produit un résultat différent des autres, et comme nous nous attendons à ce que les résultats soient cohérents, nous supposons que quelque chose s'est mal passé avec la technique discordante. Ce faisant, nous masquons l'ambiguïté.

Les critiques et les revues ont besoin d'histoires auto-cohérentes et les scientifiques les produisent en générant une certitude auto-construite qui laisse de côté tout ce qui ne rentre pas dans un récit linéaire. Face à l'ambiguïté, les scientifiques ne publient pas car les résultats sont jugés non concluants, ou sont biaisés dans ce qu'ils publient ou dans la manière dont les résultats sont interprétés. Heureusement, c'est quelque chose qui a commencé à changer, avec un nombre croissant de revues acceptant désormais l'inclusion de données négatives. Cependant, les données négatives, plutôt que d'être considérées comme un accident, devraient être considérées comme la manifestation naturelle de la nature ambiguë de la science.

Faire la lumière avec la lumière

La lumière est probablement le premier et le mieux établi en science dans lequel un phénomène est décrit par deux modèles alternatifs. Alors faisons la lumière avec la lumière. La lumière peut être décrite à la fois comme une onde et comme une particule. Le modèle décrivant le comportement de la lumière en tant qu'onde a donné lieu à des applications telles que la cellule photovoltaïque, l'énergie solaire ou la cristallographie aux rayons X. Le modèle décrivant la lumière comme une particule a produit une imagerie aux rayons X. Les expériences qui ont conduit à la description de la lumière en tant que particule ne correspondent cependant pas au récit qui explique le comportement de la lumière en tant qu'onde et vice versa. L'arrivée à la coexistence de deux modèles alternatifs n'a pas été facile et sans combats. Il a fallu plus d'un siècle pour en arriver là.

L'indétermination qui sous-tend le double comportement de la lumière est probablement, à la lumière de la crise actuelle de reproductibilité, un phénomène plus courant en science que nous ne le pensons, seulement que dans notre façon de penser scientifique, nous sommes conditionnés à l'ignorer, en faveur d'une auto- certitude conçue.

Changements de paradigme et biologie expérimentale

Les changements de paradigme sont considérés comme le résultat de l'autocorrection scientifique au fil du temps. Lorsque la crise de la reproductibilité a commencé, le NIH a publié sur sa page Web une déclaration disant que "la science se corrige avec le temps, mais ce n'est plus vrai à court terme". sinon des modèles, des théories ou des perspectives alternatifs véridiques coexistants. Avec une entreprise scientifique plus importante aujourd'hui qu'il y a un siècle ou deux, les données qui prennent en charge des points de vue alternatifs sont désormais produites de manière synchrone. Peut-être parce qu'il s'agit d'une discipline plus ancienne que la biologie expérimentale et qu'elle est à la fois expérimentale et théorique, la physique a atteint un point qui permet la coexistence de modèles ou de théories alternatifs. Des exemples sont la physique newtonienne et relative, le comportement double onde/particule de la lumière, ou des théories en cours de validation comme celles des théories du multivers ou des cordes.

Il semble que le moment soit venu pour la biologie expérimentale de passer par une voie similaire.

Un certain nombre d'efforts de réplication menés de manière très contrôlée ont révélé des problèmes de reproductibilité des expériences publiées en psychologie et en biologie du cancer. En psychologie, une étude de réplication sur un effet appelé « ombrage verbal » des résultats regroupés de 22 groupes a réussi à reproduire les résultats d'une étude précédemment mise en doute, mais la réplication était sensible aux paramètres du protocole (2). Dans le cancer, une étude très citée publiée dans Cancer Cell sur une mutation du gène IDH dont le produit peut être détecté dans le sang et potentiellement utilisé comme biomarqueur de la leucémie, n'a pas réussi à se répliquer dans un premier lot d'études mais a réussi dans un cycle plus récent , en tenant compte du fait que 20 % des patients atteints de leucémie sont porteurs de la mutation (3) . Une deuxième étude, cependant, sur les inhibiteurs BET a réussi à reproduire les expériences sur cellules in vitro mais n'a pas réussi à reproduire les expériences sur souris in vivo (4). Quatre autres études dans le cadre du Cancer Biology Reproductibility Project ont également révélé des problèmes de reproductibilité de résultats publiés précédemment ou de leur signification statistique (5,6,7,8). Un sondage mené par la revue Nature auprès de 1500 scientifiques a révélé que

70% des scientifiques interrogés dans les domaines de la biologie et de la médecine n'ont pas réussi à reproduire les expériences de quelqu'un d'autre, et

55 à 60 % n'ont pas réussi à se reproduire (9).

Avec le nombre croissant de cas de problèmes de reproductibilité et de cas où le puzzle scientifique ne peut être entièrement résolu, nous devrions appeler à des mesures pour accroître la rigueur dans la pratique de la science comme cela a été fait. On peut supposer que l'acquisition de connaissances scientifiques en tant que processus incrémental finira par combler les lacunes. Parallèlement, une approche scientifique radicale exige que, lorsque les données le disent, nous devons également remettre en question certaines des hypothèses sur lesquelles repose la pratique de la science.

Que devraient faire les scientifiques à la lumière de l'ambiguïté ? Tout d'abord, reconnaissez-le.

En acceptant que la seule vérité universelle recherchée par la science puisse abriter des perspectives contrastées, les scientifiques devraient être en mesure de publier des modèles et des résultats contradictoires, sans nécessairement s'engager dans des conflits ou craindre de nuire à leur propre réputation ou à celle d'autres chercheurs.

La reconnaissance de l'ambiguïté devrait amener les scientifiques à développer une attitude « OUI ET » par opposition à une attitude « OUI OU ». Au niveau du laboratoire, face à des résultats ambigus, les scientifiques devraient d'abord essayer de les lever expérimentalement. Cependant, si les efforts sont infructueux, les groupes devraient envisager la possibilité de la coexistence de modèles alternatifs. Étant donné que nos esprits fonctionnent selon un raisonnement linéaire, ces lignes de recherche devraient probablement être confiées à des membres de laboratoire distincts ou être développées par des groupes indépendants. Comme dans le cas de la lumière, les connaissances générées par des modèles discordants alternatifs pourraient conduire à des applications technologiques/médicales plus diversifiées qu'un modèle unique ne le ferait.

Au niveau de la communauté scientifique, la reconnaissance de l'ambiguïté est une nécessité morale. En présence de rapports opposés ou discordants, la tendance naturelle du scientifique est de supposer que l'un d'eux a tort, doutant souvent des compétences ou de l'intégrité de ceux qui le proposent. Au lieu de cela, l'ambiguïté devrait être prise en compte pour rendre le système d'avancement professionnel, de récompenses et de punitions plus juste.

Bien que la science ne soit pas une religion, les scientifiques pourraient tirer des leçons des traditions qui voient l'unité dans la diversité et les contraires. Par exemple, dit le rabbin Jonathan Sacks, « la vérité sur terre n'est pas et ne peut aspirer à être toute la vérité. Elle est limitée, non exhaustive, particulière, non universelle. Lorsque deux propositions entrent en conflit, ce n'est pas nécessairement parce que l'une est vraie et l'autre fausse. Il se peut, et c'est souvent le cas, que chacun représente une perspective différente sur la réalité, une manière alternative de structurer l'ordre… Au ciel il y a la Vérité, sur terre il y a des vérités. Par conséquent, chaque culture a quelque chose à apporter. Chaque personne sait quelque chose que personne d'autre ne sait. (dix).

Dans le Talmud, l'enregistrement écrit d'un dialogue intergénérationnel entre les rabbins interprétant la Torah pour établir des lois d'observance, pour chaque opinion soutenant que quelque chose doit être fait d'une certaine manière, il existe une multiplicité d'opinions bien fondées sur les raisons pour lesquelles les choses ne peuvent pas être fait de cette manière particulière et devrait être fait différemment. Toutes les opinions ne sont pas inscrites dans la loi, mais toutes les opinions sont enregistrées. Dans un passage souvent cité (Eruvin 13b), deux maisons d'étude, la maison de Hillel et la maison de Shammai étaient en désaccord constant. Chaque fois que la Maison Hillel proposait une certaine manière d'observer, la Maison Shamai proposait une manière différente et plus stricte. Le désaccord a généré un différend sur l'opinion de quelle maison devrait dicter la loi. En fin de compte, raconte l'histoire, une voix divine a émergé et a proclamé que celles-ci et celles-ci sont les paroles du Dieu vivant mais que la loi devrait être dictée par la maison de Hillel. La raison de suivre l'opinion de la maison de Hillel n'était cependant pas parce que son opinion était plus juste mais parce que la maison de Hillel était plus humble, présentant toujours d'abord le point de vue de Shamai avant de faire son propre cas (11).

L'idée d'indétermination, d'ambiguïté et d'opposés en science n'est pas nouvelle, seulement que la crise de la reproductibilité fournit maintenant des preuves empiriques pour la soutenir.

Albert Einstein a soutenu que c'est la théorie qui décide de ce que l'on peut observer. (12).

Jacques Monod soutenait que la connaissance sans valeur n'est pas le résultat d'une évidence, mais d'un choix qui précède la collecte de l'évidence et l'arrivée de la performance (13).

Dès 1996, avant toute crise de reproductibilité, Frederick Grinnell attirait l'attention sur la question de l'ambiguïté dans la pratique de la science (14). Là, entre autres références, il se rapporte à un passage de l'autobiographie de la prix Nobel Rita Levi-Montalcini où elle fait référence à la « loi du mépris des informations négatives » d'Alexander Luria… les faits qui s'inscrivent dans une hypothèse préconçue attirent l'attention, sont distingués et retenus. Les faits qui lui sont contraires sont ignorés, traités comme une exception et oubliés » (15) À cet égard, Rita Levi-Montalcini fait référence à la tendance à surveiller les informations qui pourraient être autodestructrices. Aucune quantité d'enseignement des sciences ne peut faire clairement la différence entre les faits à retenir et les faits à ignorer. Grinell se réfère également à la présentation de la science comme un processus logique, cohérent et historiquement reconstruit qui, selon les mots de François Jacob, remplace par l'ordre le désordre qui a lieu dans le laboratoire (16), et a conduit le prix Nobel Sir Peter Medawar à écrire un essai intitulé « L'article scientifique est-il une fraude ? »(17) où il dit entre autres « tout travail scientifique à caractère expérimental ou exploratoire commence par une certaine attente quant au résultat de l'enquête…. C'est à la lumière de cette attente que certaines observations sont jugées pertinentes et d'autres non que certaines méthodes sont choisies et d'autres écartées que certaines expériences sont faites plutôt que d'autres ».

Ce serait une erreur, cependant, de supposer que tout est ambigu en science. Certaines choses le sont et d'autres non. L'exemple paradoxal des choses qui ne sont pas ambiguës est le code génétique, dans lequel 64 codons possibles, une séquence de 3 positions couvertes chacune par quatre nucléotides possibles (A, T, C et G), codent pour seulement 21 acides aminés et un signal pour arrêter la traduction. Les possibilités de codons pour chaque acide aminé sont encore plus grandes car la troisième base est moins stricte en raison de ce que l'on appelle l'effet d'oscillation. Pourtant, les préférences d'engagement de cette troisième base sont telles que le code génétique est redondant avec plus d'un codon codant pour un acide aminé particulier, mais n'est pas ambigu. On pourrait aussi faire valoir, bien sûr, que nous ne savons pas, au cours du processus de découverte, quelles informations discordantes ont pu être ignorées consciemment ou inconsciemment afin d'arriver à un modèle cohérent.

Plutôt que d'échapper à l'ambiguïté, les scientifiques devraient l'adopter. Il y a tellement à y gagner.De la possibilité d'un menu plus large d'applications technologiques et médicales à une manière plus éthique et juste de pratiquer la science et la révélation d'un cadre universel dans lequel les contraires coexistent et s'intègrent, ouvrant la voie à la confluence de deux approches différentes pour rechercher la vérité qui sont en désaccord depuis longtemps, ceux de la Science et de la Religion.

1) Jorge Luis Borges, 1949, « L'Aleph » dans « L'Aleph et autres histoires ».

2) Jonathan W. Schooler, La métascience pourrait sauver la « crise de réplication », 2014, Nature 515, 9

3) Showalter MR, Hatakeyama J, Cajka T, VanderVorst K, Carraway KL, Fiehn O Projet de reproductibilité : biologie du cancer. Collaborateurs : Iorns E, Denis A, Perfito N, Errington TM. Étude de réplication : La caractéristique commune des mutations IDH1 et IDH2 associées à la leucémie est une activité enzymatique néomorphique convertissant l'alpha-cétoglutarate en 2-hydroxyglutarate. Évie. 20176. pii : e26030. doi: 10.7554/eLife.26030.

4) Fraser Aird Irawati Kandela Christine Mantis Projet de reproductibilité : biologie du cancer. Étude de réplication : inhibition du bromodomaine BET comme stratégie thérapeutique pour cibler c-Myc. eLife 20176 : e21253 DOI : 10.7554/eLife.21253

5) Horrigan SK, Projet de reproductibilité : Biologie du cancer. 2017a. Étude de réplication : L'interaction CD47-protéine régulatrice du signal alpha (SIRPa) est une cible thérapeutique pour les tumeurs solides humaines. eLife 6 : e18173.

6) Horrigan SK, Courville P, Sampey D, Zhou F, Cai S, Projet de reproductibilité : biologie du cancer. 2017b. Étude de réplication : Le séquençage du génome du mélanome révèle de fréquentes mutations PREX2. eLife 6:e21634.

7) Kandela I, Aird F, Projet de reproductibilité : biologie du cancer. 2017. Étude de réplication : découverte et validation préclinique d'indications de médicaments à l'aide de recueils de données publiques sur l'expression des gènes. eLife 6 : e17044.

8) Mantis C, Kandela I, Aird F, Projet de reproductibilité : biologie du cancer. 2017. Étude de réplication : la co-administration d'un peptide pénétrant dans les tumeurs améliore l'efficacité des médicaments anticancéreux. eLife 6 : e17584

9) Baker M. 1 500 scientifiques lèvent le voile sur la reproductibilité. La nature. 2016 mai 26533 (7604) : 452-4. doi : 10.1038/533452a.

10) Jonathan Sacks, éd Hava Tirosh-Samuelson et Aaron W. Hughes, 2013, « Universalizing Particularity ». p53. Barbue.

12) Holton G. Werner Heisenberg et Albert Einstein, 2000, « Creating Copenhagen”. Symposium au Graduate Center de la City University of New York.

13)Jacques Monod, 1970. « Chance et nécessité »

14) Frédéric Grinell. Ambiguïté dans la pratique de la science. 1996. Sciences. 222 (5260) 333.

15)Rita Levi-Montalcini, traduction Luigi Attardi. "Eloge de l'imperfection." 1988. (Basic Books, New York), 1988

16) François Jacob. F. Philip, trad. 1987. « La statue à l'intérieur : une autobiographie », Basic Books, New York.

17) Sir Peter Medawar, L'article scientifique est-il une fraude ? L'auditeur (12 septembre 1963), p. 377


Résumé

Les avancées médicales et scientifiques reposent sur de nouvelles connaissances solides et fiables qui constituent une base solide sur laquelle de nouvelles avancées peuvent être construites. Dans la recherche biomédicale, nous sommes en pleine révolution avec la génération de nouvelles données et publications scientifiques à un rythme sans précédent. Cependant, malheureusement, il existe des preuves irréfutables que la majorité de ces découvertes ne résisteront pas à l'épreuve du temps. Dans une large mesure, cette crise de reproductibilité dans la recherche fondamentale et préclinique peut être due au non-respect des bonnes pratiques scientifiques et au désespoir de publier ou de périr. Il s'agit d'un problème multiforme et multipartite. Aucune partie n'est seule responsable et aucune solution ne suffira. Ici, nous passons en revue les problèmes de reproductibilité dans la recherche biomédicale fondamentale et préclinique, soulignons certaines des complexités et discutons des solutions potentielles qui peuvent aider à améliorer la qualité et la reproductibilité de la recherche.

Problème

En tant que médecins et scientifiques, nous voulons apporter une contribution qui modifie le cours de la santé humaine. Nous voulons tous laisser notre marque en découvrant quelque chose qui fait vraiment la différence. Pourtant, la plupart des maladies courantes que nous étudions sont extrêmement complexes. Nos connaissances sont fragmentaires. Beaucoup, peut-être la plupart de nos modèles sont naïfs et nos constructions sont souvent des approximations grossières de la vérité. Finalement, nous pouvons voir dans nos propres efforts et résultats de recherche ce que nous voulons voir : des résultats prometteurs et de belles découvertes. Ce succès apparent peut ne pas être reproductible. Pourtant, une recherche solide et reproductible est la base sur laquelle les avancées sont construites.

Face à la réalité des maladies que nous voulons guérir, il existe une réelle opportunité que nous pouvons plus facilement aborder. Bien que cela impliquerait des changements généralisés et exigerait une réévaluation critique de nos processus, c'est une opportunité qui pourrait avoir des avantages substantiels. L'opportunité est d'introduire, d'exiger et de récompenser un niveau de rigueur et de robustesse dans la conception, la conduite, la communication, l'interprétation, la validation et la diffusion de la recherche qui fait actuellement défaut dans de nombreux domaines de la recherche biomédicale.

Au cours des dernières années, il y a eu une reconnaissance croissante des faiblesses qui imprègnent notre système actuel de recherche fondamentale et préclinique. Cela a été mis en évidence empiriquement dans la recherche préclinique par l'incapacité de reproduire la majorité des résultats présentés dans des revues de haut niveau. 1–3 Les estimations de l'irreproductibilité basées sur ces observations empiriques vont de 75 % à 90 %. Ces estimations correspondent remarquablement bien aux estimations de 85 % pour la proportion de la recherche biomédicale qui est gaspillée en général. 4-9 Cette irréproductibilité n'est pas propre aux études précliniques. On le voit dans tout le spectre de la recherche biomédicale. Par exemple, des préoccupations similaires ont été exprimées pour la recherche observationnelle où aucune des 52 prédictions des études observationnelles n'a été confirmée dans des essais cliniques randomisés. 10-12 Au cœur de cette irréproductibilité se trouvent des défauts communs et fondamentaux dans les pratiques de recherche actuellement adoptées. Bien que décevante, cette expérience ne devrait probablement pas surprendre, et c'est ce à quoi on s'attendrait également théoriquement pour de nombreux domaines de recherche biomédicale en fonction de la manière dont les efforts de recherche sont menés. 13

La recherche fondamentale et préclinique est particulièrement importante car elle constitue la base sur laquelle les futures études sont construites. C'est la recherche préclinique qui fournit les nouvelles idées passionnantes qui finiront par se retrouver dans les études cliniques et les nouveaux médicaments bénéfiques pour l'humanité. Pourtant, cette recherche préclinique est peu prédictive du succès final en clinique. 14,15 Et c'est la recherche observationnelle qui à la fois attire l'attention publique immédiate et fournit souvent l'hypothèse sur laquelle les études interventionnelles sont basées.

Compte tenu de la controverse qui a entouré cette question, il est important de noter d'emblée que ces préoccupations concernant l'irreproductibilité de la science n'invalident pas la validité ou la légitimité de la méthode scientifique. C'est plutôt l'application rigoureuse et minutieuse de la méthode scientifique qui s'est traduite par de véritables améliorations de la santé humaine et a fourni les avantages substantiels dont nous avons bénéficié au cours des dernières décennies : l'investissement dans la recherche a permis d'améliorer considérablement les résultats des maladies infectieuses, des maladies cardiovasculaires, l'oncologie, les maladies rhumatismales et de nombreuses autres affections.

Au départ, il est également important de reconnaître que toutes les recherches biomédicales ne sont pas supposées ou attendues pour aboutir à des découvertes qui ont une application pour la santé humaine. D'excellentes idées et d'excellentes recherches peuvent mener à une impasse. C'est tout simplement la nature de la recherche. Il est peu probable qu'une efficacité de 100 % et un gaspillage de 0 % soient réalisables. Cependant, il y a probablement une marge d'amélioration substantielle.

Enfin, le fait que ce débat autocritique se déroule ouvertement au sein de la communauté scientifique renforce la force de notre système.

Pourquoi est-ce important?

Le principal défi est d'assurer l'utilisation la plus efficace et la plus efficace des précieux fonds de recherche. Dans le domaine préclinique, il est devenu de plus en plus clair que la majorité de la recherche préclinique ne peut pas être reproduite, y compris par les auteurs originaux eux-mêmes.

Cela est connu depuis longtemps par les grandes sociétés de biotechnologie et pharmaceutiques qui cherchent régulièrement à reproduire une allégation scientifique avant de commencer un projet de recherche. Le problème est plus problématique pour les petites entreprises et celles qui financent ces entreprises en phase de démarrage, où, proportionnellement à leurs ressources, le coût de tenter de reproduire une étude peut être substantiel à la fois en termes d'argent et de temps. 16 Les études précliniques précoces sont importantes car elles constituent potentiellement la base sur laquelle les études ultérieures sont construites pour évaluer des médicaments spécifiques et d'autres interventions, et elles peuvent également fournir le cadre d'analyses de biomarqueurs qui peuvent être utilisées pour cibler les traitements plus précisément.

Ce qui est difficile à quantifier, c'est le coût d'opportunité associé aux études qui ne se reproduisent pas. Les enquêteurs qui poursuivent une idée provocatrice et excitante mais qui ne sont pas basées sur des données solides consommeront des heures perdues pour une idée qui sera finalement rejetée. Pour les idées qui avancent dans les derniers stades de l'évaluation clinique ou qui sont même adoptées dans la pratique clinique pour être ensuite rejetées 17 , le coût peut être énorme.

Répondre à cette préoccupation est essentiel pour assurer la confiance et le soutien continus du public. Il est essentiel que le public, qui fournit directement et indirectement l'argent pour financer nos efforts de recherche et qui sont nos ambassadeurs les plus importants pour défendre l'importance de la recherche scientifique, ait confiance dans les processus que nous avons mis en place. Ils ont besoin de savoir que les données qui émergent en fin de compte ont une valeur réelle. Ils sont, après tout, les bénéficiaires ultimes qui récoltent les bénéfices de l'entreprise de recherche biomédicale.

Qu'est-ce qui constitue la reproductibilité ?

Il n'y a pas de consensus clair sur ce qui constitue une étude reproductible. La variabilité inhérente aux systèmes biologiques signifie qu'il n'y a aucune attente que les résultats seront nécessairement reproduits avec précision. Il n'est donc pas raisonnable de s'attendre à ce que chaque élément d'un rapport de recherche soit reproduit dans les moindres détails. Cependant, il semble tout à fait raisonnable que la ou les deux grandes idées ou conclusions majeures qui émergent d'un rapport scientifique soient validées et résistent à une interrogation approfondie.

Ce qui a secoué beaucoup dans le domaine, ce n'est pas que les enquêteurs soient incapables de reproduire avec précision une expérience. C'est à prévoir. Ce qui est choquant, c'est que dans de nombreux cas, la grande idée ou la conclusion principale n'a pas été confirmée simplement lorsque les expériences ont été réalisées par les mêmes enquêteurs en aveugle de leurs échantillons de test par rapport aux échantillons de contrôle. 2 L'explication de cela était évidente lorsque la méthodologie précise des expériences a été revue. Les chercheurs ont généralement effectué leurs expériences de manière non aveugle, de sorte qu'ils ont pu voir ce qu'ils s'attendaient à voir, et leur biais de recherche a ainsi pu être confirmé. 18 Le biais des observateurs est reconnu depuis longtemps comme un problème dans les études précliniques et au-delà, ce résultat ne devrait donc pas être surprenant. 19 Le biais de confirmation dans l'investigation scientifique rend inévitablement même les meilleurs scientifiques enclins à essayer de trouver des résultats ou des interprétations qui correspondent à leurs idées et théories préconçues. 20,21

En outre, les évaluations empiriques des études précliniques ont montré une série de problèmes, y compris, mais sans s'y limiter, le fait qu'il y avait un échec à répéter les expériences, à utiliser des contrôles légitimes, à valider les réactifs et à utiliser des tests statistiques appropriés. En plus de cela, les enquêteurs ont souvent sélectionné la meilleure expérience plutôt que de référencer l'ensemble des données. Ces pratiques ont conspiré pour garantir que non seulement les expériences individuelles ne pourraient pas être reproduites, mais que la conclusion principale de l'article n'était pas justifiée. 18

En outre, il est à noter que plusieurs publications non reproductibles ont été citées des centaines de fois. Des études cliniques ont été lancées sur la base de ces travaux. 2 Mais les auteurs des publications secondaires n'avaient pas cherché à reproduire ou falsifier réellement les conclusions des articles originaux.

Il y a là une tension reconnue. Il est raisonnable de s'attendre à ce qu'il y ait un certain niveau d'incertitude et d'irreproductibilité alors que les enquêteurs repoussent véritablement les limites des connaissances actuelles et s'étendent vers l'inconnu. Mais il est également raisonnable de s'attendre à ce que des procédures de recherche standard, telles que l'aveuglement de l'expérimentateur, soient utilisées et que l'irreproductibilité soit observée dans la minorité plutôt que dans la majorité des cas.

A beaucoup changé ?

L'incapacité de reproduire les résultats de la recherche est probablement un problème de longue date. Dans le passé, les enquêteurs partageaient en privé le travail que d'autres ne pouvaient pas reproduire. Il s'agissait d'un élément clé des échanges scientifiques qui se déroulaient généralement dans les couloirs ou les bars lors des réunions scientifiques.

Il s'agit d'un problème dans l'ensemble des sciences biomédicales et sociales (pour des exemples illustratifs, voir les tableaux 1 et 2). Cependant, le nombre croissant de revues de haut niveau a donné la parole à de nombreux articles qui, dans le passé, n'auraient pas reçu le même niveau de profil et d'exposition. Maintenant, l'ampleur même des études de haut niveau crée un défi pour tout chercheur de rester à jour. Le nombre de scientifiques publiant a augmenté au fil des ans, avec plus de 15 millions de scientifiques publiant ≥1 article qui a été indexé dans Scopus au cours de la période 1996-2011. 49 La recherche biomédicale est le domaine scientifique le plus prolifique à cet égard. Il est pratiquement impossible pour l'expert le plus averti de maintenir une connaissance directe du travail effectué par tant d'autres scientifiques, même lorsqu'il s'agit de sa discipline de base.

Tableau 1. Exemples de problèmes de reproductibilité signalés dans les études précliniques

ALS indique la sclérose latérale amyotrophique MIAME, informations minimales sur une expérience de microarray NGS, séquençage de nouvelle génération et VPA, acide valproïque (modèle de l'autisme).

Tableau 2. Domaines scientifiques de base supplémentaires où des préoccupations concernant la reproductibilité ont été soulevées

Cet enjeu est également amplifié par l'appétit du public pour de nouvelles avancées. Au cours des dernières années, une communauté de défense des patients de plus en plus informée, vocale et vigilante a émergé. Ces groupes ont joué un rôle important en aidant à rehausser davantage le profil de la recherche médicale. Ils ont effectivement plaidé en faveur d'investissements continus dans la recherche. Dans le même temps, ils ont clairement mis l'accent sur la productivité de la recherche et s'attendent à ce que les découvertes révolutionnaires se traduisent efficacement en médicaments améliorés. Et un média affamé est heureux de claironner ces percées à un public en attente.

Pourquoi cela arrive-t-il?

La grande majorité des chercheurs universitaires, des chercheurs de l'industrie, des rédacteurs en chef de revues, des investisseurs, du gouvernement et certainement des patients veulent et s'attendent à ce que les fonds de recherche précieux se traduisent par de nouvelles thérapies. L'attente est bien fondée : la preuve que la recherche biomédicale a eu un effet profond sur la santé humaine est indéniable. Pour être clair, le problème dont nous discutons ici n'est pas un problème de fraude scientifique. Ce n'est pas un échec de la méthode scientifique. C'est une conséquence d'un système qui est prêt à négliger et à ignorer le manque de rigueur scientifique et à récompenser à la place des résultats tape-à-l'œil qui génèrent un buzz ou une excitation scientifique. Il s'agit principalement de savoir comment les priorités sont équilibrées et de ne pas appliquer rigoureusement les méthodes scientifiques standard dans un environnement de recherche de plus en plus compétitif alors que les scientifiques se démènent pour obtenir leur part d'un budget de recherche national en baisse. 50 Bien que la fraude soit rare, le recours à des pratiques de recherche douteuses semble affecter la majorité des chercheurs. 51

Dans le domaine préclinique, il semble y avoir une croyance largement répandue, consciente ou inconsciente, qu'un processus de recherche rigoureux, qui suit ce que la plupart considéreraient comme une méthodologie scientifique standard (aveugle, répétition d'expériences, inclusion de contrôles positifs et négatifs, utilisation de réactifs validés, etc.), peut étouffer l'acte créatif et innovant de découverte. Ce n'est clairement pas le cas. Une observation inattendue et inexpliquée qui sert de premier indice de quelque chose de nouveau doit être testée rigoureusement. Il doit être répété et soigneusement confirmé avant d'être annoncé au monde. 52 Malheureusement, c'est rarement le cas actuellement. Au lieu de cela, il semblerait que de nombreux enquêteurs ressentent le besoin de se précipiter immédiatement dans l'impression avec une conclusion non confirmée et non confirmable.

Il est probablement pertinent de noter la preuve que les chercheurs qui sont assurés d'un financement de laboratoire plus cohérent et stable sont moins susceptibles de succomber aux pressions de la fraude. 53,54 Il semble raisonnable d'extrapoler et de suggérer que cela peut également être le cas pour les chercheurs qui bénéficient d'un financement de recherche garanti similaire, eux aussi peuvent être moins enclins à prendre des raccourcis avec leurs expériences et à utiliser des pratiques de recherche douteuses ou inférieures aux normes. Peut-être un peu paradoxalement alors, il est raisonnable de s'attendre à ce que si le financement de la recherche par habitant (par chercheur) diminue davantage, nous devrions nous attendre à ce que ce problème soit encore plus évident : le besoin d'être le premier, avec ses récompenses concomitantes, l'emportera sur le besoin avoir raison.

Ce qui peut être fait?

Relever ce défi peut nécessiter une approche à plusieurs volets, il n'y a pas de solution unique et plusieurs initiatives en cours peuvent avoir un effet positif. Ce qui semble émerger à maintes reprises, c'est l'échec des chercheurs, examinateurs et éditeurs individuels à se conformer aux directives convenues et bien établies pour la conduite de la recherche expérimentale. Bien qu'il n'y ait aucune incitation directe pour les enquêteurs à se conformer, il semble que ce n'est généralement pas le cas.

Les recommandations convenues pour les études pharmacologiques sont ignorées

Il y a eu des appels pour une approche plus rigoureuse de la conception expérimentale avec certaines disciplines consacrant des efforts considérables pour remédier à l'incapacité de traduire la recherche préclinique en succès clinique. Par exemple, dans le domaine de la pharmacologie afin d'améliorer la qualité des études animales, les chercheurs ont plaidé en faveur d'une focalisation sur la recherche de tests d'hypothèse 40 , un plan de recherche prospectif et rigoureux pour les études précliniques, 38 la formation et une utilisation plus appropriée des statistiques, 41 et la réalisation des études requises, telles que les analyses pharmacocinétiques avant toute évaluation de l'efficacité potentielle. 39 Ces recommandations sont largement approuvées et soutenues. Henderson et al 37 sont parvenus à des conclusions similaires après leur revue de la littérature. Parmi les recommandations les plus courantes figuraient la mise en aveugle de l'évaluation des résultats, l'attribution aléatoire des animaux, le calcul de la puissance pour déterminer la taille de l'échantillon, l'utilisation de témoins positifs et négatifs, la détermination de la dose-réponse, la réplication dans différents modèles et la réplication indépendante.

Bien que ceux-ci soient essentiels à l'interprétation appropriée des études animales, ils sont encore largement négligés.Une étude particulièrement troublante 28 a révélé que seulement 9 % des études utilisaient la bonne unité expérimentale dans leurs analyses et, en outre, que la variation comportementale entre les portées de souris était supérieure à l'effet de traitement rapporté. Cet échec à adopter des lignes directrices reconnues et largement soutenues soulève la question suivante : comment la communauté s'assure-t-elle que les recommandations clés sont intégrées dans l'effort de recherche ? Comment est-ce surveillé ?

Divulgation des données et recherche en omique : les directives sont ignorées

Un autre domaine qui a retenu l'attention est l'analyse de grands ensembles de données et les outils informatiques nécessaires pour les analyser. Il y a plusieurs problèmes communs avec la recherche en omique.

Il a été reconnu il y a plus d'une décennie que les expériences impliquant la technologie des matrices étaient potentiellement semées de problèmes. Pour résoudre ce problème, une exigence de dépôt obligatoire de données complètes a été recommandée en 2001 et rapidement adoptée par de nombreuses revues. Ces informations minimales sur une norme d'expérimentation de puces à ADN ont été largement acceptées par les chercheurs et les revues. Cependant, bien qu'elle ait été acceptée comme la norme souhaitée il y a plus d'une décennie, la conformité reste un problème. Une analyse des données de publications très médiatisées sur les puces à ADN parues entre 2005 et 2006 dans Nature Genetics a reproduit les résultats de seulement 2 des 18 articles réanalysés. La principale raison de l'échec était le manque de disponibilité des données brutes originales. 22 Une étude de 127 articles sur les études de microarrays publiés entre juillet 2011 et avril 2012 a révélé que ≈ 75 % n'étaient toujours pas des informations minimales sur une expérience de microarray conforme. De plus, la réanalyse des données n'a souvent pas soutenu les conclusions initiales. 30 Des observations similaires ont été faites par d'autres. 23,25 Une analyse de 500 articles dans les 50 meilleures revues dans tous les domaines scientifiques (celles avec les facteurs d'impact les plus élevés) a révélé que seulement 9 % avaient déposé des données primaires complètes en ligne. 55

Il convient de noter que la National Science Foundation et les National Institutes of Health ont formulé des déclarations fermes exigeant la divulgation des ensembles de données et le partage de logiciels, mais aucune n'est systématiquement appliquée : la conformité reste à la discrétion des enquêteurs.

De plus, la majorité des revues interrogées (105 sur 170 revues) dans une évaluation récente ne se sont pas conformées au rapport 2003 des National Academies exigeant que les revues indiquent clairement et bien en évidence (dans les instructions aux auteurs et sur leurs sites Web) leurs politiques de distribution. de documents, de données et d'autres informations liés à la publication. 33 Des appels similaires sont venus de nombreuses directions et avec un plaidoyer pour soutenir uniquement les revues qui soutiennent la recherche reproductible. 56-62 Ces études renforcent l'importance de l'accès aux données primaires. De plus, les données suggèrent qu'une réticence à fournir un tel accès est un marqueur d'une étude de qualité inférieure.

Il existe des problèmes supplémentaires avec la recherche en omique au-delà de l'accès aux données et des recommandations spécifiques ont été proposées pour les résoudre, en particulier en ce qui concerne la nécessité d'effectuer des validations indépendantes de tous les résultats qui émergent de ces analyses. 63

Des problèmes de fond persistent encore dans les études impliquant de grands ensembles de données. À titre d'exemple récent, lorsque l'activité de 15 médicaments oncologiques a été directement comparée dans de grandes études de pharmacogénomique à partir de 2 ensembles de données indépendants, l'un généré au Dana-Faber Cancer Institute et l'autre au Massachusetts General Hospital, il y avait peu ou pas de cohérence, même si les mêmes 471 lignées cellulaires ont été examinées. 29,64 Bien que le manque de cohérence ait pu être attribué à des différences dans les lignées cellulaires utilisées, cela semble peu probable. Au contraire, cela représente probablement un manque de standardisation des tests expérimentaux et des méthodes d'analyse. 29

Nous obtenons ce que nous encourageons

Il est intéressant d'observer ce qui s'est passé dans la littérature en psychologie. Certaines des expériences psychologiques les plus provocatrices n'ont pas pu être reproduites. Par exemple, l'effet allégué d'un amorçage positif ou négatif n'a pas été confirmé lorsque les expériences ont été rigoureusement répétées. 65 La publication de ce résultat négatif est inhabituelle. Au lieu de cela, les enquêteurs ont noté que le taux de résultats positifs en science psychologique (comme dans de nombreux domaines biomédicaux) approche de 90 à 100 %. 66 La plupart des hypothèses sont confirmées, et les sceptiques ont conclu que soit nous nous approchons de l'omniscience, soit nos revues publient un échantillon non représentatif des recherches terminées. 48 Il est probable que ce biais envers les études qui confirment une hypothèse favorite s'étend sur tout le spectre scientifique. 2,67–69 Une analyse de 525 études précliniques sur l'AVC a révélé que seulement 2 % ont signalé une absence d'effet sur l'AVC, ce qui a conduit les auteurs à conclure qu'il pouvait exister un grave biais de publication. 24 Dans une autre analyse de plus de 4445 ensembles de données impliquant des études animales de maladies neurologiques, il a été également conclu que la majorité des données ont peut-être été supprimées ou remaniées de manière à ce que des études vraiment négatives soient publiées comme des résultats positifs - il y avait tout simplement trop de nombreux résultats positifs publiés pour être vrais. 27 En conséquence, bien que la grande majorité des interventions pour les maladies neurologiques semblaient efficaces dans les études animales, peu ont eu des résultats favorables lorsqu'elles ont été testées chez l'homme.

En outre, la reconnaissance du fait que dans la recherche psychologique, l'utilisation de plusieurs échantillons plus petits et de faible puissance est plus susceptible de fournir un résultat positif grâce à une analyse sélective et à des rapports sur les résultats que l'utilisation d'un échantillon plus grand et de puissance appropriée 70 imprègne également d'autres domaines biomédicaux. 71 De même, les puissantes incitations qui favorisent la nouveauté par rapport à la réplication ne sont certainement pas uniques aux études psychologiques. 72 Pour tenter de répondre de manière proactive à ces préoccupations, le projet de reproductibilité a été créé. Il s'agit d'un effort coopératif à grande échelle pour examiner la reproductibilité dans les études de psychologie 73 et pourrait servir de modèle pour d'autres disciplines.

Plusieurs suggestions réfléchies ont été faites par de nombreux chercheurs, dont certaines sont énumérées dans le tableau 3. Bien qu'une revue systématique de la littérature n'ait pas été effectuée, il existe une concordance substantielle en termes de ces recommandations, avec des points communs entre diverses disciplines et stades de recherche. Le problème fondamental avec la plupart, sinon toutes, de ces propositions est l'exigence pour les chercheurs, les institutions et les revues de se conformer volontairement : il n'est pas du tout clair comment des recommandations raisonnables seront mises en œuvre ou contrôlées alors qu'elles restent volontaires. Inversement, si elles devaient être obligatoires, il faudrait alors examiner attentivement comment elles seraient appliquées et par qui. Les détails sur la façon de faire fonctionner ces changements peuvent avoir un effet majeur sur leur efficacité.

Tableau 3. Quelques propositions pour améliorer la rigueur expérimentale et la qualité de la recherche préclinique

Initiatives supplémentaires

Plusieurs autres initiatives sont en cours pour tenter d'aider ce processus. Nous énumérons ici quelques exemples. Le cadre d'information sur les neurosciences a été créé pour définir les ressources disponibles à la communauté de recherche pour faire avancer la recherche en neurosciences. 79 Les chercheurs qui étudient les lésions de la moelle épinière ont défini les informations minimales sur une expérience de lésion de la moelle épinière dans le but d'améliorer les résultats de la recherche sur les lésions de la moelle épinière. 80 Ils ont proposé l'inclusion de détails expérimentaux spécifiques en plus d'éléments plus généraux de la conception de l'étude, tels que la mise en aveugle de l'expérimentateur, la randomisation des animaux, des cohortes de taille suffisante, l'inclusion de témoins. 18,81

Le Global Biological Sciences Institute vise à établir un ensemble de normes harmonisées et consensuelles pouvant être appliquées aux outils de recherche couramment utilisés. Un ensemble convenu d'outils validés représenterait une avancée significative. Mais même avec des outils validés, les faire accepter sera un défi. Ceci est illustré par la lignée cellulaire MDA-MB-435 qui a des centaines de citations l'identifiant faussement comme une cellule mammaire. Malgré des rapports définitifs l'identifiant comme une cellule de mélanome, 82,83 au moment de la rédaction, depuis 2010, il y a eu plus de 170 rapports continuant à l'identifier à tort comme une cellule du sein et seulement 47 rapports l'identifiant correctement comme une cellule de mélanome (Begley inédit). Un ensemble de données organisé et accessible au public avec une liste de réactifs facilement consultables pourrait grandement contribuer à résoudre ce type de problème.

Un autre projet récent est l'Initiative de reproductibilité, qui cherche à examiner la reproductibilité des 50 études de biologie du cancer les plus percutantes publiées entre 2010 et 2012.84 Cette initiative est exploratoire et peut offrir des informations utiles. Il offre potentiellement l'opportunité de débattre et de clarifier au sein de la communauté scientifique ce qui constitue une réplication adéquate et appropriée, qui devrait effectuer ces études de réplication et comment elles sont effectuées au mieux. 52

Academia.edu adopte une approche différente, en essayant de créer un système de publication alternatif où les articles sont mis à disposition rapidement et avec le processus d'examen par les pairs ayant lieu après la publication. Ils espèrent également rendre la recherche disponible gratuitement.

Ces efforts sont tous encore à un stade embryonnaire, et bien que leur valeur reste à déterminer, il est encourageant de voir l'approche large qui est adoptée par la communauté scientifique.

Le National Institute of Health a indiqué qu'il prendrait également plusieurs mesures, notamment une formation supplémentaire au sein du programme intra-muros du National Institute of Health, un examen plus systématique des demandes de subvention, un accès plus transparent aux données, un forum en ligne pour la discussion des articles publiés ainsi que avec d'autres mesures envisagées. 50 Parmi ceux-ci, le plus important est peut-être l'accent mis sur l'éducation. Il s'agit d'une initiative cruciale. Il est essentiel que la prochaine génération de chercheurs soit mieux formée en termes de conception, d'exécution et d'interprétation des expériences. Un élément clé de cet effort devra être l'instruction en termes de sélection et de nettoyage appropriés des données pour la présentation. Cette initiative contribuera à répondre à la préoccupation selon laquelle les jeunes chercheurs pourraient ne pas bénéficier d'une formation ou d'un mentorat personnalisés adéquats s'ils se trouvent dans des laboratoires où le chercheur principal n'est pas en mesure de fournir une attention individuelle de manière régulière.

Perspective de changement réaliste ?

Malgré les défis évidents auxquels nous sommes confrontés, il convient de rappeler que des changements substantiels ont eu lieu au cours des dernières décennies dans les processus d'essais cliniques, et des progrès similaires peuvent également être réalisés pour la recherche préclinique. Bien qu'il ait fallu beaucoup de temps pour parvenir à un consensus plus large sur l'importance d'une randomisation appropriée, d'une mise en aveugle (lorsque cela est faisable et approprié) et d'un enregistrement dans les essais cliniques, ceux-ci sont désormais largement acceptés comme la norme et le non-respect (par exemple, non-enregistrement) est pénalisé (par exemple, par l'impossibilité de publier dans la plupart des grandes revues). Lorsque ces changements ont été introduits, certains médecins ont exprimé, du moins en privé, la crainte que ces changements n'étouffent la recherche clinique. En fait, cela a introduit un nouveau niveau de fiabilité et de confiance dans l'effort de recherche clinique. Il y a encore de nombreux défis bien sûr. La disponibilité publique des données des essais cliniques reste sous-optimale. 85,86 Les protocoles de recherche et les rapports d'étude complets restent difficiles d'accès. L'accès transparent aux données clés qui sous-tendent les conclusions cliniques doit encore être largement abordé. 9 De plus, de nombreux essais cliniques restent non randomisés sans aucune raison valable, en particulier dans les recherches de phase I et II. 87 Cependant, malgré ces préoccupations réelles, l'état actuel de la planification, de l'exécution et de l'interprétation des essais cliniques est différent et probablement considérablement amélioré par rapport à ce qu'il était il y a plusieurs décennies et largement supérieur à la situation de la recherche préclinique.

À l'heure actuelle, le niveau de contrôle, de rigueur et de responsabilité observé dans les essais cliniques (même avec leurs déficiences résiduelles) est actuellement inimaginable dans le domaine préclinique 88 où beaucoup reste encore à la discrétion de l'investigateur individuel. Bien qu'il semble peu probable que ce schéma puisse se poursuivre, la notion de surveillance accrue des études précliniques a longtemps été proposée. 89,90 Le modèle actuel d'autorégulation et d'autocensure des chercheurs ne semble pas assez bien servir la communauté scientifique. Bien que la recherche clinique et préclinique présentent des différences majeures, bon nombre des enseignements tirés de la recherche clinique peuvent également être pris en compte pour une application plus systématique en recherche préclinique.

Outre les changements intervenus dans la pratique clinique, il est important de rappeler les changements introduits avec succès dans la recherche fondamentale et préclinique. Bon nombre d'entre elles sont maintenant intégrées dans la pratique de recherche standard et sont acceptées comme des procédures de routine. En conséquence, il existe désormais des limites appropriées sur la manipulation de matières radioactives, des recommandations concernant le clonage d'ADN, des comités pour assurer un accès approprié aux recherches sur les tissus humains, des garanties pour protéger les chercheurs lors de l'utilisation d'échantillons humains, des directives concernant l'utilisation de rétrovirus, des réglementations sur les expériences avec des cellules souches et des comités pour assurer un traitement approprié des animaux en recherche. L'introduction de chacun d'entre eux a été associée à une certaine augmentation de la bureaucratie et à une réticence importante de la part de certains enquêteurs : l'introduction de réglementations et de contrôles pour le clonage d'ADN a été vivement débattue au début des années 1970. À cette époque, Watson s'opposait fortement aux protocoles réglementaires 91 , tandis que d'autres scientifiques, dont Singer et Berg, prenaient l'initiative de promouvoir une approche responsable dans le domaine jeune. 92,93 Il existe des parallèles évidents dans le débat actuel concernant l'étendue et l'importance de la science reproductible. 64

Une fois les lignes directrices et les règlements introduits, ces mesures sont généralement restées en place. Cependant, au moins pour certains (par exemple, les contrôles sur le clonage de l'ADN et les cellules souches embryonnaires), les contrôles se sont assouplis à la lumière des nouvelles informations scientifiques et d'un environnement social et biomédical en évolution. 92–95

Bien qu'il ne soit pas possible de démontrer une amélioration directe de l'entreprise de recherche à la suite de ces changements, pour ceux qui se souviennent du temps avant leur introduction, il semble évident qu'il y a une amélioration de la sécurité des chercheurs grâce à la formation à l'utilisation de les matières radioactives et les garanties concernant les agents infectieux potentiels. Il semble intuitivement évident que ces changements ont entraîné une amélioration des soins aux animaux et une meilleure protection des droits des patients. Mais il ne fait aucun doute que cela a eu un coût en termes de bureaucratie accrue, de demandes accrues de temps pour les enquêteurs et de responsabilité institutionnelle accrue.

Rôle des rédacteurs, des réviseurs et des revues

Il a été avancé que les éditeurs, les évaluateurs et les revues doivent assumer une responsabilité substantielle pour la situation actuelle. 96 Bon nombre des incitations perverses qui stimulent les publications scientifiques, et donc construisent et soutiennent les carrières, pourraient être plus étroitement réglementées à ce niveau. 75

Plusieurs revues ont introduit de nouvelles lignes directrices pour les auteurs et ont fait des propositions spécifiques qui tentent de résoudre les problèmes de méthodologie scientifique préclinique identifiés ci-dessus. 62,97,98 Ces directives tentent de mettre davantage l'accent sur la réplication, la validation des réactifs, les méthodes statistiques, etc. Cela devrait rendre plus difficile l'acceptation des articles car les revues nécessiteront des contrôles et une validation supplémentaires. Se conformer à ces exigences augmentera l'effort des enquêteurs, mais la littérature peut devenir plus fiable. De nouvelles normes devraient, espérons-le, améliorer la qualité des publications scientifiques. Cependant, il convient à nouveau de noter la différence entre avoir des normes en place et s'assurer que ces normes sont respectées : cela continue de poser problème. 34,35

La surveillance de l'effet des changements de politique est justifiée : il n'y a aucune valeur à simplement augmenter le fardeau de la bureaucratie. Il est possible que certaines nouvelles politiques aient les meilleures intentions, mais puissent entraîner des conséquences négatives par inadvertance. Il existe également un potentiel de réponses normatives où les chercheurs concentrent leur attention sur la satisfaction de tout nouvel élément de la liste de contrôle qui leur est demandé, mais ne parviennent pas à améliorer le programme global de leur recherche.

Étant donné que la plupart des initiatives de changement se font au sein de revues ou de sous-domaines scientifiques uniques, il existe une fragmentation et un manque de cohérence dans les messages transmis et dans les politiques adoptées. Par exemple, malgré les améliorations apportées aux Directives aux auteurs et malgré la reconnaissance depuis des décennies de la nécessité de la mise en aveugle des investigateurs19, il semble toujours y avoir une réticence générale à exiger la mise en aveugle des investigateurs même lorsque des critères d'évaluation subjectifs sont évalués. Comme pour cette revue, même les revues qui ont retravaillé leurs Directives aux auteurs n'exigent toujours pas la mise en aveugle des chercheurs dans l'évaluation des données précliniques subjectives. Contrairement aux essais cliniques où l'insu n'est pas toujours faisable ou pratique, dans la plupart des investigations précliniques, l'insu devrait être simple à adopter (à quelques exceptions près). Cet oubli est difficile à comprendre, mais il est vraisemblablement le reflet d'une réticence et d'une résistance de la part de la communauté des enquêteurs.

Il y a également eu des propositions éditoriales spécifiques visant à récompenser les chercheurs pour la qualité scientifique plutôt que la quantité, récompenser les expériences de confirmation et publier des données négatives, peut-être même de manière préférentielle. 99 La proposition de reconsidérer la nécessité de trouver une pertinence clinique dans la recherche à un stade précoce est particulièrement intrigante. 75 Bien que ces recommandations aient un sens intuitif, un défi majeur est de savoir comment elles seraient introduites et comment leur effet serait évalué. Une autre suggestion est que les éditeurs pourraient solliciter ouvertement des études de réplication pour des résultats particulièrement pertinents, avec un processus d'appel d'offres et l'exigence d'une approche expérimentale rigoureuse. 74 Cependant, les laboratoires susceptibles de répondre à une telle demande peuvent ne pas être les laboratoires idéaux pour réaliser de telles études. 52

Bien qu'il soit facile de désigner les rédacteurs et les relecteurs des revues comme le principal domaine d'amélioration, cela ne tient pas compte du fait que la publication des données est l'étape finale d'un long processus. Les examinateurs ne peuvent pas savoir quelles données les enquêteurs ont choisi d'exclure. Les évaluateurs ne peuvent pas savoir si les données ont été regroupées post hoc simplement pour créer la meilleure histoire. Par nécessité, ils prennent le travail pour argent comptant. De plus, il y a peu de reconnaissance pour les réviseurs qui entreprennent leur travail avec diligence : ils ont beaucoup de temps à consacrer, et la révision d'un article peut être la priorité la plus basse. En fait, la récompense pour les réviseurs consciencieux peut être une augmentation disproportionnée des demandes de révision !

Enfin, en particulier dans les revues de premier plan, l'accent est clairement mis sur les investigations exploratoires qui sont au cœur de cette problématique.97 On leur pardonne le même niveau de rigueur qui est exigé des études de test d'hypothèses, 97,98 mais en termes de valeur pronostique, ils sont plus directement comparables aux études cliniques de phase 1. Bien que l'accent mis sur les enquêtes exploratoires soit compréhensible, après tout, elles génèrent un buzz scientifique, elles doivent être étiquetées pour ce qu'elles sont et considérées avec le niveau élevé de scepticisme qu'elles méritent. 98

Retour au début : améliorer le processus d'examen des subventions

Bien qu'une grande partie du problème soit liée à notre système actuel de publication scientifique, ce n'est que l'étape finale du processus de recherche. Ce dont nous avons vraiment besoin, c'est peut-être d'une concentration beaucoup plus stricte sur le processus d'approbation des subventions. Les agences de financement de la recherche ont la responsabilité principale de la réduction des déchets qui émanent de la façon dont les précieux fonds de recherche sont investis. 5

Comme pour ceux qui examinent les articles scientifiques en vue de leur publication, les membres du comité des subventions sont des personnes très occupées qui sont rarement reconnues ou récompensées pour un examen détaillé et minutieux. Il est prouvé que les subventions qui sont financées ont plus de similitudes dans leurs thèmes avec les intérêts des membres de la section d'étude que les subventions non financées. 100 Les examinateurs de subventions peuvent être plus susceptibles de souffrir d'un parti pris d'allégeance favorisant les subventions qui correspondent à leurs propres croyances et intérêts. Il existe également des preuves que l'examen actuel des subventions est inefficace et n'est pas réceptif aux innovations prêtes à l'emploi. Différentes approches de l'allocation des fonds de recherche ont été proposées. 101 Beaucoup d'entre eux se concentreraient davantage sur l'évaluation du mérite des personnes plutôt que sur les projets.

Pour juger du mérite des personnes, il est important d'identifier des mesures rigoureuses qui récompensent la qualité et la reproductibilité plutôt que le volume et la quantité. Un indice PQRST a été proposé pour évaluer les chercheurs 102 à partir des initiales de productivité, de qualité, de reproductibilité, de partage et de potentiel translationnel. La prise en compte de ces dimensions peut améliorer la situation actuelle. Cependant, l'évaluation de la qualité peut être l'un des aspects les plus difficiles de juger le travail et les antécédents d'un enquêteur. Une telle évaluation peut nécessiter une disponibilité plus transparente des informations sur la conception de l'étude et la conduite d'études antérieures par un chercheur. Cela nécessite également un certain consensus sur les caractéristiques de qualité clés qui sont les plus importantes dans chaque domaine (par exemple, si les expériences ont été réalisées en aveugle, avec les réactifs appropriés, les expériences répétées, si les ensembles de données sont accessibles au public, etc.). 18 À cet égard, il convient à nouveau de noter la concordance relative des idées entre les domaines quant à ce qui constitue une recherche de qualité (tableau 3). On s'attend à ce que les indicateurs de qualité qui acquièrent le pouvoir d'éclairer les décisions de financement s'améliorent : l'adoption d'un score de qualité inciterait fortement les scientifiques à améliorer leurs performances spécifiquement dans les dimensions capturées par ce score. De manière optimiste, si ces indicateurs sont choisis judicieusement et qu'ils représentent suffisamment la qualité du travail, il existe une réelle possibilité que la qualité de la recherche proposée et menée s'améliore véritablement. Plus pessimiste, les chercheurs peuvent simplement voir cela comme une autre liste de contrôle qu'ils doivent satisfaire et qui n'a aucun effet réel sur l'amélioration de leur recherche. 6 Encore une fois, il serait essentiel d'inclure un élément de suivi à côté d'un changement de processus qui tente de reconnaître la qualité. La question générale est actuellement à l'étude par le National Institute of Health leadership 50 et donne un certain optimisme quant au fait que les indicateurs de qualité seront pris en compte dans le processus d'examen des subventions à l'avenir.

Une proposition simple est que les comités devraient s'attendre à ce que toutes les analyses subjectives soient effectuées par des chercheurs en aveugle. Il devrait également être exigé que les réactifs soient validés, qu'un nombre minimum de réplicats soit évalué et que des contrôles appropriés soient inclus. 18,37 Ces exigences doivent être explicitement énoncées et inclure un plan de recherche défini et rigoureux. 38 Malheureusement, ces aspects d'une proposition de recherche sont souvent considérés comme insignifiants et sont tenus pour acquis : on suppose que si l'idée est bonne, cette méthode scientifique rigoureuse et prudente sera utilisée.

Responsabilité institutionnelle

La responsabilité principale des résultats de la recherche incombe au chercheur et à son institution d'accueil. Actuellement, la science fonctionne selon le modèle de confiance qui n'est plus considéré comme approprié dans la vie des entreprises ni au gouvernement. 72 Il a été avancé qu'il est également nécessaire que les institutions assument un plus grand rôle de leadership. 9

Une proposition est que pour les institutions qui reçoivent un financement fédéral de la recherche, il devrait y avoir une attente qu'elles se conforment aux bonnes pratiques institutionnelles (analogues, par exemple, aux bonnes pratiques de fabrication ou aux bonnes pratiques de laboratoire). Cela garantirait que les établissements s'engagent à être reconnus et récompensés pour assurer une norme de recherche minimale parmi leurs employés. Un inconvénient est que cela augmentera nécessairement le fardeau des enquêteurs et des institutions. Il est essentiel de choisir les bonnes cibles ou les éléments à inclure dans les bonnes pratiques institutionnelles et d'éviter simplement d'aggraver la bureaucratie de la recherche. En plus d'améliorer la qualité globale de nos efforts de recherche, bon nombre de ces recommandations auraient/devraient avoir un avantage immédiat pour l'institution elle-même, à la fois en termes de qualité du personnel qu'elles attirent et de capacité à commercialiser leur recherche (voir le tableau 4 pour des illustrations exemples).

Tableau 4. Problèmes qui pourraient être traités par une politique de bonnes pratiques institutionnelles pour la recherche fondamentale

Les établissements pourraient avoir une politique déclarée concernant leurs attentes en matière de qualité de la recherche menée au sein de leurs laboratoires. Par exemple, cela peut inclure une exigence selon laquelle les points finaux subjectifs ne sont évalués que par des enquêteurs ignorant les bras expérimentaux. Lorsque la question de la mise en aveugle des expériences est discutée avec les chercheurs principaux, une préoccupation commune est que plusieurs chercheurs sont nécessaires pour que la mise en aveugle soit efficace. C'est bien sûr le point. Au sein d'un laboratoire individuel, cela peut nécessiter que les étudiants et les stagiaires postdoctoraux travaillent ensemble sur un projet. Bien que le partage d'un projet et le partage de données soient contraires à l'éthique qui prévaut dans de nombreux laboratoires, travailler ensemble sur une même expérimentation offre un niveau de recoupement, de validation croisée et d'objectivité qui serait bénéfique. 9

L'établissement a une responsabilité envers le personnel, les étudiants et les stagiaires postdoctoraux. Une formation annuelle obligatoire de remise à niveau pour tous les chercheurs principaux en matière de conception expérimentale, d'utilisation de contrôles, d'utilisation de réactifs validés, de sélection de données, de tests statistiques, etc. devrait être la norme. Il devrait y avoir une formation similaire aux méthodes expérimentales pour les jeunes chercheurs : c'est un domaine où il y a place à l'amélioration, même parmi les institutions très réputées. 103

Les institutions peuvent également contribuer à améliorer les normes de transparence, par exemple en adoptant des politiques indiquant que les données brutes doivent être mises à disposition sur demande.

Les établissements peuvent également servir l'objectif d'améliorer la crédibilité et l'efficacité de la recherche s'ils adoptent des normes de nomination et de promotion qui, au lieu de s'appuyer sur la publication dans des revues de premier plan comme substitut de la qualité, reconnaissent l'importance des résultats de recherche reproductibles plutôt que des rapports tape-à-l'œil et non fondés. 6,7

Bien que de nombreux enquêteurs soient clairement capables de s'autoréguler, de s'autocontrôler et de s'autocensurer, beaucoup d'autres ne le sont pas. Pour ces enquêteurs, nous suggérons que leur institution pourrait avoir des processus pour s'assurer qu'il existe un niveau de contrôle supplémentaire qui peut agir comme un filet de sécurité pour garantir les comportements scientifiques les plus appropriés.

Conclusion

Il est impossible d'endosser une approche qui suggère que nous procédions à un investissement continu dans la recherche qui produit des résultats dont la majorité ne peut être justifiée et ne résistera pas à l'épreuve du temps.

Il est temps de repenser les méthodes et la standardisation des pratiques de recherche. Ces sujets ne sont pas aussi superficiellement passionnants que les études exploratoires qui suscitent souvent un intérêt plus large, mais leur effet peut être beaucoup plus répandu dans l'entreprise de recherche.

Il est clair que tous les enquêteurs ne sont pas d'accord. Beaucoup sont d'accord avec le point de vue selon lequel nous ne pouvons pas nous permettre de suspendre les programmes de découverte pendant que nous repensons aux méthodes et à la normalisation. 64 Nous offrons une perspective différente. Si cela signifie (et c'est probablement le cas) suspendre certaines avancées présumées, cela est tout à fait approprié si ces avancées vantées ne sont pas vraiment reproductibles et vraiment utiles. Si cela signifie (et c'est probablement le cas) augmenter l'investissement dans la formation à la recherche et l'infrastructure de recherche au détriment à court terme d'un plus grand nombre de recherches de laboratoire, cela est également approprié si l'investissement finira par améliorer le rendement de toute recherche de laboratoire effectuée.

Les actions correctives peuvent nécessiter d'impliquer plusieurs des parties prenantes discutées ci-dessus en combinaison (voir le tableau 5 pour quelques recommandations spécifiques). Par exemple, si les agences de financement prennent des mesures appropriées mais que celles-ci ne sont pas adoptées par les institutions ou les revues, les bénéfices peuvent ne pas être récoltés. Nous devons également reconnaître que bien qu'il existe de nombreuses bonnes idées sur la façon d'améliorer les pratiques de recherche, leur mise en œuvre exacte peut être un défi. Il serait important d'obtenir des preuves, idéalement issues d'études expérimentales, sur l'effet des changements dans les pratiques de recherche et l'effet des changements proposés devrait être correctement surveillé.


  • Aligner davantage les normes sur l'enregistrement des essais cliniques
  • Responsabilité de protéger les sujets animaux contre les dommages injustifiés
  • Protège à la fois les institutions et les individus en aval qui s'appuient sur des données précliniques
  • Il compromet l'avantage stratégique des développeurs de médicaments en permettant le profit des investissements dans le développement clinique.
  • Si la logique soutenant les bonnes pratiques de divulgation s'étend aux études précliniques, s'étend-elle également à la science fondamentale ?
  • Coût pour les enquêteurs

La plupart des recherches précliniques en sciences de la vie sont des lits superposés non reproductibles

deux villes

La science biomédicale est brisée, selon une nouvelle étude. Dans leur article « The Economics of Reproductibility in Preclinic Research », publié dans la revue Biologie PLoS, une équipe de chercheurs dirigée par Leonard Freedman du Global Biological Standards Institute rapporte que plus de la moitié de la recherche préclinique ne peut pas être reproduite par d'autres chercheurs. Extrait du résumé :

Les faibles taux de reproductibilité dans la recherche en sciences de la vie sapent la production cumulative de connaissances et contribuent à la fois aux retards et aux coûts de développement de médicaments thérapeutiques. Une analyse des études antérieures indique que la prévalence cumulative (totale) de la recherche préclinique non reproductible dépasse 50 %, ce qui entraîne environ 28 000 000 000 USD (28 milliards USD)/an consacrés à la recherche préclinique qui n'est pas reproductible, aux États-Unis seulement.

En 2012, j'ai rendu compte d'autres études qui ont également révélé que les résultats d'environ 9 articles biomédicaux sur 10 ne pouvaient pas être reproduits :

La revue scientifique La nature a publié un commentaire troublant affirmant que dans le domaine de la recherche préclinique - qui implique des expériences effectuées sur des rongeurs ou des cellules dans des boîtes de Pétri dans le but d'identifier des cibles possibles pour de nouveaux traitements chez l'homme - des chercheurs indépendants faisant la même expérience ne peuvent pas obtenir le même résultat que celui rapporté dans la littérature scientifique.

Le commentaire a été rédigé par l'ancien vice-président de la recherche en oncologie de la société pharmaceutique Amgen Glenn Begley et le chercheur du M.D. Anderson Cancer Center, Lee Ellis. Ils expliquent que les chercheurs d'Amgen ont tenté de confirmer les résultats de la recherche universitaire à partir d'études scientifiques publiées à la recherche de nouvelles cibles pour le traitement du cancer. Sur 10 ans, les chercheurs d'Amgen ont pu reproduire les résultats de seulement six des 53 articles phares. Begley et Ellis appellent cela un "résultat choquant". Il est.

Et il y a dix ans, dans son article révolutionnaire, "Pourquoi la plupart des résultats de recherche publiés sont faux", John Ioannidis, statisticien de l'université de Stanford, a trouvé :

On craint de plus en plus que la plupart des résultats de recherche publiés actuellement soient faux. La probabilité qu'une affirmation de recherche soit vraie peut dépendre de la puissance et du biais de l'étude, du nombre d'autres études sur la même question et, surtout, du rapport entre les relations vraies et nulles parmi les relations sondées dans chaque domaine scientifique. Dans ce cadre, un résultat de recherche est moins susceptible d'être vrai lorsque les études menées dans un domaine sont plus petites lorsque les tailles d'effet sont plus petites lorsqu'il y a un plus grand nombre et moins de présélection de relations testées lorsqu'il y a une plus grande flexibilité dans les conceptions, les définitions, les résultats , et des modes analytiques lorsqu'il y a un intérêt et des préjugés financiers et autres plus importants et lorsque plus d'équipes sont impliquées dans un domaine scientifique à la recherche d'une signification statistique. Les simulations montrent que pour la plupart des conceptions et des paramètres d'étude, il est plus probable qu'une affirmation de recherche soit fausse que vraie. De plus, pour de nombreux domaines scientifiques actuels, les résultats de recherche revendiqués peuvent souvent être simplement des mesures précises du biais dominant.

La science est censée construire et organiser les connaissances sous la forme d'explications et de prédictions vérifiables. Si les résultats de recherche rapportés ne peuvent pas être reproduits de manière fiable, ils ne sont pas scientifiques.


La « crise » de la reproductibilité

Le débat sur une crise de reproductibilité couve depuis des années maintenant, amplifié par les inquiétudes croissantes concernant un certain nombre d'études de reproductibilité qui n'ont pas réussi à reproduire les résultats positifs précédents. Des preuves supplémentaires provenant d'une méta-analyse plus large d'articles antérieurs indiquent également un manque de reproductibilité dans la recherche biomédicale avec des conséquences potentiellement désastreuses pour le développement de médicaments et l'investissement dans la recherche. L'une des plus grandes méta-analyses a conclu que de faibles niveaux de reproductibilité, au mieux environ 50 % de toutes les recherches biomédicales précliniques, retardaient les thérapies vitales, augmentaient la pression sur les budgets de recherche et augmentaient les coûts de développement de médicaments 1 . L'article affirmait qu'environ 28 milliards de dollars US par an étaient dépensés en grande partie en vain pour la recherche préclinique aux États-Unis seulement.

Un problème de statistiques

Cependant, l'affirmation selon laquelle un niveau de reproductibilité de 50% équivaut à une crise, ou que de nombreuses études originales étaient vraiment infructueuses, a été contestée par certains spécialistes de la réplication. « Un niveau de reproductibilité de 50 % est généralement considéré comme mauvais, mais c'est une erreur complète de ce à quoi s'attendre », a commenté Jeffrey Mogil, titulaire de la Chaire de recherche du Canada en génétique de la douleur à l'Université McGill à Montréal. « Vous ne pouvez pas vous attendre à une reproductibilité à 100 %, et si vous l'aviez fait, les études n'auraient pas pu être très bonnes en premier lieu. Si les gens pouvaient reproduire les études publiées tout le temps, ils n'auraient pas pu être à la pointe et repousser les limites ».

Une des raisons de ne pas s'attendre à une reproductibilité à 100 % dans les études précliniques est que la recherche de pointe ou exploratoire traite de beaucoup d'incertitudes et d'hypothèses concurrentes dont seules quelques-unes peuvent être correctes. Après tout, il ne serait pas du tout nécessaire de mener des expériences si le résultat était complètement prévisible. Pour cette raison, l'étude préclinique initiale ne peut pas être absolument fausse ou vraie, mais doit s'appuyer sur le poids de la preuve, en utilisant généralement le P-test comme bris d'égalité. L'interprétation des expériences repose souvent sur des probabilités (P-valeurs) de < 0,05 comme test de référence pour la signification statistique, ce qui crée une coupure nette mais quelque peu arbitraire. Cela signifie que si les résultats d'une étude se situent juste du côté de la signification statistique, une réplication a une forte probabilité de les réfuter, a expliqué Malcolm Macleod, qui se spécialise dans la méta-analyse des études animales sur les maladies neurologiques à l'Université d'Édimbourg au Royaume-Uni. "Une réplication d'une étude qui était significative juste en dessous P 0,05, toutes choses égales par ailleurs et l'hypothèse nulle étant effectivement fausse, n'a que 50% de chance de se retrouver à nouveau avec un « significatif » P-valeur sur la réplication », a déclaré Macleod. « Un si grand nombre des soi-disant ‘études de réplication’ peuvent avoir été de faux négatifs ».

… l'affirmation qu'un niveau de reproductibilité de 50% équivaut à une crise, ou que de nombreuses études originales étaient vraiment infructueuses, a été contestée par certains spécialistes de la réplication

Pour cette raison, les études de réplication ont besoin d'une puissance statistique encore plus grande que l'original, a soutenu Macleod, étant donné que la raison de les faire est de confirmer ou de réfuter des résultats antérieurs. Ils doivent avoir des "n plus élevés" que les études originales, sinon l'étude de réplication n'est pas plus susceptible d'être correcte que l'originale.

Cela conduit à un problème fondamental pour les sciences de la vie, en particulier la recherche préclinique : un énorme intérêt pour les résultats positifs a atténué la réplication. Les auteurs ont des subventions et des carrières en jeu, les revues ont besoin d'histoires fortes pour faire les gros titres, et les sociétés pharmaceutiques ont investi de grosses sommes d'argent dans des résultats positifs et les patients aspirent à de nouvelles thérapies. Il existe également une divergence d'intérêt entre les différentes parties dans le pipeline global de recherche et développement. Les chercheurs précliniques ont besoin de liberté pour explorer les frontières de la connaissance, tandis que les chercheurs cliniques s'appuient sur la réplication pour éliminer les faux positifs.

Pour remédier à cette dichotomie, Mogil et Macleod ont proposé une nouvelle stratégie pour mener des études pertinentes pour la santé. "Malcolm étudie les essais cliniques et la réplicabilité elle-même, alors que je suis à l'extrémité préclinique du spectre, donc nos besoins et notre prise en charge du problème ne sont pas les mêmes mais notre analyse de la solution potentielle est très similaire", a commenté Mogil. Ils suggèrent un processus de publication en trois étapes où la première étape permet des études exploratoires qui génèrent ou soutiennent des hypothèses loin du joug de la rigueur statistique, suivie d'une deuxième étude confirmatoire, réalisée avec les plus hauts niveaux de rigueur par un laboratoire indépendant. Un article ne serait alors publié qu'après avoir réussi les deux étapes. Une troisième étape, impliquant plusieurs centres, pourrait alors créer la base d'essais cliniques humains pour tester de nouveaux candidats-médicaments ou thérapies.

"L'idée de ce compromis est que je reste seul à faire l'imbécile et que chaque étude préliminaire ne soit pas passée à la signification statistique, avec beaucoup de gaspillage d'argent et de temps", a expliqué Mogil. "Mais à un moment donné, je dois dire 'J'ai assez rigolé pour être tellement convaincu par mon hypothèse que je suis prêt à laisser quelqu'un d'autre prendre le relais'". Mogil est conscient que cela nécessiterait la création et le financement d'un réseau de laboratoires pour effectuer des études de confirmation ou de réplication. "Je pense que c'est une chose parfaite pour les agences de financement, alors j'essaie d'obtenir du NIH (National Institutes of Health) qu'il donne un contrat à un consortium de laboratoires de la douleur", a-t-il ajouté.

Projets de reproductibilité

Il y a eu divers projets pour reproduire les résultats, mais ceux-ci ont simplement aidé à définir l'ampleur du problème plutôt que d'apporter des solutions, selon Mogil. Les deux projets de reproductibilité les plus importants, l'un pour la psychologie et l'autre pour la recherche sur le cancer, ont été mis en place par le Center for Open Science, une organisation à but non lucratif fondée en 2013 pour « accroître l'ouverture, l'intégrité et la reproductibilité de la recherche scientifique ».

L'étude sur le cancer a rendu ses résultats en janvier 2017 2 , mais elle a soulevé autant de questions qu'elle n'a répondu. Deux études sur cinq « reproduisaient substantiellement » les résultats originaux, bien que toutes les expériences n'atteignent pas le seuil de signification statistique. Deux autres ont donné des « résultats ininterprétables », et l'un n'a pas réussi à reproduire un article d'Erkki Ruoslahti, du centre de recherche sur le cancer du Sanford Burnham Prebys Medical Discovery Institute à La Jolla, en Californie. Son étude originale avait identifié un peptide qui semble aider les médicaments anticancéreux à pénétrer dans les tumeurs 3 .

… les études de réplication ont besoin d'une puissance statistique encore plus grande que l'original, a soutenu Macleod, étant donné que la raison de les faire est de confirmer ou de réfuter des résultats antérieurs.

Ruoslahti a vivement contesté les résultats de cette réplication, arguant qu'il s'agissait d'une étude limitée comprenant une seule expérience et que la méta-analyse associée ignorait la reproduction précédente de ses résultats par trois générations de post-docs. "Je ne suis pas d'accord avec l'idée d'études de reproductibilité", a-t-il déclaré. « Si une seule expérience est effectuée sans aucun dépannage, le résultat est un tossup. Tout ce qui est plus vaste serait d'un coût prohibitif. Tant de choses peuvent mal tourner dans une expérience faite par quelqu'un pour la première fois. Au lieu de cela, je pense que nous devrions laisser le processus scientifique suivre son cours. Les résultats qui ne sont pas corrects disparaîtront parce que d'autres ne peuvent pas les reproduire ou publier des résultats divergents, après un essai adéquat et, espérons-le, expliquant également pourquoi les résultats sont différents ». Ruoslahti a reçu le soutien de Tim Errington, directeur du projet de reproductibilité du cancer du Center for Open Science, qui a convenu qu'un seul échec de réplication ne devrait pas invalider un article.

Descriptions des méthodes et biologie

Néanmoins, le projet de reproductibilité du cancer a mis en évidence un problème plus large : les méthodes expérimentales ou les conditions environnementales ne sont souvent pas décrites avec suffisamment de détails pour recréer avec précision la configuration d'origine. En effet, la conclusion la plus évidente était que de nombreux articles fournissent trop peu de détails sur leurs méthodes, selon Errington. En conséquence, les équipes de réplication doivent consacrer de nombreuses heures à rechercher des protocoles et des réactifs, qui avaient souvent été développés par des étudiants ou des post-doctorants qui ne faisaient plus partie de l'équipe.

L'exposition de telles divergences est en soi un résultat positif de l'étude de réplication, a affirmé Errington, et elle a suscité des efforts pour rendre les expériences plus reproductibles. "Les auteurs originaux, comme tous les scientifiques, se concentrent sur la conduite de leurs projets de recherche en cours, la rédaction de leurs résultats pour publication et la rédaction de subventions et de demandes d'emploi pour l'avancement", a noté Errington. « Fouiller dans d'anciens cahiers de laboratoire pour trouver ce qui a déjà été publié n'est pas une priorité aussi élevée. Cela indique une lacune qui peut être comblée en rendant ces informations facilement disponibles pour compléter la publication au moment de la publication. Nous montrons un moyen de le faire avec chaque étude de réplication, où les méthodes/données/scripts d'analyse sous-jacents sont disponibles à l'aide de https://osf.io. Et des matériaux uniques qui ne sont pas disponibles peuvent être mis à la disposition de la communauté des chercheurs pour réutilisation, pour réplication ou pour de nouvelles investigations ».

Un autre facteur majeur qui peut entraîner l'échec de la réplication est la biologie elle-même. À titre d'exemple, l'effet d'un médicament peut dépendre de l'état métabolique ou immunologique particulier d'un animal, a affirmé Hanno Würbel de la Division du bien-être animal de l'Université de Berne en Suisse, qui s'intéresse depuis longtemps à la reproduction dans la recherche. « Si un effet de traitement, par exemple un effet médicamenteux, est conditionné à certaines caractéristiques phénotypiques, comme le fait que le médicament ne fonctionne que dans des conditions de stress, alors il semble inapproprié de parler d'une réplication « ratée ». Dans ce cas, les deux résultats de l'étude seraient « vrais » dans un certain nombre de conditions », a-t-il expliqué. Néanmoins, les divergences entre les études originales et les études de réplication pourraient en effet enrichir la recherche. « À condition que toutes les études aient été bien menées, différents résultats d'études répétées seraient instructifs pour nous dire que les conditions sont importantes et que nous devons chercher plus loin pour établir l'éventail des conditions dans lesquelles un traitement donné fonctionne », a déclaré Würbel.

Les chercheurs précliniques ont besoin de liberté pour explorer les frontières de la connaissance, tandis que les chercheurs cliniques s'appuient sur la réplication pour éliminer les faux positifs.

Un autre problème connexe est le niveau élevé de normalisation pour rendre les résultats aussi généralement valables et reproductibles que possible. Mais, comme l'a souligné Würbel, cela peut en fait avoir l'effet inverse. « L'approche standard de la génération de preuves en recherche animale préclinique consiste en des études en laboratoire unique menées dans des conditions hautement standardisées, souvent à la fois pour le génotype des animaux et les conditions dans lesquelles ils sont élevés, hébergés et testés », a-t-il déclaré. «Pour cette raison, vous ne pouvez jamais savoir avec certitude si un résultat d'étude a ou non une validité externe. Si vous y réfléchissez, cela signifie que les études de réplication sont intrinsèquement requises par la nature même de l'approche standard de la recherche animale préclinique. Pourtant, les résultats d'études en laboratoire unique menées dans des conditions très standardisées sont toujours en vente, c'est-à-dire toujours en cours de publication, comme si les résultats étaient valables et reproductibles de l'extérieur, mais sans aucune preuve. Et puis les gens sont surpris quand les études de réplication « échouent » ».

Les modèles animaux de rongeurs en particulier ont été hautement standardisés en tant que souches consanguines dans le but de rendre les résultats plus reproductibles en éliminant les différences génétiques. Mais cela signifie également que les résultats ne peuvent pas être facilement généralisés et que différentes souches peuvent donner des résultats différents. Cela a longtemps été apprécié dans certains domaines tels que la recherche sur le vieillissement où les différences génétiques peuvent avoir un impact énorme. Steve Austad de l'Université du Michigan, aux États-Unis, s'est rendu compte dès 1999 que le fait de s'appuyer sur des rongeurs génétiquement homogènes pour la recherche sur le vieillissement conduisait souvent à des conclusions qui tendent à refléter des idiosyncrasies spécifiques à la souche. Il a donc préconisé le développement de stocks exempts d'agents pathogènes à partir de progéniteurs piégés dans la nature pour l'étude du vieillissement et de la physiopathologie de fin de vie 4 . Il a maintenant inspiré des appels en faveur d'une plus grande diversité génétique parmi les rongeurs de laboratoire pour la recherche préclinique sur le développement de médicaments et le vieillissement.

Publication d'études négatives et de confirmation

Cependant, le plus gros éléphant de la salle est peut-être lié au biais de publication vers des résultats positifs et loin de l'hypothèse nulle. Cela affecte la réplication dans la mesure où non seulement les études négatives mais aussi les études de confirmation ont tendance à ne pas être signalées. Cette distorsion peut également rendre l'échec de la réplication plus probable en encourageant les faux positifs en premier lieu. Macleod exhorte donc l'ensemble de la communauté des chercheurs à adopter une approche plus optimiste des résultats nuls, car ceux-ci peuvent être tout aussi précieux que positifs. « Peut-être devrions-nous considérer les études comme un moyen de fournir des informations. Si une étude fournit des informations, la non-réplication est à égalité avec les rapports initiaux », a-t-il fait remarquer. "Dans tous les cas, la réplication, si elle est bien faite, et que les résultats soient en accord ou en désaccord avec l'étude d'origine, ajoute des informations qui peuvent être agrégées avec l'étude initiale et renforce nos preuves".

… les méthodes expérimentales ou les conditions environnementales ne sont souvent pas rapportées de manière suffisamment détaillée pour recréer avec précision la configuration d'origine

Il y a eu une certaine reconnaissance de la nécessité de promouvoir des résultats nuls, notamment par le biais de la Journal des résultats négatifs en biomédecine (JNRBM). Étonnamment, il est prévu de cesser sa publication par BioMed Central en septembre, au motif que sa mission a été accomplie. L'éditeur fait valoir que des résultats qui n'auraient pas été publiés auparavant apparaissent désormais dans d'autres revues. Cependant, beaucoup soutiendraient que les résultats nuls sont encore largement sous-représentés dans la littérature et qu'il y a un manque de ressources et de motivation pour les études de réplication en général.

Sur ce front, il existe cependant des initiatives prometteuses, telles que StudySwap, une plate-forme hébergée par le Center for Open Science, pour aider les biologistes à trouver des collaborateurs appropriés pour les études de réplication. « StudySwap permet aux universitaires du monde entier de reproduire les effets avant même qu'ils ne soient publiés », a expliqué Martin Schweinsberg, professeur adjoint de comportement organisationnel à l'École européenne de gestion et de technologie de Berlin. « De telles réplications indépendantes avant publication (PPIR) sont importantes car elles permettent aux scientifiques de mieux comprendre le phénomène qu'ils étudient avant de soumettre un article pour publication ». Selon Christopher Chartier du Département de psychologie de l'Université Ashland, Ohio, États-Unis, une utilisation courante de StudySwap sera pour deux chercheurs ou plus de collecter simultanément des données sur plusieurs sites différents pour combiner les échantillons à analyser. "Ces types d'étude aboutiraient à des échantillons plus grands et plus diversifiés que n'importe quel individu", a-t-il fait remarquer. Cependant, StudySwap est actuellement géré par des bénévoles et n'est pas encore conçu pour un travail de réplication à grande échelle. Cela nécessitera un soutien actif de la part des principaux organismes de financement, et il y a des signes encourageants que cela se produise, selon Brian Nosek, directeur exécutif du Center for Open Science. « Par exemple, la NWO (Organisation néerlandaise pour la recherche scientifique) dispose d'une ligne de financement de 3 millions d'euros pour la réplication de découvertes importantes », a-t-il déclaré.

Le rôle des revues et des bailleurs de fonds

Les revues ont également un rôle important à jouer, a ajouté Nosek, en offrant des incitations pour les réplications. Il a souligné les lignes directrices TOP (http://cos.io/top/) du Center for Open Science, qui spécifient la réplication comme l'une de ses huit normes clés pour faire progresser la transparence dans la recherche et la publication. "TOP gagne du terrain dans les communautés de recherche avec environ 3 000 signataires de revues à ce jour", a déclaré Nosek. « COS propose également des services de formation gratuits pour faire de la recherche reproductible et encourage l'adoption d'incitations qui peuvent rendre la recherche plus ouverte et reproductible, comme des badges pour reconnaître les pratiques ouvertes », Une autre initiative du COS appelée Rapports enregistrés (http://cos.io/ rr/) promeut un modèle de publication où l'examen par les pairs est effectué avant que les résultats de la recherche ne soient connus.

Beaucoup […] soutiendraient que les résultats nuls sont encore largement sous-représentés dans la littérature, et qu'il y a un manque à la fois de ressources et de motivation pour les études de réplication en général

Les projets axés sur la réplication ne manquent pas et des organismes de financement y consacrent des ressources, comme aux Pays-Bas. "Cela est en train de changer et les structures d'évaluation de la recherche sont, je pense, ouvertes à des mesures allant au-delà de l'approche des subventions et des papiers", a déclaré Macleod. « Le véritable défi concerne les institutions individuelles et leurs politiques et pratiques en matière de promotion académique, de titularisation, etc., qui sont encore largement liées à des mesures obsolètes telles que le facteur d'impact et la position de l'auteur ».

Les revues en particulier ont une responsabilité et pourraient aider en modifiant les méthodes de récompense obsolètes et en insistant sur des descriptions de méthodes plus détaillées, selon Matt Hodgkinson, responsable de l'intégrité de la recherche chez Hindawi, l'un des plus grands éditeurs de revues en libre accès. « Les structures d'incitation récompensent désormais le volume de publication et le fait d'être le premier », a-t-il déclaré. « Les citations sont actuellement comptées et davantage est considérée comme meilleure pour les auteurs et la revue, ce qui peut récompenser de manière perverse des découvertes controversées qui ne se reproduisent pas. Au lieu de cela, les bailleurs de fonds et les institutions devraient récompenser la qualité des rapports, la reproductibilité et les collaborations ». Hodgkinson a ajouté que les revues devraient également abandonner les contraintes d'espace sur les sections de méthodes pour permettre aux auteurs de décrire les procédures et les conditions expérimentales de manière beaucoup plus détaillée. En effet, de plus en plus de revues et d'éditeurs incitent les auteurs à fournir plus de détails sur les expérimentations et à formater leur section méthodes de manière à permettre à d'autres chercheurs de reproduire plus facilement leurs résultats.

Quelles que soient les mesures visant à améliorer la reproductibilité de la recherche biomédicale, elle devra impliquer tous les acteurs, des chercheurs aux agences de financement en passant par les revues et éventuellement les acteurs commerciaux en tant que principaux clients de la recherche académique. En outre, cela peut également nécessiter de nouvelles façons de mener des recherches et de valider des données expérimentales.