177

Un essai contrôlé randomisé peut-il passer à côté d’un traitement efficace ?

Concept généralement peu connu en-dehors des milieux de la recherche scientifique jusqu’au printemps 2020, l’essai contrôlé randomisé est désormais familier du grand public : tout le monde a entendu dire que c’était le « gold standard » en matière de recherche médicale, que c’était la seule façon d’obtenir une preuve de l’efficacité d’un traitement, et un passage obligé avant son autorisation.

On rappellera succinctement en quoi consiste un essai contrôlé randomisé et ses qualités, avant d’examiner différentes faiblesses que cette méthode recèle malgré tout, à la fois intrinsèquement et dans les risques de mauvaise interprétation des résultats obtenus.

Qu’est-ce qu’un ECR ?

Un essai contrôlé randomisé (ECR, ou encore RCT, acronyme de l’anglais randomized controlled trial) est un essai, c’est-à-dire une méthode d’évaluation de l’effet (positif ou négatif) d’un traitement. (Cette méthode peut être utilisée en médecine, mais aussi en économie, en agriculture etc.)

Un ECR est une étude expérimentale, c’est à dire que les chercheurs organisent une expérience, au cours de laquelle des participants volontaires sont soumis à un traitement, afin d’en évaluer les effets.

Un ECR est un essai contrôlé : l’influence du traitement est estimée en constituant un groupe contrôle, qui n’est pas traité. C’est donc un essai comparatif : l’évolution des deux groupes sera mesurée et comparée, et si les deux groupes évoluent différemment, on pourra dans certains cas en conclure que c’est le traitement qui est responsable de la différence. Les calculs statistiques jouent là un rôle important. De plus, l’équipe de recherche organise l’essai, de façon à maîtriser divers paramètres en les contrôlant : l’âge des patients, leur état de santé avant l’essai, les doses administrées, etc. Cela permet notamment d’éviter que certains déséquilibres entre les caractéristiques des membres des deux groupes viennent influencer les résultats et « parasiter » l’influence du traitement.

Un ECR est un essai randomisé, ce qui signifie que la décision de placer un participant dans le groupe traité ou dans le groupe non traité fait appel au hasard. Cela vise à éviter un biais de sélection : le risque que, consciemment ou non, les chercheurs favorisent le résultat espéré, par exemple en plaçant les « meilleurs participants » (ceux dont les caractéristiques laissent penser qu’ils évolueront favorablement) dans le groupe qu’on espère voir évoluer plus positivement que l’autre.

Dans le but d’éliminer des biais liés à l’effet placebo, certains ECR sont mené en aveugle, voire en double aveugle.
En aveugle, jusqu’à la fin de l’essai, les participants ne savent pas s’ils sont dans le groupe traité ou dans le groupe contrôle : plutôt que de ne rien donner aux participants du groupe contrôle (ce qui les informerait qu’ils sont dans le groupe non traité), on leur donne un « placebo », c’est à dire un traitement factice, sans effet sur l’organisme, mais qui ressemble au traitement testé. Cela évite que les participants traités, sachant qu’ils reçoivent le médicament réel, ne voient leur état s’améliorer du simple fait de l’effet placebo, tandis que ceux qui se sauraient non traités ne bénéficierait pas de cet effet placebo. (L’effet placebo peut s’expliquer par de l’auto-suggestion, ou par une réduction du stress, lui-même pesant sur le système immunitaire.)

En double aveugle, les participants ne savent pas dans quel groupe ils sont, mais les chercheurs en contact avec les participants ne savent pas non plus quels participants reçoivent un placebo et lesquels reçoivent le traitement testé. Cela permet d’éviter une activation de l’effet placebo par des « gaffes » ou par des attitudes involontaires des chercheurs, révélant — plus ou moins consciemment — aux participants à quel groupe ils appartiennent. Et cela évite aussi l’influence (consciente ou non) de la subjectivité des chercheurs lorsqu’ils doivent interpréter des informations provenant des participants.

Si un essai contrôlé randomisé n’est mené ni en double aveugle ni même en simple aveugle, on parle d’essai ouvert (ou « open-label », c’est-à-dire « avec les étiquettes des médicaments apparentes ».)

Remarquons ici que l’effet placebo est réputé n’avoir qu’une impact limité, et qu’il ne peut donc brouiller l’interprétation d’un essai que si le traitement testé n’a lui-même pas une ample efficacité. Donc si, à la suite d’un essai ouvert, les différences entre groupe traité et groupe contrôle dépassent un certain niveau, le reproche de n’avoir pas été mené en aveugle ou en double aveugle ne pourra pas lui être opposé.

Une autre remarque : si l’effet placebo peut être l’ennemi des chercheurs, en raison de sa capacité à brouiller les résultats d’un essai, il n’est en revanche absolument pas l’ennemi des médecins ni des patients ! C’est au contraire un allié, qui permet de renforcer les chances de guérison. Et dans certains cas, l’effet placebo peut à lui seul permettre à un patient de surmonter un trouble.
De ce fait, un argument parfois entendu, selon lequel il ne faudrait pas donner un traitement « parce qu’on n’est pas certain que ce ne soit pas qu’un placebo » n’est pas un argument médicalement valable : l’effet placebo peut favoriser la rémission, et ne serait-ce que pour cela, dans certains cas il vaut mieux donner un traitement à l’efficacité incertaine que pas de traitement du tout. Inversement, le stress généré par une réponse médicale telle que « il n’y a rien à faire, il n’existe aucun traitement, il faut attendre et voir si on s’en sort » est un probable facteur de stress, susceptible d’affaiblir les défenses immunitaires et d’aggraver l’état de santé.

Comment conclut-on à l’efficacité d’un traitement testé par un ECR ?

Le but d’un essai est de calculer la différence d’évolution entre le groupe testé et le groupe contrôle, et de calculer également, grâce au domaine des mathématiques que sont les statistiques, la probabilité que la différence observée entre les deux groupes soit due au traitement plutôt qu’au hasard.

Le premier calcul (la différence d’évolution entre les groupes) peut être fait de diverses façons, selon ce que les chercheurs ont prévu de mesurer. On appelle « outcome » (issues) les critères que les chercheurs ont choisi d’observer et de mesurer. Un outcome est censé dépendre de l’effet du traitement, et c’est pour cette raison que les chercheurs le choisissent. Par exemple, on peut compter dans chaque groupe le nombre de participants à qui il arrive un événement spécifique au cours de l’essai (disparition d’un symptôme, décès, hospitalisation, ou tout autre événement choisi comme outcome.) Autre exemple : on peut mesurer une donnée biologique (telle que la tension artérielle, la charge virale ou toute autre grandeur mesurable sur chacun des participants) ou encore le temps écoulé entre deux événements (entre la prise du traitement et la guérison, par exemple) et comparer alors la moyenne obtenue dans chaque groupe.

Ce premier calcul permet de donner une estimation chiffrée de la différence d’évolution entre le groupe testé et le groupe contrôle. On parle souvent de « Risque Relatif » (ou « Risk Ratio » ou RR) : cet indicateur de l’efficacité peut être calculé en divisant la proportion de participants ayant connu un événement dans le groupe traité, par la proportion de participants ayant connu le même événement dans le groupe contrôle. Ainsi, si le RR vaut 1, c’est que la proportion de participants rencontrant l’événement observé est la même dans les deux groupes : c’est donc qu’on n’a pas observé d’effet du traitement sur l’outcome en question. Mais si RR=0,2 cela signifie que dans le groupe traité les participants ont connu 5 fois moins souvent l’événement que dans le groupe contrôle : cela peut laisser penser que le traitement a un effet important. (On n’entrera pas ici dans les explications d’autres indicateurs, tels que l’« Odds Ratio » (OR) ou le « Hazard Ratio » (HR), qui sont parfois utilisés, et dont le principe général est le même que pour le RR.)

Le deuxième calcul fait appel à des notions plus poussées de statistiques — qu’on ne cherchera pas à préciser ici mais qu’on a commencé à illustrer — et vise à savoir si, dans l’hypothèse où le traitement serait absolument inutile, le simple hasard aurait pu conduire à la même différence entre les deux groupes. Le résultat de ce calcul ne se présente pas sous la forme d’une réponse « oui » ou « non », mais peut se présenter essentiellement sous deux formes : la p-value, qui est un nombre, ou l’ intervalle de confiance à 95 %, qui est caractérisé par deux nombres.

Ces deux façons de présenter le résultat sont différentes mais elles disent à peu près la même chose. Voici une brève explication :

– la p-value (notée p) est la probabilité que le simple hasard conduise à une différence aussi grande que celle qu’on a observé entre les deux groupes. C’est un nombre compris entre zéro et 1. Si on a calculé que p=1, cela veut dire que le hasard avait toutes chances de mener à une différence aussi grande ; si on a p=0,5 cela signifie qu’avec un traitement sans effet, on avait une chance sur deux d’arriver à une aussi grande différence ; si on a p=0,01 cela signifie qu’on n’avait qu’une chance sur 100 que le hasard aboutisse à une différence aussi forte que celle qu’on a observée entre les deux groupes. Et si on avait p=0 (ce qui en fait n’est pas un résultat possible), cela voudrait dire qu’en aucun cas le hasard n’aurait pu donner une telle différence entre les groupes.

De façon parfaitement conventionnelle, dans les sciences humaines il est admis que la valeur en-dessous de laquelle on considère que la différence n’est pas due au hasard mais qu’elle est bien due au traitement est 0,05. C’est à dire que si le hasard avait moins de 5 % de chances d’aboutir à la différence observée entre les groupes, on considère qu’on est sûr que c’est le traitement qui est responsable de la différence. Dit autrement : si p=0,05 alors on a 5 % de chances de se tromper si on dit que le traitement est efficace, mais on considère qu’à 5 % de risque (ou moins) de se tromper, on est sûr qu’on ne se trompe pas. C’est une convention, redisons-le, mais c’est là-dessus que sont construites les « preuves » de la Médecine Fondée sur les Preuves (ou EBM) : « si on a moins de 5 % de chances de se tromper, on peut dire que c’est prouvé. » Voilà pourquoi, lorsqu’un chercheur mène une étude, il espère obtenir un p inférieur à 0,05 : cela signifie que son résultat est considéré comme probant aux yeux de la communauté scientifique.

– L’intervalle de confiance revient à peu près au même que la p-value, sous une forme légèrement moins abstraite. On a vu ci-dessus la notion de Risque Relatif, qui mesure l’efficacité apparente du traitement au cours de l’essai. Mais ce RR, que l’on a calculé à partir d’un essai, ne peut pas être interprété comme « l’exacte efficacité du traitement testé ». En effet, on aurait peut-être pu tomber sur ce même résultat par hasard, avec un traitement un peu plus ou un peu moins efficace, voire même avec un traitement inefficace. Les statistiques permettent de calculer l’intervalle de confiance à 95 %, c’est-à-dire deux nombres entre lesquels on est « sûr à 95 % » que le RR dû au traitement se trouve. Si cet intervalle contient le 1, c’est à dire le nombre correspondant à une pure inefficacité du traitement, on considère que le hasard a pu être seul responsable de l’efficacité apparemment observée au cours de l’essai. Si le 1 ne fait pas partie de l’intervalle de confiance à 95 %, alors on affirme que le traitement est efficace. (On a toujours 5 % de chances de se tromper, c’est-à-dire 5 % de chances que le vrai RR du traitement soit en-dehors de l’intervalle de confiance à 95 % qu’on a calculé. Et, comme précédemment avec p=0,05, 5 % de chances de se tromper, c’est considéré comme suffisamment faible pour affirmer une efficacité : c’est en fait la même convention, qui prend deux expressions mathématiques différentes : soit la p-value, soit l’intervalle de confiance à95 %.)

Remarque : dans cette convention, on dit qu’un essai est statistiquement significatif si sa p-value p est inférieure à 0,05, ou si son intervalle de confiance à 95 % ne contient pas le 1. Dire qu’un essai est statistiquement significatif revient à dire (sous réserve de défauts, de biais ou d’erreurs commis lors de l’essai ou dans les calculs) que cet essai apporte ce qu’il est convenu de considérer comme la « preuve » de l’effet d’un traitement.

Limites des ECR

On vient de le voir, l’essai contrôlé randomisé, avec ou sans ses différentes options (aveugle, double-aveugle…), est une méthode assez sophistiquée visant à écarter certains biais pour déterminer si un traitement produit un effet, à estimer l’ampleur de cet effet et à estimer les chances de se tromper.

Mais les ECR ont de nombreuses limites, et ne peuvent pas tout.

Un élément essentiel, qui génère de nombreuses limites, est que l’analyse des résultats repose sur des mesures, et sur les analyses statistiques de ces mesures.

– Faire des calculs suppose en effet de transformer en mesures, c’est à dire en quelques chiffres l’expérience vécue par les personnes ayant participé à l’essai, ce qui est inévitablement réducteur, et ne permet pas de tenir compte de l’ensemble des ressentis ni de toutes les dimensions de cette expérience.

– Un ECR ne mesure que ce qu’il mesure, et il peut passer à côté d’aspects qui n’avaient pas été prévus, et qui n’ont donc pas été mesurés.

– Un ECR ne teste un traitement que sur un nombre limité de participants. Qu’il y en ait quelques dizaines ou quelques dizaines de milliers, les participants ne pourront jamais représenter fidèlement la population réelle, avec son infinie variété de caractéristiques, ni les réactions nécessairement individuelles à un traitement donné.

– Un ECR ne permet pas d’affiner le dosage d’un médicament : tous les participants du groupe traité doivent en effet recevoir le même traitement. Or bien souvent, l’efficacité dépend de la dose, de l’espacement entre les prises, de la durée du traitement etc. Par conséquent, un ECR mené avec un dosage particulier et une durée de traitement particulière, ne permet pas de connaître l’efficacité d’un autre dosage et d’une autre durée. Et pour cette raison, un ECR au cours duquel on n’observe aucune différence entre le groupe traité et le groupe contrôle permet éventuellement de conclure « à telle dose, tel traitement n’a apparemment pas d’effet », mais il ne permet pas de conclure à l’inutilité du médicament testé : d’autres posologies peuvent s’avérer efficaces.

Pour affiner le dosage, on ne peut pas raisonnablement envisager de conduire des dizaines d’ECR sur un même médicament avec des doses et des durées différentes. D’autres méthodes de recherche sont alors nécessaires, telles que l’observation clinique, par exemple.

– cette remarque est évidemment plus pertinente encore dans le cas de polythérapies, avec des effets d’interactions ou des synergies entre médicaments. Si les doses de chaque médicament peuvent être individuellement ajustées, les ECR ne permettent pas de déterminer quels dosages de chacun des médicaments permettent une efficacité du traitement combiné. L’efficacité des trithérapies contre le VIH, par exemple, n’a pas été établie par des ECR.

Les limites décrites ci-dessus sont intrinsèques aux ECR : quelle que soit la conception d’un essai, on ne peut pas s’en affranchir.

Mais plusieurs limites sont liées à la conception d’un essai, et peuvent donc éventuellement être surmontées, du moins en partie.

– Le nombre de participants d’un essai peut être décisif pour aboutir ou non à un résultat statistiquement significatif. Un essai sous-dimensionné restera non significatif, même avec un traitement fortement efficace.

– Le choix des outcomes mesurés est important : un outcome correspondant à un événement intervenant rarement (ex : le décès, pour une maladie peu létale) risquera de conduire à un résultat statistiquement non significatif, sauf à avoir enrôlé un nombre très élevé de participants. En effet, les lois mathématiques sur lesquelles reposent les calculs statistiques stipulent que c’est le nombre des événements décomptés, et pas seulement le nombre de participants, qui permet d’atteindre à une significativité statistique.

– Si plutôt que de décompter des événements, on mesure une grandeur (biologique ou autre) chez chaque participant, on fait généralement la moyenne de cette grandeur dans chaque groupe, pour comparer les deux moyennes entre elles. Ce qui pose quelques limites aussi. Par exemple, une même moyenne peut dissimuler des réalités différentes. Mais aussi, si seule une petite partie des participants réagit au traitement, même si elle y réagit fortement, les moyennes pourront sembler très peu différentes. Ainsi, il est important de s’assurer que les participants sont bien concernés par un potentiel effet du traitement.

Pour illustrer, imaginons qu’on fasse un essai pour savoir si l’aspirine réduit le mal de tête, en demandant aux participants d’indiquer leur degré de mal au crâne sur une échelle de 0 à 10 avant la prise d’un comprimé puis 2 heures après, pour mesurer la réduction du mal de crâne déclaré par chaque participant, afin de comparer la moyenne de cette réduction pour le groupe traité et la moyenne du groupe contrôle ; mais imaginons qu’on fasse l’essai sur deux groupes de 100 personnes dans lesquels seules deux ou trois personnes ont mal à la tête : la douleur passera de zéro avant le comprimé à zéro après le comprimé pour la quasi totalité des participants, les deux moyennes seront donc très faibles, et on n’observera à peu près aucune différence de réduction moyenne entre le groupe traité et le groupe contrôle. La conclusion d’un tel essai serait que l’aspirine ne réduit pas le mal de crâne… Il est donc important que les participants d’un ECR soient concernés par le traitement : dit autrement, il faut que ce soit des personnes atteintes par la maladie pour laquelle on teste un traitement, ou, selon ce qu’on mesure, des personnes à risque. Sinon, il est probable qu’on n’observera peu de différence entre les deux groupes, et on pourra passer à côté d’un effet réel sur les personnes concernées, que l’essai ne permettra de détecter.

Mauvaise interprétation des résultats

On a identifié une partie des limites des ECR, mais une limite importante vient… d’un manque de culture mathématique.

Le fait qu’un essai n’apporte pas un résultat statistiquement significatif ne veut pas forcément dire que le traitement est sans effet. C’est pourtant une erreur extrêmement courante, commise tant par les chercheurs que par les médias qui commentent la recherche scientifique. Cette erreur est analysée et dénoncée par les auteurs de ce texte, signé par plus de 800 scientifiques et publié par la revue Nature en mars 2019 sous le titre « Des scientifiques s’élèvent contre la signification statistique ».

La seule conclusion que permet de tirer un résultat statistiquement non significatif est « cet essai ne permet pas de conclure avec certitude ». Penser qu’un résultat statistiquement non significatif équivaut à une preuve d’inefficacité est donc une erreur fondamentale, qui est à la base de la plupart des mauvaises interprétations de résultats, dont nous allons voir quelques exemples dans un prochain article.

Si un essai a un résultat statistiquement non significatif, certes cela peut être dû à une efficacité faible ou nulle du traitement testé. Mais cela peut être dû par exemple à un essai sous-dimensionné (pas assez de participants), ou à un des participants trop peu « à risque », ou à un outcome trop rare… Dans tous ces cas, même un traitement efficace peut donner lieu à des résultats proches dans le groupe traité et dans le groupe contrôle, empêchant les résultats de l’essai d’être statistiquement significatifs.

En fait, une limite des essais, assez peu facile à comprendre intuitivement, est que, si un ECR peut apporter une « preuve » de l’efficacité (ou des effets néfastes) d’un traitement, il ne peut en revanche jamais apporter la preuve d’une absence d’effet. Cela tient aux statistiques, et à une limite pratique : on ne peut pas inclure un nombre infini de participants dans un essai ; or un effet faible mais réel ne peut s’observer que s’il y a suffisamment de participants enrôlés dans l’essai. Ainsi, un essai qui n’observe pas de différence notable entre les deux groupes (traitement sans effet apparent), aurait peut-être observé une différence s’il y avait eu 10 fois plus — ou 100 fois plus — de participants enrôlés dans l’essai.

Autres critiques envers les ECR

La mise en place d’un ECR demande une logistique complexe, qui rend ce type d’essais cher et long à mettre en œuvre.

Or, la sophistication d’un ECR (randomisation, mise en aveugle ou en double aveugle…) vise à supprimer certains biais. Mais dans certains cas, ces biais peuvent être circonscrits par des moyens plus simples. Ainsi, les études observationnelles bien menées (avec appariements, par exemple) donnent des résultats aussi fiables que les ECR.

Une étude observationnelle ne consiste pas en une simple observation de ce qui se passe, mais consiste, comme un ECR, à comparer un groupe traité et un groupe non traité. Simplement, la constitution de ces groupes, au lieu d’être faite par avance par les chercheurs pour conduire une expérience en assignant des places aux patients, comme c’est le cas dans un ECR, est faite a posteriori : on interroge le passé de patients, et on regroupe ceux qui ont reçu un traitement et ceux qui ne l’ont pas reçu, pour comparer la façon dont ils ont évolué : on ne fait pas une expérience, on étudie le passé et ses conséquences déjà observables. On contrôle donc moins les paramètres a priori, mais on peut compenser cette absence de contrôle par une rigueur dans la reconstitution des groupes. Ainsi, l’appariement est une méthode statistique visant à sélectionner les dossiers de patients pour reconstituer des groupes semblables dans leurs caractéristiques initiales. (Bien entendu, une étude observationnelle sur un traitement n’est possible que pour un traitement existant déjà, et si suffisamment de personnes l’ont pris.)

De plus, les ECR soulèvent des questions éthiques : en soumettant des participants à un traitement expérimental — ou en donnant un placebo à des personnes atteintes d’une maladie — les chercheurs mettent au moins un des groupes de participants en danger.

Par ailleurs, dans certains cas, on peut estimer que les procédures complexes des ECR visant à éliminer les biais soient superflues. Prenons un exemple : imaginons qu’un chercheur donne un traitement expérimental à 3 ou 4 personnes séropositives au VIH, et que la semaine suivante, elles soient toutes séronégatives. Cela ne constitue pas encore une preuve, mais imaginez que ce chercheur publie ce résultat et qu’à leur tour, 2 autres équipes de recherche fassent la même expérience, avec au total une douzaine de patients séropositifs, qui deviennent à leur tour séronégatifs une semaine plus tard. On comprend que dans ce cas, mener un ECR serait superflu : il suffit que l’expérience soit réplicable par d’autres équipes pour constituer une preuve. Pourquoi cela suffit-il ? C’est le contexte qui le permet : on connaît bien l’évolution du VIH, on sait qu’on ne devient pas spontanément séropositif en quelques jours, on sait que l’effet placebo n’a jamais rendu un patient séronégatif etc. Dans cet exemple, même la constitution d’un groupe contrôle est superflue, parce que l’ensemble des millions de patients dont on connaît l’évolution constitue un groupe contrôle « naturel » suffisant.

Dans cet exemple, toutefois, il pourrait être nécessaire de mener un essai pour connaître les effets indésirables du traitement révolutionnaire ainsi découvert. Sauf, sans doute, si ledit traitement n’est qu’un cocktail de produits déjà bien connus et parfaitement inoffensifs en-dehors de contre-indications déjà identifiées…

On le voit, le recours aux essais contrôlés randomisés ne doit pas être un dogme indépassable. Et, comme on le verra bientôt à travers quelques exemples, la crise du Covid-19 a généré un certain nombre d’ECR dont les résultats sont sans doute davantage imputables à la conception de l’essai ou à son interprétation qu’aux effets réels des traitements testés…

Enzo L.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

177 commentaires

  1. par le docteur CORALLO NICE le 01/10/2021
    Paru dans BMJOpinions
    Un article détaillé dont je ne place que la conclusion. Trouvé sur ivermectine-covid.ch. Tout cela est fou ! Criminel ? Il s’agit de nos enfants !
    Conclusion
    Il n’est pas nécessaire de se précipiter pour vacciner les enfants contre le Covid-19 – la grande majorité d’entre eux n’en tirent que peu de bénéfices, et il est éthiquement douteux de poursuivre une hypothétique protection des adultes tout en exposant les enfants à des préjudices, connus et inconnus. Le rapport bénéfice/risque peut être différent chez les enfants présentant un risque relativement plus élevé de maladie grave, comme ceux qui sont obèses ou immunodéprimés. Sinon, il faut s’assurer que des vaccins sûrs et efficaces sont disponibles pour les populations adultes qui ont le plus à gagner, notamment celles à haut risque. Entre-temps, il faudrait procéder à une évaluation active et continue des risques pour les jeunes, y compris la recherche sur les facteurs de risque de Covid grave et l’impact des nouveaux variants, ainsi que l’évaluation continue de l’efficacité et de la sécurité des vaccins.  Il faudrait également évaluer en permanence la protection offerte par l’immunité induite par l’infection par rapport à l’immunité induite par le vaccin, en particulier chez les jeunes.
    Elia Abi-Jaoude, Département de psychiatrie, Université de Toronto, ON, Canada
    Peter Doshi, Département de recherche sur les services de santé pharmaceutiques, École de pharmacie de l’Université du Maryland, Baltimore
    Claudina Michal-Teitelbaum, Médecine préventive, Chercheur indépendant, Lyon, France

  2. Vu sur JIM.fr >> Le calculateur QCovid >> à voir avec nos statiticiens !!
    Le calculateur QCovid a été développé en Grande-Bretagne pendant les premières vagues de la pandémie. Il permet de calculer le risque de décès ou d’hospitalisation en se basant sur les caractéristiques individuelles de chaque patient. Avec la généralisation de la vaccination, il est devenu nécessaire d’adapter le calcul de risque aux personnes vaccinées. Un nouvel outil, le QCovid 3 a donc été développé, testé et validé.  
    Il repose sur les données de près de 7 millions d’individus vaccinés (3 sur 4 avaient reçu les 2 doses de vaccin) de 19 à 100 ans, collectées entre décembre 2020 et juin 2021.

    L’algorithme de risque inclut l’âge, le genre, l’origine ethnique, le niveau de revenus, l’indice de masse corporelle (IMC), les comorbidités et le taux d’infection.

    • Il serait aussi intéressant d’inclure dans l”algorithme” la présence ou l’absence de traitement précoce.(excusez moi,je n’ai pas pu m’en empêcher😊
      Simple distraction du Journal Internationnal de Médecine?

      • JIM.fr est pour la généralisation des injections (voir une interview assez ancienne de sa Rédactrice).

  3. Bjr
    Une requête à envoyer en masse avant le 15/11 à la cours européenne des droits de l homme sur le site NO PASS de Guillaume Zambrano. Tout est très clairement expliqué. Mobilisons nous !
    Bonne journée

    • Oui, très bien conçue cette requête auprès de la CDEH, contre l’obligation du passe sanitaire et les violations des droits fondamentaux que cela implique au quotidien pour les personnes. (Site nopass.fr)
      Déjà près de 24000 requêtes.
      C’est d’autant plus important que la prolongation du passe discriminatoire est d’actualité. Toutes les mesures liberticides à l’origine provisoires deviennent permanentes.

      • D’autant pus indispensable que notre Conseil d’État vient pour rejeter les recours présentés par maîtresse Protat de décréter sans frémir que, décidément, le droit au «consentement libre et éclairé» n’a pas lieu de s’appliquer pour les opérations de vaccinations obligatoires !

  4. Soit les médecins es mensonges de plateaux TV et tous les élus(dont ceux des 2 chambres se sont exonérés) qui vantent l’injection délétère mentent éhontément soit ils ne l’ont pas fait.En effet la 2 e dose vous met ko et cela n’a rien à voir avec les autres vaccinations quoiqu’ils en disent ,la stimulation immunitaire provoquée par une vaccination ne provoque cela avec des vrais vaccins.Une telle réaction de l’organisme est bien qu’il réagit fortement à une ou des substances nocives sinon toxiques.
    La faible protection de ces injections ,même K. Lacombe a enfin reconnu sur Rance Inter qu’il y avait de nombreux doubles et triples vaccinés en réa du fait de leurs comorbidités,est inversement proportionnelle à la haine que cette injection stimule surtout chez ceux pour qui elle était inutile,c’est à dire la majorité d’entre nous.Est ce que la justice passera un jour?

  5. Urologue en retraite formé en 1961, je commente, ici, une énorme étude parue sur le cancer de la prostate, pourtant bien oubliée. Je voudrais la remettre à cette occasion du COVID tant discuté.

    Celle des cinq publications des 14 Veterans. Réunis, ces 14 collègues ont choisi de traiter le cancer de la prostate (à l’époque presque toujours métastatique) des anciens combattants américains dans une étude Distilbène faibles doses contre placebo de 1968 à 1973. Ils se sont ensuite désunis.

    Un ECR est donc un essai contrôlé dans la mesure du possible. L’influence du traitement est estimée en constituant un groupe contrôle. Ce dernier n’est pas traité sauf par un placebo donné en double aveugle à l’insu du prescripteur comme du patient. Cet aveuglement est-il toujours possible ?

    C’est donc un essai comparatif : l’évolution des deux groupes sera mesurée puis comparée. Si les deux groupes évoluent différemment, on pourra, dans certains cas bien suivis, conclure que c’est le traitement qui est responsable de la différence de résultats des deux groupes.

    Les calculs statistiques jouent là un rôle important. Pas le suivi minutieux clinique. Ce que font les patients n’est pas toujours vérifié ou vérifiable.

    Il peut l’être cependant dans le cancer prostatique. Je le savais depuis 1965 par le suivi de la TEBG : celle-ci est augmentée de 3 à 5 fois sous œstrogènes.

    Le double traitement du cancer prostatique avait été trouvé, en 1940. Il fut publié à la même date. Il comportait deux façons pourtant fort différentes d’agir : castration chirurgicale et Stilboestrol 5 mg. C Huggins avait publié un travail expérimental en 1938 que personne ne cite jamais sur près de cent chiens âgés avec les mêmes doses de testostérone et de stilboestrol.

    Beaucoup des urologues avertis de ce double traitement très remarquable pensaient que le mécanisme d’action ne pouvait qu’être identique. Sauf Lacassagne et Selye.

    C Huggins avait préconisé à ses confrères la castration de 1940 à 1952. 1952 est une date bien oubliée de nos jours.

    Pourtant elle est marquée par l’abandon de la castration par celui qui l’avait préconisée et la préférence quasi-unanime (fait exceptionnel en congrès) pour les O. artificiels par presque tous les participants y compris C Huggins.

    Ce choix de 1952 est assez bien détaillé dans le rapport de H. C. Blanchot et F. Laporte (180 pages) donné à l’AFU qui l’accepta sans réticences et en publia un résumé de 20 pages, bien moins utile.

    Je cite C Huggins qui explique, ainsi, son second choix : “la castration induit la perte du contrôle des androgènes.” Il mettait, de cette façon, le doigt sur le feed-back, un mécanisme régulateur qu’un mathématicien, enseignant à CHICAGO comme lui, lui avait bien expliqué.

    La castration fait disparaître trois éléments : la testostérone, le récepteur des androgènes, le 17 bétaoestradiol. Ce n’est pas une hormonothérapie. Le Stilboestrol est elle une véritable hormonothérapie de substitution.

    De 1952 à 1968, 16 ans, ce second choix celui des O. ne sera contesté par aucun urologue (rapport de l’AFU) et ne donna lieu à aucune remarque s’agissant des effets vasculaires. Une erreur d’ailleurs faute d’autopsies aussi bien en 1952 qu’en 1973.

    De 1968 jusque 1973, la comparaison DISTILBENE faibles doses versus PLACEBO des VETERANS fut suivie. D’ailleurs non sans difficultés. Pourquoi ? Avec de plus en plus d’abandons de la part des patients ; puis de la plupart de leurs 14 urologues.

    Deux remarques méritent pourtant d’être discutées à propos de cette étude.

    1-Il est inacceptable, déontologiquement parlant, de ne pas donner un traitement connu et efficace depuis 28 ans dans une affection métastatique aussi douloureuse que le cancer prostatique.

    2- Alors de Félix GUYON décrivait, déjà en 1880, qu’un tel cancer ne pouvait survivre que six mois, les publications des Veterans révélaient, dans les deux séries, des survies bien plus longues parfois cinq ans voire plus sans séparer les séries traitement /placebos.

    C’est lors de mes congrès aux USA et au cours de conversations dans les couloirs de congrès avec certains urologues des Veterans que ce point assez inattendu pouvait trouver une explication. Du moins à mes yeux.

    La voici : John un Veteran, qui recevait son traitement, voyait son syndrome urologique et ses douleurs osseuses disparaître en quelques jours.

    Par contre, il était fort agacé par une gynécomastie et par une impuissance sexuelle, toutes deux des effets intolérables pour un ancien militaire.

    Son copain Veteran Fred, au contraire, vivait un échec total du traitement par son placebo. Par contre, il n’avait pas la moindre gynécomastie et son activité sexuelle se maintenait.

    Ils décidèrent d’un commun accord d’échanger leurs traitements tous les six mois. Beaucoup des patients furent peu à peu convaincus de l’intérêt de cet échange, y compris, petit à petit, certains de leurs urologues qui se désunirent.

    Cet échange indiquait par contre la valeur des traitements intermittents par les Œstrogènes. Les médecins généralistes l’avaient remarqué dès 1955, les urologues l’ont refusé encore en 1995.

    Beaucoup savoir apporte l’occasion de plus douter : Montaigne.

    Tout réel inventeur a d’abord mis en doute ce dont personne ne doutait : Alain.

    • Maintenant la question à 2 balles :

      Est-ce que l’on traite un adulte de 50 ans pour lui faire gagner peut être 2 ans d’espérance de vie après 70 et lui faisant perdre 15 ans de vie sexuelle ?

      Là est la vraie question de la médecine.

    • Content de vous relire Jean
      Votre exemple illustre à merveille les orientations de la stratégie de santé, souvent contraire à toute raison dés lors que le marché s’avère colossal.
      Toute l’industrie de santé “prostate” (opérations chirurgicales, robots, rayons, ultra -sons…) aux profits immenses serait mise à mal par quelques traitements périodiques d’oestrogènes de synthèse à quelques euros, sous la seule surveillance de quelques urologues ou généralistes ? Impensable, comme pour toutes les molécules anciennes à repositionner, ici l’ivermectine pour la Covid…
      Vivement votre publication sur votre sujet d’expertise. Bravo pour vos analyses.
      En attendant, le patient lui est obligé de se conformer à la doxa en vigueur, l’expert lui n’ayant même plus connaissance de l’histoire des traitements, donc sans possibilité d’adapter des solutions anciennes aux outils de diag modernes.

  6. Bonjour aux tulipes qui ondoient sous le vent, ni pass sanitaire, ni pass factuel, soit. Je plie mais ne romps pas. Plouf plouf.

  7. la réduction de la charge virale par un traitement est un fait mesurable indépendant de la randomisation. Il suffit de comparer les résultats des différents groupes.

  8. Contre la censure :
    https://www.francesoir.fr/opinions-editos/francesoir-la-presse-libre-attaquee
    Rappel pour la dernière ligne droite le 30, pour soutenir France Soir, afin d’éviter qu’il n’y ait plus de presse libre.
    Rappelons aussi que la patron de FS, c’est aussi des actions juridiques en cours à propos de :
    – la fricosphere comment analyser les liens d intérêts et remonter jusqu’à la source…le commanditaire.
    – les indiscrétions au sein de l INSERM et du Reacting
    – enquête sur la politique sanitaire de l OMS (plus de 400 pages d enquête en cours)
    – l’enquête sur recovery pour laquelle il va y avoir des rebondissements juridiques…

  9. Savez vous que les mutilations de chevaux sont liées à l’épidémie de covid ( et peut-être au vaxx) ? et que le point commun s’appelle les prions .

  10. Bonjour chers tireurs de carte, quand la science se trompe c’est selon les règles , quelle merveilleuse satisfaction hein? Je me permets de vous proposer deux traitements au long cours -sans preuve d’efficacité – mais pour ceux d’entre vous qui sont vaccinés ou qui connaissent des vaccinés Arn(aques) à aider : 3 granules de bicarbonate de sodium 6 ch plus 3 granules de bicarbonate 5 DH par jour . Traitement à faire préparer à la grande pharmacie Thiers au Havre car ces molécules ne sont plus fabriquées par les labo habituels spécialisés en homéopathie. Depuis la nuit dont nous sommes issus ,nous sautons de croyances en croyances, qu’elles soient soudaines ou en lentes spirales ascendantes . Ce traitement , à visée protectrice, vous est proposé gracieusement par le laboratoire «  les mots de la soif »

    • …mais personnellement,je préfère l’Ivermectine,qui diminue, même selon l’Institut Pästeur la présence de corona chez l’animal(ils ont fait attention à ne pas parler de charge virale),etdiminie les symptômes,et au cas où,associée à de la doxycycline.Le détail sur “coordination santé libre”

  11. Une tuile : l’entrée en lice de Peter C Gøtzsche dans le débat sur l’Ivermectine ! Une tuile car, cet homme qui n’est pas ce qu’on fait de plus mainstream (si l’on en juge par ses récentes démêlées autour d’un article sur les science wars mais également par ce que révèlent les Cochranes documents) vient de twitter un commentaire peu avenant : https://twitter.com/PGtzsche1/status/1442040418862915587

    Là on aurait urgemment besoin d’un avis du Dr Maudrux himself .

    Une tuile, mais qui pourrait être repositionnée ultérieurement avec avantage : Si l’on fait crédit à P. Gøtzsche d’indépendance et d’honnêteté peut être sera-t-il amené à reconsidérer cette opinion en fonction du dialogue qui aura pu se nouer avec lui ?

    • Bof. Pas ma tasse de thé ce genre d’article. Déjà répondu une fois, et je crois Enzo également. C’est une critique de l’Ivermectine sur la méthodologie afin d’annuler les résultats.
      Oui comme pour tout il y a de mauvaises études (Mehra, Remdesivir,…), il y en a aussi pour l’Ivermectine comme ElGazzar. Une bonne méta doit éliminer les mauvaises, ce qui a été fait par plusieurs, qui ont refait leurs calculs en l’éliminant, diminuant du coup les effets positifs de l’Ivermectine. J’ai écrit une fois (Tess l’a dit aussi), que le problème n’est pas de discuter de savoir si l’Ivermectine est efficace à 60 ou 80%, mais s’il y a présomption d’efficacité. Par ailleurs, chez Elgazzar il y a des anomalies, mais en les supprimant, cela reste positif.
      Une bonne méta, juste, doit prendre un max d’études et non quelques unes, faire comme pour la notation des juges dans certains sports éliminer deux meilleures et les deux plus faibles, car sans doute atypiques ou non objectives. Et même si cela marche 10 fois moins, cela reste supérieur au Doliprane et mois toxique.

      • Merci Doc . Comme quoi faut pas se laisser impressionner par un grand nom. Je veux croire que P. Gøtzsche sera à même d’entendre les objections et remarques qui lui seront faites. [on peut rappeler que ses ennuis à la Cochrane ont commencé après qu’il eut publiquement commenté les recommandations de la Cochrane / vaccin papillomavirus]

    • A noter que l’étude d’Elgazaar compare l’efficacité de l’IVM et de la chloroquine,au bénéfice de l’IVM.
      Gotzsche est beaucoup moins “chinois” avec l’inoculation de masse,puisqu’il n’en profite pas pour rappeler,dans son plaidoyer pour la rigueur scientifique, que pour le moment,les inoculations de masse ne sont toujours pas évaluées,elles(va falloir attendre 2023)!!!

      • Lui est demandé s’il était d’accord (n’avait pas lu ce fil avant) de participer comme consultant sur un recours judiciaire contestant les “recommendations” faites aux personnes immunodéprimées et déjà infectées par le covid, il a accepté, en précisant qu’il l’avait fait auparavant pour les vaccinations obligatoires contre la grippe dans les universités californiennes…

        • Excusez-moi HANNIBAL, je ne comprends pas de qui vous parlez. Voudriez-vous bien préciser ? D’avance, merci.

          • De Gøtzsche. Le souci viendrai plutôt de l’avocat(e)… J’ai du mal à en trouver un(e) qui veuille s’impliquer. Contester la politique de santé sur la population précise des immunodéprimés les rend peut être frileux…

            Alors que ça devrait être l’inverse.

        • À propos des immunodèprimés, je connais un jeune de 20a, immunodéprimé après greffe rénale, qui en est à sa 4ème injection Pfiser, en ce moment très fatigué et aucun anticorps de détecté à l’examen. Jusqu’où ira la folie vaccinale…..

    • C’est pourquoi je n’achète plus Charle hebdo ni le Canard ( je regrette ses mots croisés) mais ne supporte plus leur position pro-vaccin arn et cie…Mes courriers au Canard suite à leurs attaques contre IVM, basées sur l’étude foireuse du JAMA et malgré les arguments donnés par Dr Maudrux, rien à faire, ils restent sourds et deviennent “courant principal” (mainstream)..beurk

  12. Merci et bravo pour la clarté et la précision de cet article…qui devrait être lu par tous les “experts” (parfois auto-proclamés, dont la plupart des journalistes, et aussi des scientifiques et des médecins) s’exprimant dans les médias…ou dans les cafés du commerce.
    Bien confraternellement,
    Dr Jérôme Lefrançois (+ de trente années de recherche en pharmacologie clinique “au compteur”)

  13. Excusez mon à priori, donc merci aussi à Enzo L qui n’a peut être rien à voir avec Enzo Lolo ; mais la comparaison n’est pas dégradante, le travail de l’un comme de l’autre se distingue par leur qualité et leur contribution à stimuler la réflexion de tous.

  14. C’est un travail d’élévation des capacités de réflexion et de compréhension de ce qui nous entoure, quelle patience et quelle passion d’enseigner.
    Merci pour votre ténacité, votre honnêteté merci pour votre humanité , merci à Enzo Lolo, merci à Laurent Muchielli ( deux blogs Mediapart), merci à vous Gérard Maudrux…

  15. En parlant d’un essai, il a été conduit une étude sur la fertilité masculine et le vaccin Pfizer. Sur les réseaux, quand vous parlez de la fertilité, c’est étude que l’on vous ressort, ce qui cloue le bec à beaucoup de “complotistes”.
    Cette essai a étudié l’impact du vaccin sur les spermatozoïdes et a conclu qu’il n’y avait pas d’effet négatif. Quand vous lisez la méthode, les spermatozoïdes ont été analysé 70 jours après la 2ème dose. Sauf que !! La spermatogenèse prend environ 72 jours. Traduction : Si les spermatozoïdes en formation ont l’air viables, l’étude ne dit pas s’ils sont viables arrivés à maturation dans le testicule et plus tard.
    Voilà comment on retourne le cerveau des gens qui ne creusent pas. Personnellement, je ne rappelais plus du temps de la spermatogenèse (les études, c’était il y a longtemps et je ne travaille pas sur la fertilité !). Donc si je n’avais pas cherché, j’aurais pris cette preuve pour argent comptant. Il y a également des problèmes d’érection chez les hommes suite au vaccin, qui s’en occupe ?
    De même, on nous dit que la perturbation des règles est transitoires et n’a aucune conséquence. Ok. Mais il serait peut-être bon de savoir pourquoi les règles sont perturbées ! En quoi le vaccin joue sur les hormones et/ou les ovaires ?? A-t-on fait des analyses sur les jeunes femmes pour expliquer ce fait ? Ah mais les gens se contentent de france info pour leur dire que c’est pas grave.
    Le plus dur, c’est que les médecins le disent aussi, sans preuve et que cela ne les alerte pas plus que ça…

    • > Le plus dur, c’est que les médecins le disent aussi, sans preuve

      si on observe la médecine depuis 20 ans en arrière, les médecins sont devenus des beni-ouioui de l’industrie pharmaceutique…

      J’en arrive à penser que pour la très grande majorité d’entre eux, s’ils soignent c’est que cela tombe sur les trucs de base qu’une maman averties résoudrait tout seul. et dès que cela sort de la bobologie, ils font pire que bien.

      • ” beni-ouioui de l’industrie pharmaceutique”
        Oui et çà n’est pas nouveau.J’ai retrouvé un livre du Pr Escande”Medecin,releve toi”paru en 1998,qui en parlait déjà!

        • J’avais un pote de fac, très BCBG, catho, organiste à l’église, bien élevé sous tout rapport…
          Il était devenu visiteur médical et avait perdu toute considération pour le corps médical en constatant que l’affaire (la vente d’un quelconque produit pharmaceutique perlinpinpinesque) était dans le sac dès lors que la conversation tournait sur des histoires de culs !

    • Vidéo publiée par FranceInfo à ce sujet https://www.youtube.com/watch?v=hTE-BUmywVk avec à mon avis quelques perles
      “On ne retrouve pas ces troubles dans les effets indésirables parce qu’on ne les cherchaient pas”. Zut alors, les essais ne servent qu’à trouver ce que l’on pensait trouver ?
      “Les autorités ne peuvent pas établir de lien entre ce trouble et la vaccination” Quelqu’un pour leur dire que c’est à eux de montrer l’absence de lien et pas l’inverse ???!!!
      Et les gynéco “Oui, ça peut arriver” Ca peut arriver à quelle fréquence dans la population ? C’est arrivé pour quels vaccins ? Et si c’est arrivé pourquoi ne pas avoir inclus la recherche de cet effet dans les études, hein !
      Victoria Male qui dit qu’il faut faire des études à ce sujet “pour rassurer” (pas pour savoir, non, “pour rassurer” !)
      Et donc 1.5 millions de § dans la recherche pour enfin savoir … après vaccination générale
      Ils sont fous !

      • C’est sûr que quand on ne veut pas trouver il vaut mieux éviter de chercher. Exemple, on n’a jamais trouvé les victimes de Tchernobyl à part les quelques “héros” sacrificiels nécessaires à la saga mémorielle !

  16. Cette présentation était bien sûr due à Enzo L à qui je présente mes excuses et lui adresse les mêmes félicitations pour ce travail remarquable.

  17. J’ajouterai qu’en temps normal, l’ARNm n’aurait jamais été introduit de cette manière dans la population. Je rappelle que même si l’ARNm est connu depuis des décennies, la 1ère injection à l’homme date de 2017 pour des personnes très malades (cancer). Dire qu’on a du recul est simplement un mensonge. On ne peut pas dire que l’ivermectine marche car cela ne marche que sur les cochons d’inde. L’inverse est pareil : ce n’est pas parce que l’ARNm marcherait sur les animaux (et non) qu’il marche sur l’homme.
    Il y a 2 poids 2 mesures.
    De plus, en tant normal, voilà comment cela aurait dû se passer : en virologie, nous avons des vaccins développés avec une technologie connue. Si les labo avaient fait correctement leur boulot, ils n’auraient pas dû comparer l’efficacité de leur ARNm sur le covid vs rien du tout, mais faire un ECR double aveugle avec virus mort ou atténué vs thérapie génique. C’est ça que personne ne comprend. Et que les labos ne viennent pas dire que cela a été fait avec l’urgence de la situation car les virus corona atténués sont utilisés par les chinois.

    • Tout à fait d’accord. On accorde beaucoup trop de place aux tests sur animaux, alors qu’on constate depuis des années qu’ils sont peu prédictifs de ce qui se passe chez l’homme. Seulement un peu moins de 10% des produits efficaces et sûrs chez l’animal passent le cap des essais cliniques chez l’homme :
      Chi Heem Wong et al. Estimation of clinical trial success rates and related parameters. Biostatistics 2019, 20:273-286

  18. Excellente présentation du Dr Maudrux , une fois encore. De l’importance de ne pas se laisser embobiner par les Monsieur je-sais-tout qui pullulent dans la complosphère BigPharmiste.
    Pour aller plus loin sur les traitements médiatiques réservés à l’ivermectine, dans un exemple frappant sur BFMTV : http://freefrancois.blogspot.com

    • @GERALD
      Attention au lien proposé : “freefrancois.bogspot … etc”
      Il m’a déclenché une alerte avec un verrouillage de mon écran, proposition d’appeler un support technique Windows
      Mais renseignement pris via mon smartphone, il s’agirait d’une arnaque au support informatique avec des escrocs qui se feraient passer pour des chevaliers blancs en résolvant des problèmes qui n’existent pas, puis réclament un paiement de plusieurs centaines d’euros.
      Très bizarre !
      Alors un conseil : EVITER DE CLIQUER SUR LE LIEN que j’ai cité en amont.

  19. J’apporte quelques nuances :
    – “Un ECR est un essai contrôlé : l’influence du traitement est estimée en constituant un groupe contrôle, qui n’est pas traité” : ce n’est pas toujours le cas. Le groupe contrôle est souvent traité par des médicaments standards vs la molécule expérimentale. Pour des raisons éthiques, le placebo n’est pas toujours un traitement factice, attention.
    – “Faire des calculs suppose en effet de transformer en mesures” : Complètement d’accord. Il m’est arrivé de me prendre le bec avec les data managers parce qu’ils brassent des données, nous on gère des patients. Cela m’est arrivé plus d’une fois de dire “Non, je ne mettrai pas cette donnée car elle ne correspond pas à la réalité, c’est la vraie vie ici hein”.
    – “Un ECR ne permet pas d’affiner le dosage d’un médicament : tous les participants du groupe traité doivent en effet recevoir le même traitement. Or bien souvent, l’efficacité dépend de la dose”. Je ne suis pas d’accord. C’est justement le principe des différentes phases des essais. Les essais de phase I sont menés dans des centres spécifiques et ont justement pour objectif d’évaluer la tolérance et la toxicité d’un nouveau traitement dans le but de déterminer la dose recommandée. C’est le principe de la dose minimale efficace et de la dose maximale tolérée.
    – “Un essai sous-dimensionné restera non significatif, même avec un traitement fortement efficace”. C’est pourquoi il existe des essais de phase IV (c’est pour ça que je dis depuis des mois que tant que les essais de phase IV n’ont pas avancé chez Pfizer, je ne me ferai pas injecter).
    – “De plus, les ECR soulèvent des questions éthiques : en soumettant des participants à un traitement expérimental — ou en donnant un placebo à des personnes atteintes d’une maladie — les chercheurs mettent au moins un des groupes de participants en danger.” Voir 1er point.

    • J’ajoute également que le promoteur et les investigateurs doivent se soumettre à des règles internationales. Voir Good Clinical Practice et ICH Guideline.

    • @margot….

      votre théorie est excellente…

      maintenant dans la pratique, quel médicament qui a changé la face du monde est sorti d’un RCT ? combien de scandales sanitaires viennent de médicament sortie d’un RCT ? et combien de médicaments sortis de la pratique médicale de tous les jours (sans RCT) .?

      • J’en connais plein. L’herceptine par exemple, qui a considérablement augmenté le pronostic des patientes ayant une mutation HER2+ dans le cancer du sein. La cyclosprine lors de la reperfusion cardiaque post-infarctus,
        Et la recherche ne concerne pas que les médicaments… Cela concerne aussi les dispositifs médicaux, les analyses génétiques, les biothèques, les techniques chirurgicales, les doses de radiothérapie, etc etc.
        Ce que je dis, c’est mon métier, ce n’est pas une théorie. J’ai travaillé et travaille encore sur des maladies graves : sclérodermie systémique, transplantation pulmonaire chez des patients mucoviscidose, maladies pulmonaires professionnelles rares, cancers solides, et peut-être bientôt hématologiques.
        J’ai moi-même une maladie orpheline ET une maladie idiopathique. Je ne peux pas vous laisser dire que la recherche est inutile.

        • @ Margot, Merci ++ pour tous ces post! et puisque vous travaillez sur les maladies rares et bientôt hématologiques, est-ce que vous auriez d’éventuelles infos sur d’éventuelles recherches actuelles concernant le PTI, qui pourraient ouvrir sur d’éventuels traitements efficaces quand rien de ce qui existe pour le moment ne marche (Rituximab, Revolade…). Je cherche s’il y a un espoir pour le
          communiquer à quelqu’un, on ne sait jamais …
          Merci beaucoup!

          • Malheureusement, je n’ai aucune info là-dessus… Je rappelle que je ne suis pas médecin, mes compétences sont relativement limitées 😉

        • @Margot
          Je crois que personne ici n’a dit que la recherche était inutile. Mais ne confondons pas “recherche” et “grand barnum” des études. En passant, ce qui est sans doute la plus grande découverte médicale de l’histoire de l’humanité – les antibiotiques – ne doit rien au RCT.
          Si je parle de “grand barnum” des études, c’est suite à vingt mois d’un spectacle lamentable où des scientifiques ont passé leur temps à s’envoyer à la figure des études contradictoires (dont certaines carrément frauduleuses) et à se traiter mutuellement d’escrocs, de menteurs et de charlatans. Avant le Covid, j’avais un grand respect pour les médecins et les scientifiques. Aujourd’hui, je…
          Bon, passons à autre chose.

          • Avant le covid, j’avais un grand respect pour CERTAINS médecins. Si la connerie était inversement proportionnelle à l’intelligence, ça se saurait ! J’ai eu affaire à des médecins pourris, des enfoirés de 1ère dépourvus d’humanité, des salopards, des sexistes, etc.
            Et j’ai eu affaire à des médecins formidables, les meilleurs.
            En gros, j’ai eu affaire aux humains. un métier ne fait pas la personne, des cons, il y en a partout… En fait, le covid a juste montré que ce qui fait qu’un médecin est bon, c’est qu’il fait au mieux et écoute son patient. Avec le covid, des médecins que je pensais faire partie de cette catégorie ont montré qu’ils faisaient en fait partie de la catégorie des suiveurs, de ceux qui se conforment aux référentiels pour suivre ce qui a été éprouvé et validé. Certains médecins que je pensais bons et à qui on demande s’ils ont des patients avec des conséquences du vaccin sont incapables de répondre, disent qu’ils survolent rapidement ce qu’ils reçoivent de l’ARS etc. Bref, des gens bourrés de savoir mais incapables de dévier de la normalité imposée.
            Anecdote : une personne que je connais a eu des effets secondaires importants à la 2ème dose, ce qui l’a conduite aux urgences. Les médecins ont dit : On ne sait pas ce que vous avez mais ce n’est pas le vaccin. Tiens donc ! Alors soit vous savez ce que c’est et ce n’est effectivement pas le vaccin, soit vous ne savez pas et vous ne pouvez pas dire que ce n’est pas le vaccin.
            Ce raisonnement est tellement absurde que j’ai du mal à penser qu’on en arrive là. Ce qui me fait me dire 2 choses :
            – Je ne sais pas ce qu’il y a dans le vaccin mais ça transforme les gens en zombies incapables de raisonnement logique ou quoi ?!
            – La crise a provoqué de sérieuses failles psy chez nos soignants qui sont incapables de se dire qu’ils ont suivi aveuglément alors que c’était la mauvaise décision. Maintenir dans leur tête qu’ils ont contribué au bien commun soulage leur conscience. Mais je doute que certains dorment bien la nuit. Le subconscient a la dent dure…

    • Ce lien me paraît contenir des faits importants concernant la sécurité du médicament en général :
      “This is the first of 3 linked lectures given to family doctors in Stockholm on September 9 2021. The meeting was organized by André Marx, a family doctor in Stockholm who also runs Sweden’s first and only public health care-funded withdrawal clinic for psychiatric drugs.”

  20. Merci de cet article bien documenté et très clair . Comment peut on interpréter ce que l’on peut savoir de l’essai HYCOVID réalisé au CHU d’Angers et interrompu au motif qu’il ne comportait pas un nombre suffisant de sujets pour que l’on puisse en faire une analyse informatique valable .
    Un bras comportait 123 sujets recevant de l’ Hydro Chloroquine et enregistrait 6 décès
    Un bras comportait124 sujets placebo et enregistrait 11 décès

  21. Le vaccin ne doit pas être comparé uniquement au doliprane qui est la pire des solution, mais au traitement et en tenant compte de l’effet collectif de réduction de la propagation de l’épidémie ! Ce n’est pas facile, car il faut considérer toute la population : Nigéria, avec traitement et sans vaccin, de 14 décès par million. France avec vaccin 1730 décès par million d’habitants. Faut-il une autre preuve ? En France, il faudrait faire un essai des traitements en randomisant des départements entiers, mais c’est trop tard, car presque tout le monde est vacciné ! Lorsqu’un EHPAD est infecté par la COVID, le protocole ivermectine fait baisser la mortalité de 20% (voire 37%) à 2%. Actuellement, la mortalité en EHPAD avec la vaccination me semble très au-dessus de cette valeur.

  22. Aujourd’hui, on sait que 30% des vaccinés sont malades et contaminants durant les 15 jours suivant leur dose. Ils ne s’en rendent pas compte et sont des super contaminateurs. (Rachelle Walensky, Directrice de la CDC parle de bombes virales, y compris lorsqu’ils contractent la maladie ultérieurement). Il aurait donc fallu compter les malades dès le premier jour ! (PFIZER connaît sans doute très bien le problème, car il a exclu ces cas de son calcul). Véran les comptes dans les non-vaccinés !
    Du coup, plus on vaccine, plus il y a de cas ! Ce phénomène a été parfaitement visible à Gibraltar (33000 hab). PFIZER a fait un essai le 11 décembre 2020 en vaccinant 273 personnes, qui ont ensuite contaminés 3000 personnes avec plus de 55 décès. Le vaccin a donc contaminé d’autres personnes qui ne sont pas dans la population observée par l’essai randomisé. Le calcul de l’efficacité sur les 273 n’a rien à voir avec la réalité. C’est ce qui se passe aujourd’hui en Nouvelle Calédonie. C’est la vague Macron » suite au pic de vaccination de mi-juillet en métrolopole, en Martinique, et en Guadeloupe. C’est le vaccin qui crée l’épidémie vaccinale. La preuve par le cycle charge/décharge/charge a été faite en Afrique du Sud avec sa courbe de cas à deux vagues, avec la vague astrazénéca, puis l’arrêt de la vaccination et soin à l’ivermectine => « 0 COVID », puis la seconde vague PFIZER. Sans vaccin, il n’y aurait sans doute pas d’épidémie. (D’ailleurs, le nombre de cas a baissé en France en diminuant le nombre de vaccination par semaine). Cet effet pervers n’est pas visible dans l’essai randomisé…

    • > Ils ne s’en rendent pas compte et sont des super contaminateurs. (Rachelle Walensky, Directrice de la CDC parle de bombes virales, y compris lorsqu’ils contractent la maladie ultérieurement). I

      je ne peux plus croire le cdc, il faut une étude, sérieuse, re-faites par d’autres équipes qui ne sont pas proche du pouvoir et n’ont jamais été financées par l’industrie,

      Ce discours à pour seul but d’arriver à ce qu’ils veulent : tout le monde vacciné PLUS distanciations social et contrôle totale de votre vie.

      Si vacciner des gens crée des super-contaminateurs à quoi bon le faire ? le vaccin à pour objectif exactement l’inverse. À moins de vouloir une double vaxX + rappel tous les 6 mois + pass sanitaire + masque + distanciations…

    • Merci
      excellente démonstration du pourquoi on exclut les vaxxinés de moins de 15 jours de plusieurs dispositifs comme l’obtention du pass
      Parce qu’on sait que ce sont eux les super contaminateurs …. des bombes virales avoue la directrice de la CDC
      Et curieusement, pas de quarantaine pour eux (2 semaines) après injection ?

      Et maintenant? que se passera t-il quand ils choperont un super covid malgré leurs injections avec un système immunitaire sur-réagissant ?

  23. Une étude randomisée ne présente que ce que veut le labo. Pour ce vaccin, pour montrer tous les risques, il aurait fallu compter comme indésirable, les COVID, mais également toutes les myocardites, les AVC, les crises cardiaques et les décès dus au vaccin. Tout cela a sans doute été caché dans les 355 personnes qui ont été exclues du groupe vaccinés de PFIZER. A ma connaissance, PFIZER n’a toujours pas transmis ses données brutes expliquant cela, comme il devait le faire avant la fin juillet. Pour être honnête, il aurait été nécessaire de faire un essai plus long pour bien détecter les cas indésirables et la chute des anticorps avec le temps. C’est classique, on arrête un essai randomisé avant qu’il ne montre ce que l’on ne veut pas montrer.

  24. En tant que Prof de stat, je dis qu’il y a une erreur méthodologique majeure pour appliquer ces calculs sur les vaccins, car il faudrait que le risque soit équiprobable sur toute la population ou que la répartition de la population soit uniforme. Ce n’est pas le cas, le risque est plus fort pour les personnes âgées et il y a très peu de personnes âgées dans les populations suivies. Les calculs globaux n’ont pas de sens (a+b)/(c+d) # (a/c) # (b/d). Il faut séparer les populations. Dans le dossier PFIZER, les intervalles de confiances donnent l’incertitude sur l’efficacité : Entre 65 et 74 ans, l’intervalle est [53% à 99%]. L’efficacité est quelque part, entre 53% et 99%, ce qui signifie que l’efficacité garantie n’est que 53%. La valeur garantie est toujours la valeur la plus défavorable. L’autre valeur a seulement une probabilité de 2,5% d’être atteinte. Plus 75 ans [-13% à 100%], il n’y a aucune garantie d’efficacité (valeur négative). Pour les 18-64 ans [89%,98%], l’efficacité garantie n’est que 89%. C’est donc en sachant pertinemment que les EHPAD n’avaient rien à gagner de la vaccination que l’on a commencé par eux…Nous avons tous pu constater qu’il y a eu aucune amélioration, (plus de 11 000 décès COVID en EHPAD malgré une vaccination proche de 100% !). Chacun appréciera le décalage entre des vraies données du dossier et la campagne de communication mensongère basée sur une erreur méthodologique de débutants ou volontaire…

  25. Bravo Enzo L. pour cet exposé didactique, qui nous permettra de mieux comprendre les débats autour des ERC. J’attends la suite avec impatience !
    Mais pourquoi ne signez-vous pas avec votre nom complet ? (et éventuellement votre qualité).
    J’ai compris que ce blog est repris par un collectif de non médecins, car les médecins n’ont pas le droit de s’exprimer. Si vous êtes non médecin, pourquoi vous cacher ? A mon avis, ce blog gagnerait à plus de transparence.

    • @Didier Hanz
      “Mais pourquoi ne signez-vous pas avec votre nom complet ?”
      Il se trouve que travaille par contrats courts avec quelques employeurs réguliers, qui n’ont aucune obligation à renouveler mes contrats, et parmi lesquels plusieurs relaient activement les articles de “fact-checkers”, de zététitiens et autre gardiens de la doxa…

      • D’un autre coté, vous n’avez pas besoin de signer. Sans avoir lu votre nom, j’ai rapidement reconnu votre style. Donc je suppose que les gens qui vous emploient peuvent le reconnaitre aussi. (Je doute que quand vous écrivez pour eux vous fassiez en sorte de ne plus écrire des choses simples et claires)

  26. A ma connaissance, Raoult n’a pas fait d’essai en double aveugle randomisé, mais a-t-il publié quelque chose dans une revue à comité de lecture montrant que son protocole fait mieux qu’un placebo ?

    • Bonjour XC,
      Votre question contient sa réponse, puisque la comparaison avec un placebo nécessite un essai contrôlé randomisé en double aveugle.
      Mais je vous propose deux angles de réflexion :
      – En quoi “faire mieux qu’un placebo” est-il un critère pertinent quand on affronte une épidémie potentiellement dévastatrice ?
      S’il s’agissait de *mettre sur le marché* une nouvelle molécule, certes il serait indispensable de savoir si elle fait mieux qu’un placebo avant de se lancer dans le processus d’autorisation (parce que des placebos, on en trouve déjà sur le marché, et on n’a pas besoin d’en ajouter).
      Mais s’il s’agit de soigner des gens, donner un traitement qui n’a qu’un effet placebo est déjà mieux que ne rien donner du tout, puisque l’effet placebo a une influence positive sur le système immunitaire et sur la santé.
      – les publications de l’IHU dans des revues à comité de lecture montrent que les patients atteints par le SARS-CoV-2 et traités précocement par le protocole proposé dès mars 2020 avaient un taux de létalité et de recours aux soins intensifs nettement réduit par rapport aux patients ne bénéficiant pas du protocole de l’IHU.
      Cette étude, par exemple, montre une réduction de 82% de ce risque (intervalle de confiance à 95% de ce taux de réduction : entre 73% et 89%) : https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7315163/
      (Mais l’article ne dit pas si les patients non traités par le protocole étaient traités par un placebo. Est-ce vraiment important ?)

      • Voila exactement. Demande-t-on lors d’un violent incendie si tout est fait dans les règles pour l’éteindre ? Si le protocole est respecté?
        A ce titre un incendie vite maitrisé est celui pris à ses débuts. Toute ressemblance avec le covid étant purement fortuite. 🙂

        • ” Votre question contient sa réponse, puisque la comparaison avec un placebo nécessite un essai contrôlé randomisé en double aveugle.”
          Il me semble que ce serait vrai si on ne pouvait voir le résultat du traitement que par la constatation de l’état des patients et pas par une mesure reproductible. Dans l’essai de Raoult, il mesurait des charges virale et donc un autre équipe de recherche aurait pu assez facilement vérifier ses résultats en mesurant lui aussi des charges virales.

    • j’accepterais cette idée que faire une vraie étude avec placebo est toujours importante en médecine lorsque l’on aura fait une étude randomisée en double aveugle pour vérifier que la chirurgie est mieux qu’un placebo dans la gestion des péritonites aiguës.

      Moi cela commence à me gêner que les chirurgiens se comportent comme des charlatans.

    • Aucun des vaccins infantiles n’a subi les fourches caudines d’une comparaison avec un placebo.

      Quand il y a étude, elle se fait généralement avec un autre vaccin, pas un placebo – pour éviter le biais “effets indésirables”. Cool, non ?

      Vérifiez pour les 4 vaccins anti-Covid légaux en France.

    • Trop d’études biaisées qui ne s’occupent pas de l’immunité cellulaire. Conclusions taillées sur mesure pour plaire à la propagande et à la médecine-spectacle, aux dépens de la santé publique.
      Merci Mr Gibertie.

    • Merci pour votre implication à traquer les informations et contre informations…Bien sûr que l’immunité naturelle est supérieure à l’immunité vaccinale et qu’ils ne veulent pas la prendre en compte pour pouvoir injecter leurs vaccins coûte que coûte.
      Aujourd’hui, Jean Castex annonce que les tests ne seront plus gratuit pour les non vaccinés à partir du 15 octobre !
      Il fallait s’y attendre, mais , j’en pleure de ces mesures autoritaires idiotes, choquantes qui vont contre la bonne pratique de la médecine et même du bon sens…Je suis médecin anatomopathologie retraitée, à Meudon…Je résiste…J’ai envie d’aller au resto, aux expositions…
      Plus il y a de vaccinés…plus ils sont forts et continuent …Que faire ? Tricher ?
      Merci à vous
      Annie Sauvanet

      • Et bien… pourquoi pas.
        Si l’on regarde notre histoire, tous les résistants, les maquisards ont usé de différents stratagèmes.
        Nous sommes ces résistants aujourd’hui.
        Cordialement

  27. Excellent.
    Je retiens de tout ceci que, peu importe la méthodologie, seule compte l’honnêteté intelectuelle et morale qui sous tend l’expérimentation.
    Je dis bien morale et non pas éthique à dessein: les enjeux financiers étant sans commune avec le degré de respect des patients.

  28. Un grand merci pour toute cette analyse . Je vous suit depuis bientôt un an ,vous êtes pour nous d’un grand réconfort.
    Arrière grand-mère (préparatrice en pharmacie)

  29. J’attends avec intérêt la suite de cet exposé.
    Je connaissais ces méthodes mais manquais de détails pour les expliquer. Par contre, j’ai appris et surtout compris en quoi leurs limites remettaient en cause beaucoup d’affirmations politico- mediatiques

  30. Ergonomie
    Ce billet n’appaarait pas sauf directement daNs la rubrique accueil ou par lien reçu par mail
    Pas de flèche droite ou gauche à partir d’un autre forum.

  31. Bonjour,
    Sans se perdre dans les subtilités,il suffit de rappeler tout simplement que:
    1°) les statistiques sont les lois des grands nombres; les petites séries peuvent faire soupçonner des choses mais n’ont pas de valeur statistique.
    2°) les statistiques sont des calculs de probabilité et, par définition, donnent des probabilités et non des certitudes.
    On peut affiner les résultats mais les certitudes échapperont TOUJOURS aux statistiques par principe même.
    Tout le reste en découle.

    • Pas d’accord avec votre n° 1. Supposons une expérience avec 3 cas traités (les résultats étant 1, 2 et 3) et 3 cas non traités (les résultats étant 6, 7 et 8). L’important ici n’est pas les valeurs elles-mêmes, mais le fait que les 3 “traités” soient regroupés d’un côté et les 3 “non traités” de l’autre, autrement dit sans chevauchement des résultats des deux types de traitement.
      Il y a 20 manières de combiner les 6 résultats (1, 2, 3, 6, 7 et 8) étant donné que du point de vue de l’étude 1, 2 et 3 d’une part et 6, 7 et 8 d’autre part sont équivalents. L’ordre observé avait donc une chance sur 20 d’apparaître, ce qui donne une p-value de 0,05 (1/20). Autrement dit, avec les conventions habituelles (signification statistique pour une p-value ≤ 0,05), ce résultat est statistiquement significatif.
      Si vous avez un seul cas traité, il vous faut 20 contrôles pour atteindre une p-value ≤ 0,05, en supposant que votre cas traité est meilleur que les 20 contrôles.
      En conclusion, l’utilisation des statistiques exactes (E. J. G. Pitman, J. Roy. Stat. Soc., 1937 et E. J. G. Pitman, Biometrika, 1938, l’idée étant en fait proposée par Fisher dès 1925) permet d’obtenir une signification statistique avec des séries très petites.

      D’un autre côté, il ne fut pas confondre résultat statistiquement significatif et résultat intéressant. Par exemple, une molécule peut réduire de 5 % une numération bactérienne de manière statistiquement significative. Pour une utilisation comme antibiotique, je préférerais néanmoins que le nombre de bactéries pathogènes soit réduit d’au moins 95 ou 99 % !

  32. Je relève dans l’article d’E. Lolo ce très précieux : ” L’efficacité des trithérapies contre le VIH, par exemple, n’a pas été établie par des ECR.”.

    Précieux, car bien des personnes engagées alors dans la lutte contre le Sida ont depuis accédé à des postes de responsabilité ; il serait bon qu’ils s’en souviennent ou qu’à défaut on le leur rappelle.

    • Les acteurs du VIH ont mordu dans la poussière des pontes, les Profs Delfr**, Yzadan*** perclus de conflits d’intérêts jusqu’à la moelle. Que voulez-vous qu’ils randomisent, essaient ou contrôlent ? Ces cerveaux sont des labos incarnés.

  33. Bonjour
    Merci beaucoup pour cet article !
    Une question de béotien non médecin : pouvez-vous confirmer qu’une telle étude est nécessaire à n’importe quel médicament pour obtenir une AMM ? Si oui, selon quel(s) textes(s) ?
    Merci d’avance.

  34. Merci pour ce propos très pédagogique.
    Autre problème : comme il est en effet coûteux de réaliser un essai clinique, les labos ne le font que pour des nouveaux produits, à fort potentiel commercial. Pour les produits connus, déjà utilisés dans certaines indications, il est plus difficile de pouvoir financer un essai.

    • Plus difficile pour un labo effectivement mais ça devrait être le rôle des états ou d’instances internationales.
      Mais bien évidement il faudrait pour cela que ces états ou instances ne soient pas soumis aux labos

          • Disons qu’en état de faillite correspond à ce que vous dites.
            Par manque de moyens, incapable de trancher entre ce qui est important ou pas, l’état français ne peut plus financer ce genre d’étude, les prêteurs européens ne le permettraient pas.

          • > l’état français ne peut plus financer ce genre d’étude, les prêteurs européens ne le permettraient pas.

            si il pourrait s’il le voulait : imposer une taxe sur les pharmas qui vendent sur le territoire et flécher directement pour des études de repositionnement. Lorsque l’on voit le prix d’injections en oncologie dont le bénéfice est assez difficile à quantifier s’il existe, il y a de quoi faire.

            Le hic c’est qu’il ne reste pratiquement plus d’équipe intègre car le mode de gestion de la recherche en france à laminé ceux qui étaient intègres sélectionnant amoureusement les plus corrompus.

            donc l’état n’a plus la capacité intellectuelle de le faire, c’est certain. Et c’est là que nous sommes d’accord.

  35. Un bon post, merci Enzo L.

    J’ajouterais un élément pour ceux qui voudraient creuser.
    Dans les cas de sûreté indispensable, on prend plutôt des intervalles de confiance à 90% (ex, sûreté nucléaire ).
    En effet, un intervalle à 95% est plus large qu’un intervalle à 90 ,% ; plus on choisit un intervalle grand, plus la valeur qu’on y cherche a de chance d’y apparaître ( à la limite 100%, donne toutes les valeurs imaginables) et plus l’écart entre la réalité et la valeur peut être importante.
    Une valeur cherchée, trouvée dans un intervalle à 90 % est donc plus “certaine” que dans un intervalle à 95 %.

    • Bonjour Michèle S,
      Je crois que vous avez raison sur le principe, mais que c’est dans l’autre sens : en cas de sûreté indispensable, on prend plutôt un intervalle de confiance à 99%. En effet (comme vous le dites justement) un intervalle de “confiance à 99%” est plus large qu’un intervalle de “confiance à 95%” et… puisqu’il est plus large, il a plus de chances d’englober des valeurs moins probables mais qui exigent de tout arrêter pour ne pas prendre de risque grave.
      Dit autrement : si l’intervalle à 99% (large) reste entièrement dans des valeurs acceptables pour la sûreté : on a moins d’1% de chance de se tromper, et on est plus en sécurité que si on se contente de vérifier que l’intervalle de confiance à 95% reste dans les bonnes valeurs.

      • Je ne crois vraiment pas , quand on cherche à être proche d’une valeur précise.
        Peu importe, de tte façon, l’habitude est de choisir 95, tt le monde en connaît les constantes.

      • J’ai lu trop vite votre remarque poyr y répondre correctement. J’avais dit que si on cherchait une valeur dans l’intervalle de confiance, 90 % est meilleur que 95%…si on la cherche à l’extérieur, effectivement, 99% est meilleur que 95..
        Nous sommes donc d’accord!

        • Ici l’important est surtout que la borne sup de l’intervalle soit inférieure à 1, donc le 99% rend plus fiable l’efficacité, car même avec un intervalle plus large, l’effet reste signicatif.
          On peut se demander qd même pourquoi utiliser un test bilatéral pour ces études. Ce n’est pas un “risque” que le traitement soit plus efficace que la borne inf. La borne sup du bilatéral à 95% correspondrait au 97,5% en unilatéral.

  36. J’ai adoré! Ça incite à aller lire d’autres documents sur le sujet.
    À lire en creux, on ne peut évidemment que penser que toute ressemblance avec des expériences existantes, concernant des médicaments ou vaccins, serait purement fortuite.
    Les “outcomes” retenus pour chaque vaccin étaient lesquels?
    À vous lire, ma préférence irait vers l’étude observationnelle, puisqu’il me semble, on maitrise mieux les échantillons (à condition de rester honnête). D’ailleurs celle-ci devrait maintenant être utilisable pour les vaccins, tant qu’il reste des non-vaccinés?
    (Ce document a du vous demander un travail très important, merci!).

    • @Cata,
      Pour les “outcomes” des études sur les vaccins, je peux répondre pour ce qui concerne Pfizer : l’outcome retenu pour mesurer l’efficacité du vaccin était l’apparition de symptômes de Covid-19 confirmés par un tests positif plus de 7 jours après la deuxième injection et avant la fin de la surveillance (environ 1,5 mois). Autrement dit : on a comparé le risque de connaître une forme symptomatique de Covid si on est vacciné depuis + de 7 jours, ou si on n’est pas vacciné.
      Dans l’essai sur les adultes, on a mesuré un risque de 0,88% de faire une forme symptomatique si on n’était pas vacciné (162 patients symptomatiques sur 18325 participants dans le groupe placebo, et 162/18325 = 0,0088) et dans le groupe vacciné on a mesuré un risque de 0,04% de faire un Covid symptomatique (8 / 18198 = 0,0004), durant la même période de 1,5 mois environ.
      Le RR est alors de 0,0004 / 0,0088 = 0,049 ce qui correspond à la réduction de 95,1% du risque fièrement annoncé par Pfizer, c’est-à-dire à une efficacité de 95,1%
      L’intervalle de confiance à 95% de cette efficacité est affiché dans l’étude (Table 3) : avec moins de 5% de chances de se tromper, Pfizer peut dire que le RR dû au vaccin se situe entre 90,0% et 97,9%.
      L’étude est ici : https://www.nejm.org/doi/full/10.1056/NEJMoa2034577
      Pour ma lecture critique d’une autre étude de Pfizer (celle sur les adolescents), vous pouvez aller voir là : https://blogs.mediapart.fr/enzo-lolo/blog/300721/covid-19-examen-detaille-dune-etude-sur-le-vaccin-de-pfizerbiontech

      • Merci encore, mais 162 cas ou 8 sur des échantillons de 18000, ça m’interroge?
        Et je croyais que ces vaccins étaient censés éviter les cas graves, pourtant ça ne semble pas figurer dans l’outcome?!
        Y a t-il un organisme (qui devrait être étatique, puisque l’état c’est nous) qui sort des stats honnêtes et fiables?!
        Merci encore pour votre travail qui semble avoir été unanimement apprécié ici.

      • Merci beaucoup Enzo L pour cet énorme travail.
        J’adore votre blog sur médiapart et j’imagine que vous devez consacrer un temps fou pour rédiger chaque article. Le temps est ce qui manque le plus aux gens pour s’informer… et l’envie sans doutes aussi .

        Dans l’étude de Pfizer que vous citez pour les adultes il y a deux points qui me gênent :
        1er : Pfizer se targue d’avoir mené une étude sur plus de 44.000 personnes (en fait 43.000 environ qui on reçu une injection) mais le problème c’est qu’au moment de la remontée des résultats, 2 mois après il n’y avait environ que 40.000 dossiers remontés. Il en manque 3.000 ! Pfizer donne des raisons de la non prise en compte de quelques centaines mais pas les 3.000. Quand on sait que l’efficacité a été calculée sur 8 et 162 (ou 9 et 169 si on inclut ceux qui avaient des signes de covid antérieurs) : les dossiers manquant auraient pu changer considérablement le % d’efficacité.
        2ème : le dossier de Pfizer fourni à la FDA ne donne pas (ou alors je suis passé à côté, c’est possible aussi) la répartition géographique des cas + au Covid. Il suffirait qu’il y ait eu un cluster de 150 personnes par exemple sur un des sites participant à l’étude (genre une résidence universitaire) et que les gens soient dans le groupe placebo; pour faire augmenter en flèche le nombre des cas+ chez les vaccinés. La randomisation a-t-elle vraiment été faite au hasard ? Est-ce que cela ne constitue pas un biais ? Pfizer fournira-t-il ce genre de données ?

        Conclusion : dans tous les cas, tout repose sur des croyances qu’on le veuille ou pas : croyance que les collaborateurs de Pfizer sont tous honnêtes et parfaitement compétents (et qu’ils n’ont pas eu la tentation de ne pas faire remonter des résultats qui seraient moins intéressants pour leur employeur) croyance que toutes les données sont réelles et pas arrangées. On ne peut faire autrement que de croire… ou pas.

  37. Conclusions pour les nuls: “les scientifiques qui affirment plein de choses (notamment dans les médias depuis 18 mois) ne sont pas de vrais scientifiques Un vrai scientifique n’affirme jamais, car fondamentalement il doute toujours de ses expériences et de son expérience.” (que dire alors des journalistes et des gouvernants…)

    • Bonjour
      Il me semble que les scientifiques n’affirment guère en termes absolus, mais qu’ils pratiquent des énoncés relatifs du type “si les conditions a, b et c sont réunies, telle affirmation est vraie. Dans le cas contraire elle est fausse.”

  38. Bonjour,
    Lire votre article me procure un immense soulagement. Et je suis prêt à parier qu’il ne s’agit pas d’un effet placebo.
    Nous sommes nombreux je l’espère à pressentir ces nombreux biais de l’E B médecine mais sans avoir le temps ou plutôt les moyens comme vous de les dénoncer.
    Un grand merci donc.

    • J’éprouve le même soulagement que vous à la lecture de cette article et votre “plume” a devancé la mienne !

  39. Merci cher Dr Maudrux pour la clarte de cette explication! Vivant en Angleterre j’ai ecoute avidement les communications de Dr Tess Lawrie qui a critique les decisions prises par rapport a l’efficacite de l’ivermectine: “Penser qu’un résultat statistiquement non significatif équivaut à une preuve d’inefficacité est donc une erreur fondamentale”!!! You have hit the nail on the head, ou vous etes dans le mille! Il s’agit j’apprends d’un petit palet utilise dans le jeu de tonneau. Non, non c’est plutot vous avez tape dans le mille au jeu de flechettes. Dr Tess Lawrie expliquait aussi par rapport surtout aux effets secondaires des vaccins que nous n’avons pas la possibilite de verifier la cause a effet en arretant le traitement puis en le recommencant.
    Merci de votre soutien a nous tous qui savons que ca ne va pas!

  40. La confrontation entre étude ECR et étude observationnelle n’est pas une nouveauté.
    Ce qui l’est, c’est qu’elle soit utilisée comme une arme dans un combat à mort.
    Gardons un ton badin pour le public.
    Au tout début de ma carrière, le contraste était saisissant entre nous, Latins (quand je fais comme cela, j’ai l’impression d’avoir de meilleurs résultats) et les Américains (ne reconnaissant que ce qui a été prouvé par statistiques).
    C’était très folklorique. Par exemple, dans les plus prestigieux congrès américains, il nous arrivait de bien rigoler en entendant les conclusions de certaines présentations.
    Puis un jour, dans ces mêmes congrès, est apparu, à la fin de chaque exposé, un nouveau chapitre « Dans la vraie vie ». Les américains sont (étaient) très pragmatiques. L’incroyable se produisit : Il nous est arrivé d’entendre l’orateur dire dans ce chapitre l’exact opposé des conclusions de l’étude statistique qu’il venait de présenter!
    On voit à quel point, aujourd’hui le pragmatisme américain et le sérieux européen ont bien évolué.
    Les études cliniques observationnelles sont l’absolu équivalent de ce chapitre “dans la vraie vie“.
    L’attitude saine, si le but était de progresser, serait de reprendre ce schéma de confrontation entre ces 2 types d’approche, car elles sont complémentaires et en rien concurrentes.
    Tôt ou tard, la clinique dira le vrai.
    Mais la vérité est-elle l’objectif des politiques et ceux de big pharma?

    • @CASUFFIT : vous rapportez ce très intéressant souvenir : “Puis un jour, dans ces mêmes congrès, est apparu, à la fin de chaque exposé, un nouveau chapitre « Dans la vraie vie »”. Sauriez-vous, approximativement, dater l’apparition de cette évocation de la “vraie vie” dans les études cliniques ?
      Merci.

      • Si je me souviens parfaitement du congrès car ce fut réellement une révolution : l’AOO (American accademy of Ophtalmologie), je ne saurais le dater avec précision. Je dirais entre 1990 et 1995, à une époque où l’art de la médecine n’était étudiée et discutée qu’entre médecins.

  41. Merci ENZO L. pour cet exposé qui est utile pour les “sachants” et surtout qui s’adresse à TOUS les autres….
    On est dans l’excellence en phase avec le concepteur de ce site notre confrère MAUDRUX et de nombreux intervenants qui commentent.
    Notre reconnaissance et soutien.

    • Elles me semble éthiques si on ne sait pas encore soigner une maladie et que l’on a de réelles raisons de penser que le produit testé ne va pas nuire. Les personnes qui meurent au cours de l’étude seraient mortes de toute façon.
      Ensuite si on sait soigner mais que l’on cherche un meilleur traitement, l’utilisation d’un placebo, c’est du Mengele. L’essai devrait comparer l’ancien traitement et le nouveau dont on a de réelles raisons de penser qu’il est meilleur que le précédent, à mon humble avis.

      • C’est ce qui est fait dans les maladies graves. Traitement standard vs traitement expérimental. Bien sûr, on ne laisse pas les patients sans traitement.

    • Les essais sont soumis à une autorisation de l’ANSM et une approbation du comité de protection des personnes. Cette question n’est pas rarement posée mais est posée à chaque proposition d’essai interventionnel par un promoteur.

  42. Merci. Autre problématique, contextuelle et non méthodologique, les ECR demandent souvent des moyens importants et cela transforme en pratique ces approches théoriquement saines en purs instruments marketing :

    les ECR pour des traitements intéressants financièrement sont généralement conduits par des personnes cherchant à prouver l’efficacité, en s’appuyant sur des outcomes pour lesquels des études préliminaires montrent un effet, que ce soit ou non les meilleurs outcomes par rapport au sujet de santé étudié (ex: chercher à prouver l’efficacité d’une troisième dose à partir de la charge virale en cas de contagion, plutôt que le risque de contagion et de dangerosité de la maladie).

    Dans l’autre sens, les ECR sont aussi utilisés pour dézinguer les traitements concurrents, et là les possibilités sont innombrables. Un ECR pour un traitement financièrement inintéressant est notamment de suite sujet à caution. Ces ECR auront tendance à être sous-dimensionnés (pour user de la confusion entre “pas d’effet significatif” et “pas d’effet”), à prendre des doses trop fortes (pour faire apparaitre des effets secondaires) ou trop faibles (pour ne pas trouver d’effet), ou à prendre des patients non concernés (pour dilluer des effets positifs observables sur les patients concernés) ou à prendre des outcomes vraisemblablement inadéquats, etc. L’imagination a peu de limites, peu de patients et personnels qui participent à l’essai peuvent véritablement se rendre compte de ces soucis, ne serait-ce de par la multiplicité des acteurs et des choix initialement possibles et la difficulté d’avoir la vision globale. Ainsi, le coût des ECR transforme ces approches théoriquement très bonnes en instruments marketing et non pas scientifiques.

    C’est triste mais à ce jour, étant donné les enjeux, il faut beaucoup d’analyse contextuelle pour évaluer la qualité des résultats et interprétations d’essais cliniques. Dans un monde idéal, les enjeux seraient réduits (ex: les gains financiers ne seraient pas ou peu dépendants de quel traitement “gagne”) mais cela n’est probablement pas évident à mettre en place.

    • PS: je commence la réflexion mais j’imagine que des penseurs ou chercheurs ont déjà planché sur le sujet — preneur de liens correspondants — : on pourrait réduire les enjeux de dézingage de traitements sans réduire les gains financiers et même en les lissants, ce qui financièrement serait bon pour la pharma : en répartissant les gains financiers de façon équitable au sein du pool de promoteurs, traitements brevetés ou non.
      Il y aurait toujours un intérêt à ce que “sa molécule gagne” pour des raisons d’image. Il y aurait toujours un dézingage de molécules qui n’apportent pas ce gain poolé, mais ce dézingage n’existerait plus si n’importe quelle molécule qui fonctionne apporte le gain au pool.
      Donc ça poserait la question de qui sont les membres d’un pool, combien gagnent-ils, comment, plutôt que que quelles molécules rapportent de l’argent. Les états auraient des besoins pour la santé de leurs citoyens, ils définiraient des pools et qui gagne quoi (à voir comment… je suis dans l’ébauche de la réflexion; pas sûr qu’on puisse créer un meilleur sytème…) et ensuite il faut définir la règle de financement de la distribution du bon traitement aux bonnes personnes (avec des plateformes de distribution payées la même chose qqs soit le traitement et le nombre de traitements). Pas évident d’avoir un moteur économique efficace mieux orienté vers l’utilité générale — mais vu les enjeux il doit bien y avoir des gens qui ont réfléchi à ça…

  43. Article remarquablement clair et démonstratif d’un argumentaire déjà bien connu de façon plus touffue et parfois difficile à comprendre ailleurs. Ce texte devrait être en lecture obligatoire pour des “suffisants-insuffisants” type Raphaël Einthoven ou Patrick Cohen qui se croient capables sur la base de leurs convictions idéologiques de critiquer des vrais scientifiques modestes et ouverts !!

  44. Une petite précision supplémentaire. Quand on calcule le p-value, on prend généralement comme référence une distribution, classiquement la courbe de Gauss (courbe en cloche, parce que c’est la plus fréquente), ou une distribution dérivée de celle-ci (Poisson, Student, variance, etc). Si la distribution réelle des données recueillies ne correspond pas à la distribution supposée, tous les calculs sont bons pour la poubelle, et il est parfois fort difficile de s’assurer que la distribution des données est bien une courbe de Gauss (ce qui implique d’autres tests statistiques).
    Dans les années 30, des statisticiens ont contourné le problème en éliminant le besoin de cette hypothèse, ce qu’on appelle les “statistiques exactes”. On calcule simplement la probabilité qu’on avait d’obtenir la distribution observée à partir des données recueillies. En clair, si j’utilise un antibiotique, ou supposé tel, sur une culture bactérienne, le nombre de bactéries survivantes sera-t-il plutôt plus faible après utilisation du produit testé ? Ceci implique de calculer TOUTES les combinaisons des chiffres individuels mesurés avec et sans produit à tester et de regarder le rang de la combinaison expérimentalement observée parmi toutes les combinaisons possibles. Le calcul des probabilités donne alors directement le p-value sans aucune hypothèse. Le gros inconvénient de cette méthode est qu’il demande un temps de calcul considérable dès que le nombre de mesures augmente un tant soit peu. Cette méthode n’a donc pu, sauf cas simplissimes, être mis en oeuvre qu’avec l’avènement des ordinateurs. Des logiciels sont disponibles.
    C’est cette méthode qui explique que le contrôle soit inutile quand le résultat de ce dernier est hyperconnu. Si une maladie entraîne TOUJOURS la mort (disons que ceci a été observé 10.000 ou 100.000 fois), un traitement qui empêche celle-ci aura une p-value de 1/10.000 ou 1/100.000 (environ : je passe le détail des calculs) et il n’y aura donc aucun doute sur son efficacité. Par contre, si cette maladie n’entraîne PAS toujours la mort, il faudra faire beaucoup plus de tests pour s’assurer que la probabilité de guérir avec traitement est supérieure à celle de guérir spontanément, et plus celle-ci est élevée, plus le nombre d’essais devra être important.

  45. “Un ECR est un essai randomisé, ce qui signifie que la décision de placer un participant dans le groupe traité ou dans le groupe non traité fait appel au hasard. Cela permet d’éviter un biais de sélection : le risque que, consciemment ou non, les chercheurs favorisent le résultat espéré”

    C’est une erreur fondamentale. Il y a des critères de confusion qu’il faut éliminer avant. Imaginons une affection lambda avec une forme bénigne et une forme grave, les 2.non identifiée. Placer 10 000 personnes dans chaque groupe avec 5000 formes bénignes et 5000 formes graves et que le traitements marche bien dans les formes bénignes et pas du tout dans les formes graves. le résultat de la RCT sera positif puisque les bénins du groupe traité vont faire pencher la balance.

    Maintenant dans la vraie vie, comme il est probable que l’on ait plus de formes graves à traiter que de formes bénigne, le résultat en observation sera médiocre, voir très médiocre.

    Et je ne parle pas de la mauvaise foi de ceux qui font les études qui n’est pas pris en compte dans cet argument.

    • Et je rajoute que la science n’est pas d’avoir une étude qui montre que, mais que cette étude soit refaite par d’autres équipes à d’autres endroits et qui montrent la même chose.

    • @Duchmol
      Il me semble que vous avez raison.
      J’ai légèrement modifié le texte du billet, en remplaçant “cela permet d’éviter…” par “cela vise à éviter…” (qui n’affirme pas que le but est atteint) mais votre remarque complète est juste.
      La deuxième aussi, d’ailleurs : la science à bien d’autres façon d’avancer que par les ECR. La réplicabilité des résultats en est une.
      L’approche popperienne propose en gros que, même si une théorie n’est pas prouvée, on peut la considérer comme valide tant qu’on n’a pas observé de situation où elle est fausse. (Une théorie ne peut alors être scientifique que si on peut concevoir des expériences dont certains résultats conduiraient à invalider la théorie.)
      La focalisation sur les ECR comme “seule” méthode scientifique susceptible d’identifier un traitement est, me semble-t-il, un dogme, peu à peu imposé par l’industrie pharmaceutique parce qu’il la favorise : elle seule (ou presque) peut mener des ECR, et elle choisit donc sur quelles molécules les mener.
      Ce n’est pas un hasard si les traitements précoces à base de médicaments anciens ont été testés dans des “petits” ECR : ce sont souvent des équipes de médecins qui les ont menées sans grand financement, notamment dans des pays où ils n’espéraient pas bénéficier des nouveaux médicaments anti-Covid qui seraient mis sur le marché par les labos.
      Voir par exemple l’interview du Pr Babalola qui a mené au Nigeria une des études sur l’ivermectine : https://www.francesoir.fr/videos-les-debriefings/pr-femi-babalola

    • Merci à tous 2 pour cette discussion qui éclaire le sujet en mettant à l’épreuve le raisonnement.
      C’est passionnant !

  46. merci pour la pédagogie.
    J’avais aussi lu un article de vous sur les méta-analyses il me semble, tout aussi clair.

  47. Excellent exposé.
    La seule remarque que l’on pourrait faire est d’affirmer plus encore le rôle déterminant de l’importance de l’échantillon et de son homogénéité, sans lesquels on peut faire dire à une étude en ECR la plus rigoureusement conduite ce que l’on veut.
    Aux anciennes grandes études fort coûteuses portant sur des milliers ou dizaine de milliers d’individus avec 1 seul résultat, a fait place un grand nombre de petites études portant sur un nombre faible d’ échantillons.
    Ceci est couramment utilisé par les labos depuis 20 ans : Vous lancez 50 petites études plutôt qu’une unique grande sur l’efficacité de la poudre de perlin pinpin sur ce que vous voulez. Non seulement, cela va vous coûter infiniment moins cher, mais vous avez toutes les chances d’en obtenir 45 qui concluent aucune efficacité et 5 une bonne efficience. Vous jetez à la poubelle les 45 et publiez les 5 qui vous sont favorables et le tour est joué.

    • @Casuffit
      Oui, ce genre d’entourloupes a permis de nombreuses fraudes scientifiques.
      Il me semble que c’est pour éviter que des résultats d’essais soient dissimulés qu’il est désormais obligatoire de déclarer chaque projet d’essai au préalable, sur un site tel que clinicaltrials.gov
      (Dans quelle mesure cela empêche-t-il vraiment de dissimuler des résultats qui ne vont pas dans le sens escompté ? Je ne sais pas.)

      • C’est super facile, il suffit de sortir de l’étude pendant qu’elle se réalise les gens qui ne réagissent pas comme on veut, pour tout plein de raisons… perte de vue, affections annexes, changement d’outcome….

        Lorsque l’on veut tricher, il y a toujours un moyen de tricher “légalement”

  48. Bravo pour cette analyse brillante et parfaitement claire qui donne effectivement à réfléchir un peu plus loin que le bout de son nez ; à envoyer d’urgence à ttes les équipes journalistiques et à certains confrères desquels je ne m’exclus pas d’ailleurs.

  49. Merci ,très clair et utile en cette période où c’est bien d’avoir cet outil pour comprendre les chiffres qu’on nous donne !

  50. Comme disait le professeur Raoult : l’efficacité des parachutes n’a jamais été prouvée par des essais randomisés.
    En réalité, quand l’efficacité du traitement est évidente, il n’y a pas de raison d’effectuer des essais de contrôle, la connaissance du pronostic sans soins et de l’évolution avec soins est suffisante.
    Les essais randomisés ne sont nécessaires que pour prouver l’efficacité d’une différence invisible à l’œil nu, autrement dit, pour prétendre que des traitements faiblement efficaces (mais nouveaux et coûteux) vont néanmoins dans le bon sens (en supposant l’absence d’effets indésirables). Qui a besoin de ça? Is fecit, qui prodest.

    • Pourquoi ne pas évoquer aussi le calcul d’erreurs.
      Une mesure, n’est qu’un chiffre obtenu par une méthode et un appareil entaché d’une erreur due à la manière dont il est recueilli. Les statistiques viennent après ou avec le calcul d’erreurs du à la technique de mesure.

    • Vos remarques me paraissent les plus judicieuses, en l’occurrence.
      En termes plus simples, on dit : C’est enc. une mouche avec des gants de boxe.

    • La remarque de Raoult n’a, tout simplement, pas de sens. Les essais randomisés n’ont de sens que dans les domaines où l’influence exercée sur l’esprit humain peut avoir une incidence sur le résultat. Il aurait été plus positif qu’il donne des exemples de vaccins ou de médicaments récents, hors ceux dont l’efficacité est prouvée par un usage ancien, mis au point sans essais randomisés.

      “…quand l’efficacité du traitement est évidente…” Qui juge que c’est le cas, par quelle méthode, sur quels critères ?

      “Les essais randomisés ne sont nécessaires que pour prouver l’efficacité d’une différence invisible à l’œil nu…”. Non. Ils sont nécessaires pour vérifier si un candidat vaccin ou médicament fait mieux qu’un placebo, ou, éventuellement, que le meilleur vaccin ou médicament existant. Après, un traitement faiblement, mais significativement, efficace, même cher, peut être mieux que rien. Mais c’est une autre question.

      • > Après, un traitement faiblement, mais significativement, efficace, même cher, peut être mieux que rien.

        pas forcément, parce que les effets indésirables à long terme peuvent être pire que le mal. D’ailleurs on a l’exacte preuve en vivo avec le vaccin covid. qui était faiblement efficace déclaré ‘significativement’… à dans la vraie vie peu d’efficacité et des effets indésirables dévastateurs (des ados et des bébés meurent ! ! !).

        Vous passez à coté du point de raoult. Il explique que les traitements qui sont “faiblement efficaces” dans les études sont en gros inefficace dans la vraie vie. D’abord parce que les conditions de sélection de la population de l’étude diffère grandement de l’utilisation en population générale (par exemple encore dans le vaccin covid, pratiquement pas de plus de 75 ans dans l’étude et ZÉRO dans l’étude du booster 3ème dose alors que c’est la population cible dans la vraie vie).

        Ensuite parce qu’il dit dans un jeudi de l’ihu que les gens ne prennent pas le traitement, ils arrêtent avant la fin, en oublie au travers et en prennent 2 le jours suivant… (par exemple encore avec le vaccin covid : le délai de l’étude entre les 2 injections n’est pas respecté, on fait une deuxième dose avec un autre produit…)

        Ainsi dans la vraie vie, à la louche, AUCUNE étude rct randomisé contre placebo n’a trouvé un seul médicament qui sauve des vies et n’est pas retiré après un scandale ayant éclaté ou pas, même les vaccins sont randomisés contre d’autres vaccins. je peux faire une étude qui montre que le chlore en injection n’est pas si mauvais, il suffit que mon groupe témoin ait de l’acide chlorhydrique.

  51. Merci pour cette clarification sur les études en général et sur les usages et mésusages qui en sont fait. J’ai enseigné moi-même un peu de statistiques et il n’est pas toujours facile de tirer des conclusions. D’autre part, bien que n’ayant pas de rapport direct avec votre sujet, j’aimerais avoir votre avis et celui de ceux qui vous entoure sur cette information relatant la présence d’oxyde de graphène dans les “vaxxins”
    https://www.drrobertyoung.com/post/transmission-electron-microscopy-reveals-graphene-oxide-in-cov-19-vaccines

    • Avis difficile, comment démêler le vrai du faux. L’opacité dans la composition exacte et le mutisme des autorités compétentes ne plaide pas en faveur de quelque chose de correct. Quelqu’un a-t-il lu ou entendu une autorité officielle type FDA ou ANSM affirmer formellement, par écrit, engageant sa responsabilité, qu’il n’y avait pas une once de ce type de produit ?

  52. Merci Mr Enzo
    Il est extrêmement utile de rappeler les bases des raisonnements, notamment quand ils font intervenir des outils statistiques. Vous le faites avec une clarté remarquable.
    Une petite question
    Dire que l’intervalle de confiance est de 95%, revient-il à dire que la marge d’erreur est de 5% ? Le grand public
    est plus ou moins familier avec cette dernière notion, tandis que “intervalle de confiance” ne lui parle pas ou peu.

    • L’intervalle de confiance est un intervalle, c’est-à-dire que si la valeur mesurée est par exemple 2, on peut avec de faibles chances (mettons 5%) de se tromper assurer que la valeur réelle est entre 1,8 et 2,3 (par exemple).
      En fait, il y a deux approches non équivalentes qui peuvent s’appliquer :
      a) Si la valeur réelle est la valeur mesurée, et compte tenu des fluctuations statistiques, la valeur observée si on répète l’expérience tombera dans l’intervalle [1,8 – 2,3] dans 95% des cas.
      b) Si la valeur réelle avait été hors de cet intervalle (mettons 1,5), la probabilité d’obtenir l’écart observé (mesurer 2 pour une valeur réelle de 1,5) aurait été inférieure à 5%. Les valeurs réelles pour lesquelles la mesure observée n’est pas invraisemblable constituent l’intervalle de confiance.
      La première approche est moins rigoureuse, puisqu’on fait une hypothèse sur la valeur réelle, mais elle est nettement plus facile à calculer. Et comme la différence est assez marginale, on se contente de ça.
      Dans les deux cas, on dit que l’intervalle de confiance à 95% est [1,8 – 2,3]. L’interprétation est que la valeur réelle a 95% de chances de se situer entre ces bornes, et 5% de chances d’être en dehors.

    • Bonjour Valete09,
      La marge d’erreur et l’intervalle de confiance sont deux notions différentes, et on ne peut malheureusement pas les relier aussi simplement.
      Le concept de marge d’erreur est utilisé pour les sondages (où on cherche la proportion de ceci ou cela dans 1 seul groupe à partir d’un échantillon) mais pas pour les essais (où on compare deux groupes traités différemment.)

      Et même dans le cas d’un sondage, où les notions d’intervalle de confiance et de marge d’erreur sont toutes les deux utilisées, les choses sont plus compliquées que l’hypothèse que vous avez imaginée : on doit commencer par se fixer un degré de confiance (au choix confiance à 90%, ou confiance à 95% ou confiance à 99% par exemple) pour pouvoir ensuite calculer une marge d’erreur. Il est parfaitement possible de trouver par exemple une marge d’erreur de 5% quand on s’est donné un intervalle de confiance à 99%. Dans ce cas, on peut dire qu’on est sûr à 99% que la marge d’erreur est de 5%… (Et pour le même sondage, on trouvera possiblement que la marge d’erreur est de 3% si on se fixe un intervalle de confiance à 95%.)
      Tout cela est effectivement assez difficile à appréhender, et encore plus à expliquer !

      L’intervalle de confiance, qu’il s’agisse des sondage ou des essais, résulte vraiment d’un choix. Les chercheurs se disent “à quel point est-ce que je veux être sûr que le résultat réel sera dans l’intervalle que je vais calculer à partir de mon petit échantillon ?” Si je veux être sûr à 99,99% de ne pas me tromper, je calculerai l’intervalle de confiance à 99,99%. Il y a des chances qu’il soit très large, cet intervalle, mais je serai quasiment certain que le vrai résultat sera dedans : j’aurai seulement 0,01% de chances de me tromper. Alors que si je me contente d’avoir 90% de chances d’avoir raison, je calculerai l’intervalle de confiance à 90% : cet intervalle sera plus étroit que celui calculé juste avant qaund j’avais choisi 99,99% de confiance : j’aurai donc l’impression d’une meilleure précision, mais avec moins de certitude : cette fois, j’aurai 10% de chances de me tromper.

      Pourquoi un chercheur choisit-il 90% plutôt que 99% par exemple ? Ce choix résulte d’un arbitrage entre le besoin de précision et le besoin de certitude : il peut dépendre notamment des conséquences à craindre si on se trompe (c’est-à-dire si le résultat réel n’est pas dans l’intervalle qu’on a calculé.)
      Par exemple, si je cherche à savoir si un modèle de boulons d’une marque donnée peut soutenir 8 kilos sans casser, je peux prendre un lot de quelques milliers de boulons de cette marque et leur faire subir des tests mécaniques pour savoir à combien de kilos de charge ils cassent. Chacun de ces boulons cassera à un poids différent, et à partir de ces différentes observations, grâce aux statistiques, je calculerai un intervalle entre le poids le plus faible et le poids le plus élevé où un boulon de cette marque risque de casser. Je choisirai sans doute d’être sûr à 99,999% de mon résultat si ces boulons servent à fixer un élément crucial sur un avion de ligne. Imaginons que je trouve que les boulons cassent à 60 kilos en moyenne, avec un intervalle de confiance à 99,999% qui s’étendrait de 6 kilos à 130 kilos. Mon intervalle de confiance à 99,999% sera donc “6 à 130 kg”. Si l’élément de sécurité de mon avion pèse 8 kilos, je ne peux pas être sûr à 99,999% que les boulons vont tenir ; j’éviterai peut-être de prendre ce modèle de boulons et j’en chercherai de plus solides.
      Maintenant, si ces boulons servent à fixer des palissades de jardin, je me contenterai peut-être d’un intervalle de confiance à 95%. Pour les mêmes 200 boulons, l’intervalle de confiance à 99,999% était de “6 à 130kg”, mais l’intervalle de confiance à 95% pourra être de “40 à 90kg” (plus précis, mais avec moins de certitude que la limite de résistance d’un boulon de la marque soit dans cet intervalle). Du coup, pour mes palissades de 8kg, cette marque de boulons fera parfaitement l’affaire…

      Dans le cas de la recherche pharmacologique (ou médicale, ou en psychologie etc.), ce ne sont pas les chercheurs qui choisissent entre 90%, 95% ou 99% : ce choix a été fait une fois pour toutes, par convention, et — sauf s’il y a de fortes raisons de faire un autre choix — c’est toujours l’intervalle de confiance à 95% qu’on calcule et dont on se contente.

      Je comprends que ces notions soient déroutantes…

      • Je vous remercie vivement d’avoir éclairé ma lanterne sur ces notions essentielles.
        Je comprends donc qu’avec un intervalle de confiance fixé à 100%, toutes les occurrences étudiées sont prises en compte dans le résultat de l’étude tel qu’il est énoncé.
        Par contre, avec un intervalle de confiance fixé à 95%, on laissera de côté certaines occurrences rares et excentriques, peut-être considérées comme non significatives… et elles ne seront pas prises en compte dans le résultat tel qu’il est énoncé.
        Ce résultat sera donc vrai pour 95% des cas étudiés dans l’essai.
        C’est très utile à savoir.
        Merci encore.

  53. Merci pour cet article très clair et très intéressant. A noter qu’au cours du premier semestre 2020 la presse dans son ensemble a répété jusqu’à la nausée qu’un essai n’était pas valable s’il ne s’agissait pas d’un ECR. Combien de journalistes, même ceux dits scientifiques, seraient capables d’écrire un tel texte ?