Archive for janvier, 2014

Tests d’adn : autres informations concernant l’article de 2009

jeudi, janvier 23rd, 2014

 

J’avais parlé en novembre 2009 du fait que les tests d’adn sont bidon. J’avais rapporté l’histoire d’un avocat américain appelé William C. Thompson. Celui-ci avait raconté sur cette page, comment les procédures des tests d’adn pour les enquêtes policières étaient faites. Et ce qu’il disait était accablant. En gros, les techniciens sont au courant de l’enquête policière et adaptent ainsi les résultats pour fournir aux policiers le résultat qu’ils attendent. Pour ça, le technicien trafique le test purement et simplement. Il utilise un logiciel du genre Photoshop pour rendre les bandes d’adn plus ou moins lumineuses qu’elles ne le sont réellement, il les déplace, il les agrandit ou les rétrécit, etc…

 

Un autre élément accablant dont je n’avais alors pas parlé, est la difficulté extrême qu’a eue William Thompson pour accéder aux éléments de l’enquête avec la société qui avait fait le test d’adn.

L’affaire en question consistait en un viol. Deux personne étaient accusées : un dénommé Sammy Marshall et un autre homme. Du sperme avait pu être récolté sur la victime et donc des tests d’adn avaient pu être effectués.

Voyant que malgré ce qui était déclaré sur le résultat du test génétique, les bandes d’adn ne correspondaient pas entre celle du présumé coupable et celle de son client (Sammy Marshall), Thompson a d’abord essayé de convaincre le procureur de ne pas recourir à l’adn comme preuve de la culpabilité de son client en lui montrant les bandes qui ne semblaient pas correspondre. Ayant appris que l’opérateur était au courant des détails de l’affaire, ce qui pouvait l’influencer, il a également avancé le problème du « biais de l’observateur ». Mais ça n’a pas convaincu le procureur. Ce dernier a avancé l’argument que le test d’adn en question était objectif parce qu’il ne comportait pas d’intervention humaine. En effet, les résultats étaient entièrement obtenus grâce à un système d’imagerie automatique contrôlé par ordinateur (ici une machine BioImage). Donc, la procédure ne pouvait qu’être parfaitement objective.

Ca semblait imparable. Mais Thompson n’a pas abandonné l’affaire et s’est dit que puisque le résultat était objectif, il devrait alors être possible de reproduire le résultat de Genetic Design (l’entreprise qui avait conduit le test). Il a donc cherché des gens qui pourraient réaliser le test, et il a appris qu’Aimee Bakken, une biologiste moléculaire de l’université de Washington, avait accès à une machine BioImage, comme celle qu’avait utilisée Genetic Design. Le professeur Bakken  a généreusement proposé son aide. En utilisant sa machine, et des copies des autorads, elle a essayé de répliquer les résultats du laboratoire médico-légal. Elle a échoué. Elle n’a pas réussi à détecter certaines des bandes qui incriminaient soi-disant Marshall, et elle a détecté d’autres bandes qui ne l’incriminaient pas.

Pour ceux qui ne sauraient pas ce qu’est un autorad, il s’agit d’un film radio qui fixe la radioactivité des bandes d’adn identifiées. La procédure est la suivante. On réalise d’abord la multiplication de l’adn cible par PCR (technique qui permet de multiplier un brin d’adn particulier par milliard). Puis on sépare les différent brins d’adn cibles obtenus, par leur poids moléculaire. Pour ça, on utilise la technique de l’électrophorèse. Concrètement, il s’agit d’un bac rectangulaire dans lequel il y a un gel. On applique un courant électrique, et les brins les plus légers se déplacent en ligne droite vers l’extrémité du bac tandis que les plus lourds restent plus près de l’autre extrémité. Le résultat se présente sous forme de bandes d’adn réparties sur le gel. On transfert ensuite le résultat sur une feuille en nylon par effet papier buvard. On colle aux brins d’adn fixés sur cette feuille en nylon d’autres brins d’adn collés eux-mêmes à des particules radioactives. Ça permet de transférer le résultat obtenu sur un film radio (les zones soumises à la radioactivité vont se noircir sur le film), ce qui permet d’avoir un résultat visuel. Ce sont les autorads en question. Enfin, on scanne le résultat et on obtient une image sur ordinateur. Le résultat est présenté soit sous forme de bandes d’électrophorèse (c’est-à-dire les bandes telles qu’elles se présentent visuellement sur l’autorad), soit sous forme de courbes. Si les bandes se retrouvent au même endroit sur l’autorad du suspect et l’autorad contenant l’adn trouvé sur le lieu du crime, normalement, c’est que le suspect est coupable ; si cet adn ne pouvait appartenir qu’au criminel bien sûr.

Donc, ici, Thompson possédait une copie des autorads originels, et a demandé au docteur Bakken de le rescanner et de les réanalyser, pour voir si l’ordinateur BioImage donnerait un résultat considéré comme similaire entre les deux tests. Mais le résultat était là-encore différent. Thompson pensait alors que ce rapport pourrait influencer le procureur, mais ça n’a pas été le cas.

Le procureur a soutenu que les résultats du docteur Bakken étaient non significatifs parce qu’elle avait utilisé des copies de deuxième génération des autorads qui contenaient moins de détails que les originaux. Thompson a alors suggéré que le procureur envoie les autorads originaux au professeur Bakken et le laisse les rescanner et les réanalyser.  

Mais le procureur a refusé avec l’argument que les preuves appartenant à l’état ne peuvent jamais être données à un expert de la défense, qui pourrait les perdre, les détruire, ou les altérer, etc… Les autorads originaux devaient rester à Genetic Design. Thompson lui a alors demandé s’il pouvait envoyer le professeur Bakken à Genetic Design afin qu’il réanalyse les autorads originaux. Le procureur a aussi refusé cette requête parce que Genetic Design ne voulait pas qu’un expert extérieur utilise sa machine BioImage.

Thompson a alors défendu l’idée que l’état devait permettre à l’expert de la défense de réanalyser les autorads au laboratoire médico-légal. La réponse du district-attorney a été qu’il n’y avait pas de telles exigences légales et que des désastres divers pourraient s’abattre sur le laboratoire médico-légal si un expert de la défense était autorisé à mettre ses mains sur les ordinateurs du laboratoire. La réponse de Thompson contestait les assertions de l’attorney. Mais après une brève discussion, le juge Mary Ann Murphy a décidé de donner tort à Thompson. (suite…)

Les maladies cardiaques (partie 1/4)

mardi, janvier 14th, 2014

 

Concernant les maladies cardiaques, on est dans une situation assez différente des autres articles publiés sur le site. D’habitude, j’analyse des maladies qui n’existent pas (pour l’essentiel). Ici, les maladies sont réelles, et apparemment, on dispose d’outils assez fiables pour les diagnostiquer.

Ça rend beaucoup plus compliquée l’analyse des possibles arnaques et erreurs. Quand la maladie n’a pas de véritable réalité, on a une arnaque (ou une erreur) claire, et les traitements sont mauvais la plupart du temps. Ce sont eux qui causent les symptômes et la mort généralement. Quand la maladie est réelle et que les outils de diagnostic sont fiables, déjà, il n’y a pas arnaque au niveau de son existence. Et même si on se rend compte que les traitements peuvent eux aussi causer les symptômes cliniques et la mort ; il est plus difficile de savoir dans quelle proportion ils le font. Et quand les traitements peuvent éventuellement avoir une utilité, comme ici, c’est encore plus compliqué. Enfin, il est éventuellement possible qu’il n’y ait pas de problème du tout ou pas suffisamment pour écrire un article.

Toutefois, en analysant en profondeur le sujet, on finit par se rendre compte qu’il y a bien problème (je n’écrirais pas le présent article sinon).

Comme souvent, j’ai fait un résumé en fin d’article. Donc, si vous ne désirez pas lire l’ensemble du papier, vous pouvez aller à la fin, où tout est résumé en 3 ou 4 pages.

 

1)    Présentation du fonctionnement du cœur

 

Avant toute chose, on va faire un bref rappel sur la façon dont le cœur fonctionne.

Le cœur est en fait un système double : cœur-poumons. Le sang pauvre en oxygène qui entre dans le cœur passe ensuite dans les poumons où il est enrichi en oxygène, puis, revient dans le cœur, où il est alors renvoyé vers l’organisme. Donc, les deux systèmes –le cœur et les poumons – sont fortement liés.

Voici deux schémas :

 

 

Le cœur est composé de deux parties, gauche et droite. La partie droite aspire le sang pauvre en oxygène qui vient de l’organisme et l’envoie vers les poumons qui l’enrichissent en oxygène ; puis la partie gauche aspire le sang enrichi en oxygène qui vient des poumons et l’envoie dans le reste du corps. Dans chaque partie, il y a deux poches qui se remplissent de sang, puis se vident : l’oreillette et le ventricule. La première se situe au-dessus de la seconde. Le sang s’accumule dans l’oreillette, avant d’entrer dans le ventricule.

Pour éviter que le sang aspiré ne reflue en arrière, les ventricules possèdent des valves. Il y en a quatre : deux entre les oreillettes et les ventricules, et deux entre les ventricules et les artères conduisant à ou venant des poumons.

La 1ère valve s’appelle la valve tricuspide (entre l’oreillette droite et le ventricule droit)

La 2ème : la valve pulmonaire (entre le ventricule droit et les poumons)

La 3ème : la valve mitrale (entre l’oreillette gauche et le ventricule gauche)

La 4ème : la valve aortique (entre le ventricule gauche et l’aorte, qui envoie le sang dans le reste du corps)

Donc, le sang pauvre en oxygène arrive dans l’oreillette droite. Il passe par la valve tricuspide pour arriver dans le ventricule droit. Il passe ensuite la valve pulmonaire pour arriver dans les poumons. Puis, le sang enrichi en oxygène qui revient des poumons s’accumule dans l’oreillette gauche. Il passe la valvule mitrale et arrive dans le ventricule gauche. Et enfin il passe la quatrième valve (aortique) et revient dans la circulation sanguine générale.

Vu que le ventricule gauche renvoie le sang dans la circulation générale, ça demande une pression plus forte que celle requise de la part du ventricule droit (qui n’envoie le sang que dans les poumons), et donc une puissance supérieure. C’est pour ça que la partie gauche du cœur est plus grosse, que la partie droite.

(suite…)

Les maladies cardiaques (partie 2/4)

mardi, janvier 14th, 2014

 

Première remise en cause : l’amélioration de l’espérance de vie

 

On va analyser d’abord l’histoire de l’augmentation de l’espérance de vie des malades.

Déjà, ce dont on se rend compte, c’est que les problèmes cardiaques touchent surtout les personnes très âgées. Et aussi, que selon le stade de gravité de la maladie, les taux de mortalité sont très différents. Et bien sûr, le stade de gravité de la maladie est fortement fonction de l’âge. Les personnes de plus de 80 ans ont souvent une insuffisance cardiaque bien plus grave que les personnes de par exemple 60 ans.

 

L’évolution des populations concernées

 

Déjà, on constate que l’amélioration de l’espérance de vie n’est pas si géniale. 19 % sur 50 ans, ça n’a rien d’extraordinaire.

Et ce qu’on peut se dire, c’est que l’évolution des populations concernées par ces maladies à du améliorer les statistique.

Un premier élément qui a dû permettre d’influencer positivement les statistiques, c’est l’augmentation du nombre de femmes concernées par la maladie. Comparativement, il y avait peu de femmes avec des maladies cardiovasculaires dans les années 50. Avec la pilule, les traitements hormonaux substitutifs, et l’explosion de la consommation de tabac et d’alcool chez les femmes, celles-ci se sont mises à en avoir beaucoup plus.

Seulement, ce qu’on peut penser, c’est que les femmes diagnostiquées comme ayant une maladie cardiaque dans les années 50, étaient pour la plupart dans un état avancé de la maladie, et probablement très âgées. Du coup, le taux de mortalité de l’époque était assez élevé.

En multipliant les examens préventifs, on a fait comme pour les hommes – on a permis d’améliorer les statistiques d’espérance de vie – mais à une échelle supérieure. D’un seul coup, au lieu d’avoir essentiellement des cas de stade III-IV, on a eu aussi plein de cas au stade I et II. Et on a eu beaucoup plus de cas jeunes. Forcément, l’espérance de vie globale s’est fortement améliorée, plus que chez les hommes.

Dans l’étude de Framingham citée plus haut, entre 1950 et 1999, le taux de mortalité à 5 ans des femmes atteintes d’insuffisance cardiaque est passé de 57 % à 45 % (- 22 %), tandis que celle des hommes passait seulement de 70 à 59 % (-16 %). Donc, la baisse globale est de 19 %. S’il n’y avait eu que les hommes, il y aurait une baisse de seulement 16 %. Les femmes comptent donc pour 15 % dans l’amélioration des statistiques (3/19=0,15).

Donc, aussi bien quand on fait des statistiques globales (hommes/femmes) que des statistiques par sexe, on obtient une meilleure amélioration que si on tient compte uniquement des hommes.

Par ailleurs, quand on fait des statistiques par sexe, le résultat des hommes est moins bien que celui des femmes, mais ce qui est mis en avant par les médecins, c’est le fait qu’il y a eu une belle réussite concernant les statistiques des femmes.

(suite…)

Les maladies cardiaques (partie 3/4)

mardi, janvier 14th, 2014

 

Bémol sur le diagnostic

 

La réalité du diagnostic est un autre problème.

C’est vrai que de prime abord, ça semble correct. Même si certains outils sont forcément moins sûrs, ils sont complétés par d’autres qui le sont apparemment beaucoup plus. L’ensemble permet donc a priori de faire un bon diagnostic.

Seulement, tout est loin d’être si parfait. Et en étudiant la situation, on s’aperçoit que le diagnostic est loin d’être si fiable que ça.

 

Déjà, il faut voir que le terme « insuffisance cardiaque » décrit un problème général qui peut recouvrir bien des réalités différentes. L’insuffisance cardiaque, c’est le fait que le cœur n’arrive pas à fournir un débit sanguin suffisant pour le corps.

Le problème peut venir de multiples causes : d’un rétrécissement des artères coronaires, d’un problème de valves cardiaques, d’une déficience des muscles cardiaques, d’un épaississement de certaines parois du cœur, ou de leur gonflement, etc. ; mais au final, ce qui aboutit à un diagnostic d’insuffisance cardiaque, c’est le fait qu’il n’y ait pas assez de sang pompé par le cœur pour assurer les besoins du corps. L’important, ce n’est pas la sténose des coronaires, ou la malformation des valves cardiaques, etc… Bien sûr, ça aide fortement pour le diagnostic. Mais ce n’est pas ça qui fait le diagnostic d’insuffisance cardiaque. L’important, au final, c’est qu’il n’y ait pas assez de sang pompé.

Or, comment diagnostique-t-on cette insuffisance ? Avec la mesure du flux sanguin à la sortie du cœur, avec l’électrocardiogramme, avec un test d’effort, et aussi avec les symptômes de l’insuffisance cardiaque.

 

–          Le test d’effort avec électrocardiogramme

Comme son nom l’indique, il s’agit d’un test durant lequel le patient réalise un effort. On mesure l’activité du cœur durant les différents niveaux d’effort au moyen d’un électrocardiogramme (ECG). Ça permet de voir si cette activité est normale ou pas. On mesure la vitesse de battement générale du cœur, et le rythme de battement de ses différents éléments (oreillettes et ventricules).

Le premier problème du test d’effort, c’est déjà le fait que la personne puisse réaliser un effort, ou même marcher ou pédaler. Or, comme la majorité des personnes atteintes d’insuffisance cardiaque ont plus de 75 ans, et sont généralement en mauvaise santé, très souvent, le test d’effort ne va pas pouvoir être réalisé, ou ne signifiera pas grand-chose. En effet, L’épreuve d’effort n’est pas diagnostiquée en dessous d’une fréquence cardiaque d’au moins 85% de la fréquence maximale théorique.

Par ailleurs, comme on peut le voir ici, le test d’effort est contre-indiqué quand il risque d’être mal toléré. Ce qui est le cas quand il y a : anémie sévère, insuffisance respiratoire, artérite des membres inférieurs… Là encore, ça limite la possibilité de recourir à ce test.

Encore sur le même site, on peut lire concernant l’électrocardiogramme que :

« La spécificité : c’est la proportion de sujets normaux correctement identifiés. Elle est de l’ordre de 80%, c’est à dire que 20% des non coronariens auront une épreuve faussement positive.« 

20 %, c’est non négligeable.

La sensibilité est encore pire. La sensibilité, ici, ce n’est pas la capacité de la machine à détecter une courbe correcte, mais détecter les cas d’insuffisance cardiaque. Si la sensibilité est de 80 %, ça veut dire qu’on manque 20 % des cas d’insuffisance cardiaque. Autrement dit, 20 % des cas sont considérés comme normaux, alors qu’il y a insuffisance cardiaque. On a donc 20 % de faux négatifs. Ici (2008), on apprend que la sensibilité est de seulement 53 % :

« In a cohort of patients considered (and proved) to be at high risk of angina, exercise electrocardiography (ECG) had a sensitivity of only 53% for identifying those who would have an acute coronary event in the next 2.5 years« .

Là, c’est en plus chez des patients à haut risque d’avoir une angine de poitrine, et qui ont soi-disant eu un problème coronaire grave dans les 2,5 ans suivant. Malgré ça, 47 % sont passés au travers du test. On peut donc supposer que chez des personnes moins atteintes, la sensibilité est encore inférieure.

Le problème ici, c’est que du coup, ça veut dire qu’au moins 47 % des cas ont une courbe normale, mais sont quand même diagnostiqués insuffisants cardiaques par la suite. Donc, dans environs 50 % des cas, le diagnostic a alors reposé sur les symptômes cliniques, et sur d’autres tests.

Et puis, le doute est alors jeté sur ce qu’on pourrait appeler la sensibilité globale, c’est-à-dire la capacité à refléter correctement la réalité de la courbe. Pour certains tests biologiques, effectivement, on peut imaginer que la sensibilité (% de faux négatifs) soit différente de la spécificité (% de faux positifs). Mais ici, on ne voit pas pourquoi ce serait le cas. Normalement, ça devrait détecter de la même façon une courbe normale et anormale. Donc, si le taux d’erreur est de 47 % des cas concernant les négatifs, on ne voit pas pourquoi le taux d’erreur pour les positifs serait meilleur. Globalement, on peut penser que le test n’arrive pas à bien refléter la courbe réelle des mouvements du cœur.

(suite…)

Les maladies cardiaques (partie 4/4)

mardi, janvier 14th, 2014

 

Le fond de l’affaire : de quoi meurent réellement les insuffisants cardiaques ?

 

Il y a eu une certaine amélioration grâce aux traitements, pour une minorité de personne. Mais ce qui nous intéresse nous, c’est la majorité des insuffisants cardiaques, et la situation actuelle.

 

Le premier problème est de savoir comment les insuffisants cardiaques meurent.

En analysant la chose, on se rend compte que la plupart du temps, ils ne meurent pas soudainement d’une crise cardiaque, mais d’autres symptômes. Ils ne meurent pas d’un coup, mais lentement, souvent par étapes.

En effet, comme on a pu le voir précédemment, il y a environ 13.000 morts par ans d’infarctus du myocarde (13 % de 100.000 cas d’infarctus, chiffres 2009). Mais en fait, seuls 7 %, c’est-à-dire 7.000, meurent durant la phase aigüe.

Seulement, la phase aiguée, a priori, c’est une période qui dure 30 jours après la crise. Or, au bout de 20 ou 30 jours, on ne peut pas considérer que la personne est morte soudainement d’une crise cardiaque. Elle est morte durant une période relativement longue d’hospitalisation (comparativement à une mort soudaine). Pour pouvoir dire qu’une personne est morte d’une crise cardiaque, il faut qu’elle soit morte au maximum dans les deux jours (et encore, normalement, ça devrait être dans les quelques heures, mais bon).

Or, on peut lire ici, (chiffres d’au moins 2011) que :

« La mortalité de l’infarctus, jusqu’au 30ème jour qui suit, est en effet passée de 13,7% en 1995 à 4,4% en 2010. On pense parfois que le cap des 48 premières heures est le plus délicat mais, en réalité, on compte deux fois plus de décès entre le 3ème et le 30ème jour qui suivent l’infarctus que dans les deux premiers jours. Toutefois, cette mortalité «retardée» est aussi en baisse: de 10% en 1995 à 3% en 2010.« 

On est passé à seulement 4,4 % de morts à un mois. Donc, sur 100.000 infarctus, il n’y en a que 4.400 qui meurent dans le premier mois. Mais en fait, les deux tiers meurent entre le 3ème et le 30ème jour et seulement un tiers dans les deux premiers jours. Donc, en réalité, il n’y en a que 1466 qui meurent dans les deux premiers jours, et 2933 entre le 3ème et le 30ème jour. Donc, il n’y en a que 1.466 qui meurent vraiment de ce qu’on peut appeler une crise cardiaque, soit sur 100.000, seulement 1,46 %. Si on reprend les chiffres de 2009 (7.000 morts durant le premier mois), ça donne seulement 2,33 % de morts durant les deux premiers jours, soit 2.330 personnes.

Mais sur ces 2.330 personnes, on a seulement 2/3 qui souffraient d’insuffisance cardiaque, soit 1553 personnes ; les autres ayant une angine de poitrine qui n’avait pas révélé jusque-là d’insuffisance cardiaque.

Donc, sur les 32.000 morts par insuffisance cardiaque, seuls 1553 sont réellement morts soudainement d’infarctus du myocarde, soit seulement 5 %.

Disons quand même que 10 % sont réellement dus à un infarctus (donc, 1553 qui meurent en 2 jours, et 1553 qui meurent entre le 3ème et le 30ème jour). En effet, on peut considérer qu’effectivement, sur le premier mois, une bonne partie va mourir des conséquences de l’infarctus. Ça veut dire quand même que 90 % des insuffisants cardiaques meurent d’autre chose. C’est important, parce que vu la gravité de la maladie, et vu que ça touche le cœur, on pense de prime abord que les patients meurent surtout de crises cardiaques. Alors que c’est tout l’inverse qui arrive. Et s’ils meurent relativement lentement, alors ils peuvent mourir d’affections plus classiques.

Surtout que chez un insuffisant cardiaque très âgé, comment savoir si un malaise est un infarctus ? Ça peut être un peu n’importe quoi. Une fois une personne considérée comme étant insuffisante cardiaque, beaucoup de malaises vont être considérés comme des infarctus. Autant, quand la personne meurt, il y a une probabilité assez bonne que ça en soit un (cela-dit, ça peut être un avc, mais bon), autant, quand la personne reste en vie, difficile de savoir de quoi il retourne.

(suite…)

Eventuelles arnaques des coloscopies (diverticules, ulcères, tumeurs)

mercredi, janvier 8th, 2014

 

Il y a environ un mois, j’ai pris connaissance d’un témoignage concernant une personne proche à propos d’un problème de diverticule. Ça m’a fait comprendre comment il pouvait y avoir arnaque avec les coloscopies.

Ce qui s’est passé, c’est que suite au cancer du côlon d’une amie, la proche en question a pris un peu peur et a décidé de passer une coloscopie. Manque de chance, on lui a découvert un diverticule énorme (ce sont des sortes de petites poches qui se créent dans la paroi de l’intestin), ce qui a nécessité une opération de l’intestin.

Seulement, quand on connait les détails sur la façon dont les choses se sont passées, on se dit qu’il y a probablement eu arnaque.

Avant de faire la coloscopie, on donne un médicament laxatif. Ça sert à nettoyer les intestins et le colon, afin que les médecins puissent voir les parois des intestins. C’est ce qui s’est passé dans le cas présent. Or, juste après, la personne en question a ressenti de la fièvre et des douleurs abdominales.

Ce sont des effets clairement liés à la prise de ces médicaments. Bien sûr, ça n’arrive pas chez tout le monde, mais ça arrive tout de même dans une proportion non négligeable des cas. Donc, les médecins auraient dû incriminer immédiatement le médicament. Mais ils n’ont pas fait ça. Ils ont diagnostiqué une maladie microbienne. Et du coup, ils ont donné des antibiotiques pendant environ trois semaines ou un mois à la personne en question.

A la fin du traitement, ils ont fait la coloscopie. Et là, ils ont trouvé l’énorme diverticule.

Mais ce qu’il y a, c’est que les antibiotiques peuvent provoquer des œdèmes. Et bien sûr, la probabilité d’une telle chose est maximum là où ils sont le plus concentrés, c’est-à-dire dans les intestins.

Donc, il est bien possible que le diverticule en question n’ait été en réalité qu’un simple œdème provoqué par la prise de l’antibiotique. Ou alors, c’était un diverticule de taille normale, mais qui a été agrandi artificiellement par l’antibiotique ; par la création d’un œdème dans le diverticule.

En fait, le diverticule se présente sous la forme d’un trou dans l’intestin. Donc, il est possible aussi que l’antibiotique ait provoqué la formation d’un ulcère (un trou) qui a ensuite formé une cavité fermée, qui a été prise pour un diverticule. En effet, puisque les antibiotiques attaquent les parois de l’intestin, ils peuvent tout à fait provoquer la formation d’ulcère. Et bien sûr, il est possible qu’il y ait déjà eu ulcère et que l’antibiotique n’ait fait que l’agrandir.

Voici un lien pour voir à quoi ressemble un diverticule : http://www.sfed.org/Diverticules-Colon-Rectum/Diverticules-sigmoidiens-et-coliques.html

Donc, l’arnaque serait la suivante. En donnant un laxatif, on provoque dans un certain nombre de cas des douleurs abdominales et éventuellement de la fièvre. Au lieu d’incriminer le médicament, on déclare que c’est une infection. On donne alors des antibiotiques qui vont parfois créer des œdèmes ou des ulcères dans les intestins. Et on déclare que les œdèmes ou les ulcères sont des diverticules géants. Ce qui nécessite une opération.

La personne se fait donc charcuter pour rien. Mais pour l’hôpital et les médecins, c’est tout bénéfice.

 

Et on peut étendre l’éventuelle arnaque à d’autres problèmes.

Pour rester dans le problème des diverticules, on opère ceux qui saignent. Or, les antibiotiques, ça fait parfois aussi saigner. Donc, si on donne des antibiotiques, on risque d’avoir des diverticules qui saignent (ou des œdèmes ou des ulcères qui saignent qui seront pris pour des diverticules). Et on prescrira alors une opération chirurgicale.

 

Tout ça est valable aussi pour les ulcères.

 

Le problème concerne aussi les tumeurs et cancers du côlon. Si on détecte un polype, ou une petite tumeur bénigne qui est enflammée ou qui saigne, on peut dire que c’est un cancer. Et justement, les antibiotiques peuvent provoquer l’inflammation ou le saignement. Ils peuvent aussi provoquer le gonflement et l’inflammation des ganglions. Donc, si on trouve des ganglions gonflés et éventuellement enflammés en plus d’une tumeur ou un polype enflammé ou sanguinolent, ça confirmera un peu plus le diagnostic de cancer. Et puis, les ganglions seuls pourront être considérés comme cancéreux.

 

Bien sûr, la prise du laxatif avant la coloscopie ne conduit pas forcément très fréquemment à la prise d’un antibiotique, mais très souvent, la personne aura pris des antibiotiques ou des médicaments agressant les intestins avant toute la procédure de la coloscopie (prise de laxatif compris). En effet, si on fait une coloscopie, c’est généralement parce qu’on mal au ventre ou qu’on a des selles sanguinolentes. Or, justement, si on a mal au ventre à répétition, c’est souvent parce qu’on a pris des antibiotiques, ou des anti-inflammatoires. Donc, très souvent les soi-disantes tumeurs cancéreuses seront en réalité identifiées à tort comme tel à cause de la prise en amont d’antibiotiques ou d’anti-inflammatoires.

Cela-dit, il y a des gens qui ont des polypes ou des petites tumeurs provoqués par la prise d’alcool. Donc, les médicaments ne sont pas seuls en cause. Mais on peut penser qu’ils sont tout de même une cause majeure de détection à tort de faux cancers des intestins ou du colon.