Tests d’adn : autres informations concernant l’article de 2009

 

J’avais parlé en novembre 2009 du fait que les tests d’adn sont bidon. J’avais rapporté l’histoire d’un avocat américain appelé William C. Thompson. Celui-ci avait raconté sur cette page, comment les procédures des tests d’adn pour les enquêtes policières étaient faites. Et ce qu’il disait était accablant. En gros, les techniciens sont au courant de l’enquête policière et adaptent ainsi les résultats pour fournir aux policiers le résultat qu’ils attendent. Pour ça, le technicien trafique le test purement et simplement. Il utilise un logiciel du genre Photoshop pour rendre les bandes d’adn plus ou moins lumineuses qu’elles ne le sont réellement, il les déplace, il les agrandit ou les rétrécit, etc…

 

Un autre élément accablant dont je n’avais alors pas parlé, est la difficulté extrême qu’a eue William Thompson pour accéder aux éléments de l’enquête avec la société qui avait fait le test d’adn.

L’affaire en question consistait en un viol. Deux personne étaient accusées : un dénommé Sammy Marshall et un autre homme. Du sperme avait pu être récolté sur la victime et donc des tests d’adn avaient pu être effectués.

Voyant que malgré ce qui était déclaré sur le résultat du test génétique, les bandes d’adn ne correspondaient pas entre celle du présumé coupable et celle de son client (Sammy Marshall), Thompson a d’abord essayé de convaincre le procureur de ne pas recourir à l’adn comme preuve de la culpabilité de son client en lui montrant les bandes qui ne semblaient pas correspondre. Ayant appris que l’opérateur était au courant des détails de l’affaire, ce qui pouvait l’influencer, il a également avancé le problème du « biais de l’observateur ». Mais ça n’a pas convaincu le procureur. Ce dernier a avancé l’argument que le test d’adn en question était objectif parce qu’il ne comportait pas d’intervention humaine. En effet, les résultats étaient entièrement obtenus grâce à un système d’imagerie automatique contrôlé par ordinateur (ici une machine BioImage). Donc, la procédure ne pouvait qu’être parfaitement objective.

Ca semblait imparable. Mais Thompson n’a pas abandonné l’affaire et s’est dit que puisque le résultat était objectif, il devrait alors être possible de reproduire le résultat de Genetic Design (l’entreprise qui avait conduit le test). Il a donc cherché des gens qui pourraient réaliser le test, et il a appris qu’Aimee Bakken, une biologiste moléculaire de l’université de Washington, avait accès à une machine BioImage, comme celle qu’avait utilisée Genetic Design. Le professeur Bakken  a généreusement proposé son aide. En utilisant sa machine, et des copies des autorads, elle a essayé de répliquer les résultats du laboratoire médico-légal. Elle a échoué. Elle n’a pas réussi à détecter certaines des bandes qui incriminaient soi-disant Marshall, et elle a détecté d’autres bandes qui ne l’incriminaient pas.

Pour ceux qui ne sauraient pas ce qu’est un autorad, il s’agit d’un film radio qui fixe la radioactivité des bandes d’adn identifiées. La procédure est la suivante. On réalise d’abord la multiplication de l’adn cible par PCR (technique qui permet de multiplier un brin d’adn particulier par milliard). Puis on sépare les différent brins d’adn cibles obtenus, par leur poids moléculaire. Pour ça, on utilise la technique de l’électrophorèse. Concrètement, il s’agit d’un bac rectangulaire dans lequel il y a un gel. On applique un courant électrique, et les brins les plus légers se déplacent en ligne droite vers l’extrémité du bac tandis que les plus lourds restent plus près de l’autre extrémité. Le résultat se présente sous forme de bandes d’adn réparties sur le gel. On transfert ensuite le résultat sur une feuille en nylon par effet papier buvard. On colle aux brins d’adn fixés sur cette feuille en nylon d’autres brins d’adn collés eux-mêmes à des particules radioactives. Ça permet de transférer le résultat obtenu sur un film radio (les zones soumises à la radioactivité vont se noircir sur le film), ce qui permet d’avoir un résultat visuel. Ce sont les autorads en question. Enfin, on scanne le résultat et on obtient une image sur ordinateur. Le résultat est présenté soit sous forme de bandes d’électrophorèse (c’est-à-dire les bandes telles qu’elles se présentent visuellement sur l’autorad), soit sous forme de courbes. Si les bandes se retrouvent au même endroit sur l’autorad du suspect et l’autorad contenant l’adn trouvé sur le lieu du crime, normalement, c’est que le suspect est coupable ; si cet adn ne pouvait appartenir qu’au criminel bien sûr.

Donc, ici, Thompson possédait une copie des autorads originels, et a demandé au docteur Bakken de le rescanner et de les réanalyser, pour voir si l’ordinateur BioImage donnerait un résultat considéré comme similaire entre les deux tests. Mais le résultat était là-encore différent. Thompson pensait alors que ce rapport pourrait influencer le procureur, mais ça n’a pas été le cas.

Le procureur a soutenu que les résultats du docteur Bakken étaient non significatifs parce qu’elle avait utilisé des copies de deuxième génération des autorads qui contenaient moins de détails que les originaux. Thompson a alors suggéré que le procureur envoie les autorads originaux au professeur Bakken et le laisse les rescanner et les réanalyser.  

Mais le procureur a refusé avec l’argument que les preuves appartenant à l’état ne peuvent jamais être données à un expert de la défense, qui pourrait les perdre, les détruire, ou les altérer, etc… Les autorads originaux devaient rester à Genetic Design. Thompson lui a alors demandé s’il pouvait envoyer le professeur Bakken à Genetic Design afin qu’il réanalyse les autorads originaux. Le procureur a aussi refusé cette requête parce que Genetic Design ne voulait pas qu’un expert extérieur utilise sa machine BioImage.

Thompson a alors défendu l’idée que l’état devait permettre à l’expert de la défense de réanalyser les autorads au laboratoire médico-légal. La réponse du district-attorney a été qu’il n’y avait pas de telles exigences légales et que des désastres divers pourraient s’abattre sur le laboratoire médico-légal si un expert de la défense était autorisé à mettre ses mains sur les ordinateurs du laboratoire. La réponse de Thompson contestait les assertions de l’attorney. Mais après une brève discussion, le juge Mary Ann Murphy a décidé de donner tort à Thompson. Continuer la lecture de « Tests d’adn : autres informations concernant l’article de 2009 »

Les maladies cardiaques (partie 1/4)

 

Concernant les maladies cardiaques, on est dans une situation assez différente des autres articles publiés sur le site. D’habitude, j’analyse des maladies qui n’existent pas (pour l’essentiel). Ici, les maladies sont réelles, et apparemment, on dispose d’outils assez fiables pour les diagnostiquer.

Ça rend beaucoup plus compliquée l’analyse des possibles arnaques et erreurs. Quand la maladie n’a pas de véritable réalité, on a une arnaque (ou une erreur) claire, et les traitements sont mauvais la plupart du temps. Ce sont eux qui causent les symptômes et la mort généralement. Quand la maladie est réelle et que les outils de diagnostic sont fiables, déjà, il n’y a pas arnaque au niveau de son existence. Et même si on se rend compte que les traitements peuvent eux aussi causer les symptômes cliniques et la mort ; il est plus difficile de savoir dans quelle proportion ils le font. Et quand les traitements peuvent éventuellement avoir une utilité, comme ici, c’est encore plus compliqué. Enfin, il est éventuellement possible qu’il n’y ait pas de problème du tout ou pas suffisamment pour écrire un article.

Toutefois, en analysant en profondeur le sujet, on finit par se rendre compte qu’il y a bien problème (je n’écrirais pas le présent article sinon).

Comme souvent, j’ai fait un résumé en fin d’article. Donc, si vous ne désirez pas lire l’ensemble du papier, vous pouvez aller à la fin, où tout est résumé en 3 ou 4 pages.

 

1)    Présentation du fonctionnement du cœur

 

Avant toute chose, on va faire un bref rappel sur la façon dont le cœur fonctionne.

Le cœur est en fait un système double : cœur-poumons. Le sang pauvre en oxygène qui entre dans le cœur passe ensuite dans les poumons où il est enrichi en oxygène, puis, revient dans le cœur, où il est alors renvoyé vers l’organisme. Donc, les deux systèmes –le cœur et les poumons – sont fortement liés.

Voici deux schémas :

 

 

Le cœur est composé de deux parties, gauche et droite. La partie droite aspire le sang pauvre en oxygène qui vient de l’organisme et l’envoie vers les poumons qui l’enrichissent en oxygène ; puis la partie gauche aspire le sang enrichi en oxygène qui vient des poumons et l’envoie dans le reste du corps. Dans chaque partie, il y a deux poches qui se remplissent de sang, puis se vident : l’oreillette et le ventricule. La première se situe au-dessus de la seconde. Le sang s’accumule dans l’oreillette, avant d’entrer dans le ventricule.

Pour éviter que le sang aspiré ne reflue en arrière, les ventricules possèdent des valves. Il y en a quatre : deux entre les oreillettes et les ventricules, et deux entre les ventricules et les artères conduisant à ou venant des poumons.

La 1ère valve s’appelle la valve tricuspide (entre l’oreillette droite et le ventricule droit)

La 2ème : la valve pulmonaire (entre le ventricule droit et les poumons)

La 3ème : la valve mitrale (entre l’oreillette gauche et le ventricule gauche)

La 4ème : la valve aortique (entre le ventricule gauche et l’aorte, qui envoie le sang dans le reste du corps)

Donc, le sang pauvre en oxygène arrive dans l’oreillette droite. Il passe par la valve tricuspide pour arriver dans le ventricule droit. Il passe ensuite la valve pulmonaire pour arriver dans les poumons. Puis, le sang enrichi en oxygène qui revient des poumons s’accumule dans l’oreillette gauche. Il passe la valvule mitrale et arrive dans le ventricule gauche. Et enfin il passe la quatrième valve (aortique) et revient dans la circulation sanguine générale.

Vu que le ventricule gauche renvoie le sang dans la circulation générale, ça demande une pression plus forte que celle requise de la part du ventricule droit (qui n’envoie le sang que dans les poumons), et donc une puissance supérieure. C’est pour ça que la partie gauche du cœur est plus grosse, que la partie droite.

Continuer la lecture de « Les maladies cardiaques (partie 1/4) »

Les maladies cardiaques (partie 2/4)

 

Première remise en cause : l’amélioration de l’espérance de vie

 

On va analyser d’abord l’histoire de l’augmentation de l’espérance de vie des malades.

Déjà, ce dont on se rend compte, c’est que les problèmes cardiaques touchent surtout les personnes très âgées. Et aussi, que selon le stade de gravité de la maladie, les taux de mortalité sont très différents. Et bien sûr, le stade de gravité de la maladie est fortement fonction de l’âge. Les personnes de plus de 80 ans ont souvent une insuffisance cardiaque bien plus grave que les personnes de par exemple 60 ans.

 

L’évolution des populations concernées

 

Déjà, on constate que l’amélioration de l’espérance de vie n’est pas si géniale. 19 % sur 50 ans, ça n’a rien d’extraordinaire.

Et ce qu’on peut se dire, c’est que l’évolution des populations concernées par ces maladies à du améliorer les statistique.

Un premier élément qui a dû permettre d’influencer positivement les statistiques, c’est l’augmentation du nombre de femmes concernées par la maladie. Comparativement, il y avait peu de femmes avec des maladies cardiovasculaires dans les années 50. Avec la pilule, les traitements hormonaux substitutifs, et l’explosion de la consommation de tabac et d’alcool chez les femmes, celles-ci se sont mises à en avoir beaucoup plus.

Seulement, ce qu’on peut penser, c’est que les femmes diagnostiquées comme ayant une maladie cardiaque dans les années 50, étaient pour la plupart dans un état avancé de la maladie, et probablement très âgées. Du coup, le taux de mortalité de l’époque était assez élevé.

En multipliant les examens préventifs, on a fait comme pour les hommes – on a permis d’améliorer les statistiques d’espérance de vie – mais à une échelle supérieure. D’un seul coup, au lieu d’avoir essentiellement des cas de stade III-IV, on a eu aussi plein de cas au stade I et II. Et on a eu beaucoup plus de cas jeunes. Forcément, l’espérance de vie globale s’est fortement améliorée, plus que chez les hommes.

Dans l’étude de Framingham citée plus haut, entre 1950 et 1999, le taux de mortalité à 5 ans des femmes atteintes d’insuffisance cardiaque est passé de 57 % à 45 % (- 22 %), tandis que celle des hommes passait seulement de 70 à 59 % (-16 %). Donc, la baisse globale est de 19 %. S’il n’y avait eu que les hommes, il y aurait une baisse de seulement 16 %. Les femmes comptent donc pour 15 % dans l’amélioration des statistiques (3/19=0,15).

Donc, aussi bien quand on fait des statistiques globales (hommes/femmes) que des statistiques par sexe, on obtient une meilleure amélioration que si on tient compte uniquement des hommes.

Par ailleurs, quand on fait des statistiques par sexe, le résultat des hommes est moins bien que celui des femmes, mais ce qui est mis en avant par les médecins, c’est le fait qu’il y a eu une belle réussite concernant les statistiques des femmes.

Continuer la lecture de « Les maladies cardiaques (partie 2/4) »

Les maladies cardiaques (partie 3/4)

 

Bémol sur le diagnostic

 

La réalité du diagnostic est un autre problème.

C’est vrai que de prime abord, ça semble correct. Même si certains outils sont forcément moins sûrs, ils sont complétés par d’autres qui le sont apparemment beaucoup plus. L’ensemble permet donc a priori de faire un bon diagnostic.

Seulement, tout est loin d’être si parfait. Et en étudiant la situation, on s’aperçoit que le diagnostic est loin d’être si fiable que ça.

 

Déjà, il faut voir que le terme « insuffisance cardiaque » décrit un problème général qui peut recouvrir bien des réalités différentes. L’insuffisance cardiaque, c’est le fait que le cœur n’arrive pas à fournir un débit sanguin suffisant pour le corps.

Le problème peut venir de multiples causes : d’un rétrécissement des artères coronaires, d’un problème de valves cardiaques, d’une déficience des muscles cardiaques, d’un épaississement de certaines parois du cœur, ou de leur gonflement, etc. ; mais au final, ce qui aboutit à un diagnostic d’insuffisance cardiaque, c’est le fait qu’il n’y ait pas assez de sang pompé par le cœur pour assurer les besoins du corps. L’important, ce n’est pas la sténose des coronaires, ou la malformation des valves cardiaques, etc… Bien sûr, ça aide fortement pour le diagnostic. Mais ce n’est pas ça qui fait le diagnostic d’insuffisance cardiaque. L’important, au final, c’est qu’il n’y ait pas assez de sang pompé.

Or, comment diagnostique-t-on cette insuffisance ? Avec la mesure du flux sanguin à la sortie du cœur, avec l’électrocardiogramme, avec un test d’effort, et aussi avec les symptômes de l’insuffisance cardiaque.

 

–          Le test d’effort avec électrocardiogramme

Comme son nom l’indique, il s’agit d’un test durant lequel le patient réalise un effort. On mesure l’activité du cœur durant les différents niveaux d’effort au moyen d’un électrocardiogramme (ECG). Ça permet de voir si cette activité est normale ou pas. On mesure la vitesse de battement générale du cœur, et le rythme de battement de ses différents éléments (oreillettes et ventricules).

Le premier problème du test d’effort, c’est déjà le fait que la personne puisse réaliser un effort, ou même marcher ou pédaler. Or, comme la majorité des personnes atteintes d’insuffisance cardiaque ont plus de 75 ans, et sont généralement en mauvaise santé, très souvent, le test d’effort ne va pas pouvoir être réalisé, ou ne signifiera pas grand-chose. En effet, L’épreuve d’effort n’est pas diagnostiquée en dessous d’une fréquence cardiaque d’au moins 85% de la fréquence maximale théorique.

Par ailleurs, comme on peut le voir ici, le test d’effort est contre-indiqué quand il risque d’être mal toléré. Ce qui est le cas quand il y a : anémie sévère, insuffisance respiratoire, artérite des membres inférieurs… Là encore, ça limite la possibilité de recourir à ce test.

Encore sur le même site, on peut lire concernant l’électrocardiogramme que :

« La spécificité : c’est la proportion de sujets normaux correctement identifiés. Elle est de l’ordre de 80%, c’est à dire que 20% des non coronariens auront une épreuve faussement positive.« 

20 %, c’est non négligeable.

La sensibilité est encore pire. La sensibilité, ici, ce n’est pas la capacité de la machine à détecter une courbe correcte, mais détecter les cas d’insuffisance cardiaque. Si la sensibilité est de 80 %, ça veut dire qu’on manque 20 % des cas d’insuffisance cardiaque. Autrement dit, 20 % des cas sont considérés comme normaux, alors qu’il y a insuffisance cardiaque. On a donc 20 % de faux négatifs. Ici (2008), on apprend que la sensibilité est de seulement 53 % :

« In a cohort of patients considered (and proved) to be at high risk of angina, exercise electrocardiography (ECG) had a sensitivity of only 53% for identifying those who would have an acute coronary event in the next 2.5 years« .

Là, c’est en plus chez des patients à haut risque d’avoir une angine de poitrine, et qui ont soi-disant eu un problème coronaire grave dans les 2,5 ans suivant. Malgré ça, 47 % sont passés au travers du test. On peut donc supposer que chez des personnes moins atteintes, la sensibilité est encore inférieure.

Le problème ici, c’est que du coup, ça veut dire qu’au moins 47 % des cas ont une courbe normale, mais sont quand même diagnostiqués insuffisants cardiaques par la suite. Donc, dans environs 50 % des cas, le diagnostic a alors reposé sur les symptômes cliniques, et sur d’autres tests.

Et puis, le doute est alors jeté sur ce qu’on pourrait appeler la sensibilité globale, c’est-à-dire la capacité à refléter correctement la réalité de la courbe. Pour certains tests biologiques, effectivement, on peut imaginer que la sensibilité (% de faux négatifs) soit différente de la spécificité (% de faux positifs). Mais ici, on ne voit pas pourquoi ce serait le cas. Normalement, ça devrait détecter de la même façon une courbe normale et anormale. Donc, si le taux d’erreur est de 47 % des cas concernant les négatifs, on ne voit pas pourquoi le taux d’erreur pour les positifs serait meilleur. Globalement, on peut penser que le test n’arrive pas à bien refléter la courbe réelle des mouvements du cœur.

Continuer la lecture de « Les maladies cardiaques (partie 3/4) »

Les maladies cardiaques (partie 4/4)

 

Le fond de l’affaire : de quoi meurent réellement les insuffisants cardiaques ?

 

Il y a eu une certaine amélioration grâce aux traitements, pour une minorité de personne. Mais ce qui nous intéresse nous, c’est la majorité des insuffisants cardiaques, et la situation actuelle.

 

Le premier problème est de savoir comment les insuffisants cardiaques meurent.

En analysant la chose, on se rend compte que la plupart du temps, ils ne meurent pas soudainement d’une crise cardiaque, mais d’autres symptômes. Ils ne meurent pas d’un coup, mais lentement, souvent par étapes.

En effet, comme on a pu le voir précédemment, il y a environ 13.000 morts par ans d’infarctus du myocarde (13 % de 100.000 cas d’infarctus, chiffres 2009). Mais en fait, seuls 7 %, c’est-à-dire 7.000, meurent durant la phase aigüe.

Seulement, la phase aiguée, a priori, c’est une période qui dure 30 jours après la crise. Or, au bout de 20 ou 30 jours, on ne peut pas considérer que la personne est morte soudainement d’une crise cardiaque. Elle est morte durant une période relativement longue d’hospitalisation (comparativement à une mort soudaine). Pour pouvoir dire qu’une personne est morte d’une crise cardiaque, il faut qu’elle soit morte au maximum dans les deux jours (et encore, normalement, ça devrait être dans les quelques heures, mais bon).

Or, on peut lire ici, (chiffres d’au moins 2011) que :

« La mortalité de l’infarctus, jusqu’au 30ème jour qui suit, est en effet passée de 13,7% en 1995 à 4,4% en 2010. On pense parfois que le cap des 48 premières heures est le plus délicat mais, en réalité, on compte deux fois plus de décès entre le 3ème et le 30ème jour qui suivent l’infarctus que dans les deux premiers jours. Toutefois, cette mortalité «retardée» est aussi en baisse: de 10% en 1995 à 3% en 2010.« 

On est passé à seulement 4,4 % de morts à un mois. Donc, sur 100.000 infarctus, il n’y en a que 4.400 qui meurent dans le premier mois. Mais en fait, les deux tiers meurent entre le 3ème et le 30ème jour et seulement un tiers dans les deux premiers jours. Donc, en réalité, il n’y en a que 1466 qui meurent dans les deux premiers jours, et 2933 entre le 3ème et le 30ème jour. Donc, il n’y en a que 1.466 qui meurent vraiment de ce qu’on peut appeler une crise cardiaque, soit sur 100.000, seulement 1,46 %. Si on reprend les chiffres de 2009 (7.000 morts durant le premier mois), ça donne seulement 2,33 % de morts durant les deux premiers jours, soit 2.330 personnes.

Mais sur ces 2.330 personnes, on a seulement 2/3 qui souffraient d’insuffisance cardiaque, soit 1553 personnes ; les autres ayant une angine de poitrine qui n’avait pas révélé jusque-là d’insuffisance cardiaque.

Donc, sur les 32.000 morts par insuffisance cardiaque, seuls 1553 sont réellement morts soudainement d’infarctus du myocarde, soit seulement 5 %.

Disons quand même que 10 % sont réellement dus à un infarctus (donc, 1553 qui meurent en 2 jours, et 1553 qui meurent entre le 3ème et le 30ème jour). En effet, on peut considérer qu’effectivement, sur le premier mois, une bonne partie va mourir des conséquences de l’infarctus. Ça veut dire quand même que 90 % des insuffisants cardiaques meurent d’autre chose. C’est important, parce que vu la gravité de la maladie, et vu que ça touche le cœur, on pense de prime abord que les patients meurent surtout de crises cardiaques. Alors que c’est tout l’inverse qui arrive. Et s’ils meurent relativement lentement, alors ils peuvent mourir d’affections plus classiques.

Surtout que chez un insuffisant cardiaque très âgé, comment savoir si un malaise est un infarctus ? Ça peut être un peu n’importe quoi. Une fois une personne considérée comme étant insuffisante cardiaque, beaucoup de malaises vont être considérés comme des infarctus. Autant, quand la personne meurt, il y a une probabilité assez bonne que ça en soit un (cela-dit, ça peut être un avc, mais bon), autant, quand la personne reste en vie, difficile de savoir de quoi il retourne.

Continuer la lecture de « Les maladies cardiaques (partie 4/4) »