Tests d’adn : autres informations concernant l’article de 2009

 

J’avais parlé en novembre 2009 du fait que les tests d’adn sont bidon. J’avais rapporté l’histoire d’un avocat américain appelé William C. Thompson. Celui-ci avait raconté sur cette page, comment les procédures des tests d’adn pour les enquêtes policières étaient faites. Et ce qu’il disait était accablant. En gros, les techniciens sont au courant de l’enquête policière et adaptent ainsi les résultats pour fournir aux policiers le résultat qu’ils attendent. Pour ça, le technicien trafique le test purement et simplement. Il utilise un logiciel du genre Photoshop pour rendre les bandes d’adn plus ou moins lumineuses qu’elles ne le sont réellement, il les déplace, il les agrandit ou les rétrécit, etc…

 

Un autre élément accablant dont je n’avais alors pas parlé, est la difficulté extrême qu’a eue William Thompson pour accéder aux éléments de l’enquête avec la société qui avait fait le test d’adn.

L’affaire en question consistait en un viol. Deux personne étaient accusées : un dénommé Sammy Marshall et un autre homme. Du sperme avait pu être récolté sur la victime et donc des tests d’adn avaient pu être effectués.

Voyant que malgré ce qui était déclaré sur le résultat du test génétique, les bandes d’adn ne correspondaient pas entre celle du présumé coupable et celle de son client (Sammy Marshall), Thompson a d’abord essayé de convaincre le procureur de ne pas recourir à l’adn comme preuve de la culpabilité de son client en lui montrant les bandes qui ne semblaient pas correspondre. Ayant appris que l’opérateur était au courant des détails de l’affaire, ce qui pouvait l’influencer, il a également avancé le problème du « biais de l’observateur ». Mais ça n’a pas convaincu le procureur. Ce dernier a avancé l’argument que le test d’adn en question était objectif parce qu’il ne comportait pas d’intervention humaine. En effet, les résultats étaient entièrement obtenus grâce à un système d’imagerie automatique contrôlé par ordinateur (ici une machine BioImage). Donc, la procédure ne pouvait qu’être parfaitement objective.

Ca semblait imparable. Mais Thompson n’a pas abandonné l’affaire et s’est dit que puisque le résultat était objectif, il devrait alors être possible de reproduire le résultat de Genetic Design (l’entreprise qui avait conduit le test). Il a donc cherché des gens qui pourraient réaliser le test, et il a appris qu’Aimee Bakken, une biologiste moléculaire de l’université de Washington, avait accès à une machine BioImage, comme celle qu’avait utilisée Genetic Design. Le professeur Bakken  a généreusement proposé son aide. En utilisant sa machine, et des copies des autorads, elle a essayé de répliquer les résultats du laboratoire médico-légal. Elle a échoué. Elle n’a pas réussi à détecter certaines des bandes qui incriminaient soi-disant Marshall, et elle a détecté d’autres bandes qui ne l’incriminaient pas.

Pour ceux qui ne sauraient pas ce qu’est un autorad, il s’agit d’un film radio qui fixe la radioactivité des bandes d’adn identifiées. La procédure est la suivante. On réalise d’abord la multiplication de l’adn cible par PCR (technique qui permet de multiplier un brin d’adn particulier par milliard). Puis on sépare les différent brins d’adn cibles obtenus, par leur poids moléculaire. Pour ça, on utilise la technique de l’électrophorèse. Concrètement, il s’agit d’un bac rectangulaire dans lequel il y a un gel. On applique un courant électrique, et les brins les plus légers se déplacent en ligne droite vers l’extrémité du bac tandis que les plus lourds restent plus près de l’autre extrémité. Le résultat se présente sous forme de bandes d’adn réparties sur le gel. On transfert ensuite le résultat sur une feuille en nylon par effet papier buvard. On colle aux brins d’adn fixés sur cette feuille en nylon d’autres brins d’adn collés eux-mêmes à des particules radioactives. Ça permet de transférer le résultat obtenu sur un film radio (les zones soumises à la radioactivité vont se noircir sur le film), ce qui permet d’avoir un résultat visuel. Ce sont les autorads en question. Enfin, on scanne le résultat et on obtient une image sur ordinateur. Le résultat est présenté soit sous forme de bandes d’électrophorèse (c’est-à-dire les bandes telles qu’elles se présentent visuellement sur l’autorad), soit sous forme de courbes. Si les bandes se retrouvent au même endroit sur l’autorad du suspect et l’autorad contenant l’adn trouvé sur le lieu du crime, normalement, c’est que le suspect est coupable ; si cet adn ne pouvait appartenir qu’au criminel bien sûr.

Donc, ici, Thompson possédait une copie des autorads originels, et a demandé au docteur Bakken de le rescanner et de les réanalyser, pour voir si l’ordinateur BioImage donnerait un résultat considéré comme similaire entre les deux tests. Mais le résultat était là-encore différent. Thompson pensait alors que ce rapport pourrait influencer le procureur, mais ça n’a pas été le cas.

Le procureur a soutenu que les résultats du docteur Bakken étaient non significatifs parce qu’elle avait utilisé des copies de deuxième génération des autorads qui contenaient moins de détails que les originaux. Thompson a alors suggéré que le procureur envoie les autorads originaux au professeur Bakken et le laisse les rescanner et les réanalyser.  

Mais le procureur a refusé avec l’argument que les preuves appartenant à l’état ne peuvent jamais être données à un expert de la défense, qui pourrait les perdre, les détruire, ou les altérer, etc… Les autorads originaux devaient rester à Genetic Design. Thompson lui a alors demandé s’il pouvait envoyer le professeur Bakken à Genetic Design afin qu’il réanalyse les autorads originaux. Le procureur a aussi refusé cette requête parce que Genetic Design ne voulait pas qu’un expert extérieur utilise sa machine BioImage.

Thompson a alors défendu l’idée que l’état devait permettre à l’expert de la défense de réanalyser les autorads au laboratoire médico-légal. La réponse du district-attorney a été qu’il n’y avait pas de telles exigences légales et que des désastres divers pourraient s’abattre sur le laboratoire médico-légal si un expert de la défense était autorisé à mettre ses mains sur les ordinateurs du laboratoire. La réponse de Thompson contestait les assertions de l’attorney. Mais après une brève discussion, le juge Mary Ann Murphy a décidé de donner tort à Thompson. Continuer la lecture de « Tests d’adn : autres informations concernant l’article de 2009 »

L’isolement et la manipulation des virus comme preuve de l’existence de l’adn

Pour soutenir la validité de la génétique ou de la virologie quand on critique celles-ci, les biologistes, généticiens ou virologues mettent en avant le fait qu’ils savent identifier un nouveau virus en partie grâce à son adn, ou créer un virus complet à partir d’un brin d’adn nu, ou alors qu’ils savent créer une variante de virus en modifiant son adn (lui faire produire telle protéine par exemple).

Quand on ne sait pas comment sont obtenus ces résultats, c’est impressionnant, parce que ça veut dire d’une part que le concept de virus existe bien et d’autre part que celui de génétique est valide (le concept d’adn est vrai puisqu’on arrive à créer un virus à partir d’un simple morceau d’adn). Mais évidemment, à chaque fois, il y a un truc.

En fait, le champ de la critique est relativement restreint dans cet article, puisqu’on on sait déjà que les tests d’anticorps et d’adn sont bidons. Donc, ici, la problématique est de savoir d’une part si la première technique d’identification des virus, à savoir l’analyse visuelle, est suffisante pour valider les deux autres méthodes (et surtout le test d’adn, puisque c’est ça qu’on remet en cause dans cette série d’article) et d’autre part si certaines protéines obtenues dans le cadre des expériences sur l’adn des virus sont une preuve de la validité de l’adn.

 

1) Problématique de l’isolement d’un virus

 

Un virus, ce n’est pas comme une bactérie. C’est beaucoup plus petit, donc pas visible aux microscopes optiques. Et en plus, ça ne se reproduit pas seul. C’est supposé le faire via les cellules. Donc, on ne peut pas le cultiver simplement en mettant quelques exemplaires dans une solution nutritive et attendre qu’ils se multiplient tout seul. Et puis, vu que plein d’autres particules peuvent ressembler à des virus, il faut la preuve que ce qu’on a identifié comme un virus en soit bien un. Tout ça rend l’identification d’un virus (autrement appelée isolement) un peu compliquée.

Bien sur, on peut l’identifier visuellement avec un microscope électronique. Seulement le problème, c’est qu’à cette échelle, il y a plein d’autres particules de tailles et de formes différentes. Comment savoir alors quelle particule est le virus ? Il n’y a pas marqué « virus » dessus.

Pour ce faire, on utilise diverses techniques. Premièrement, on filtre les particules en fonction de leur taille. On estime que les virus ont une taille comprise entre 20 et 300 nanomètres. Donc, on va utiliser un système de filtrage qui ne va retenir que les particules comprises dans cette échelle de taille. Ca permet d’exclure la plupart des autres particules.

Apparemment, dans le cas du vih, on a utilisé un filtre avec une échelle de taille de plutôt 100-200 nm. Donc, il est possible que d’ordinaire, la fourchette du filtre soit plutôt 100-200 nm plutôt que 20-300nm. Mais bon, c’est un détail.

Ce filtrage n’est pas suffisant. A l’intérieur de cette échelle de taille, il peut y avoir encore plein d’autres particules n’ayant rien à voir avec des virus.

Donc, pour résoudre cette difficulté, dans cette échelle de taille, on cherche à identifier les virus visuellement par leur taille et leur forme. Il faut que dans un échantillon purifié (taille des particules comprise entre 30 et 300 nm théorie, mais plutôt entre 100 et 200 nm en pratique), les particules observées au microscope électronique aient à peu près la même taille et la même forme. Si on a 99 % de particules de même taille et même forme, c’est supposé être le virus.

Seulement bien sur, il pourrait quand même s’agir de simples débris cellulaires. Pour prouver qu’il s’agit bien d’un virus, on montre 1) qu’on le trouve dans le sang des patients malades (pour un virus pathogène) ; 2) que cette particule se reproduit.

Pour le premier élément, on fait un isolement à partir du sang de plusieurs personnes ayant la même maladie. Si on retrouve la particule dans le sang de tous ces malades, ça ajoute un indice sur le fait qu’il puisse s’agir d’un virus. Ce n’est bien sur pas une preuve, puisque rien ne dit qu’il ne s’agit pas simplement de débris cellulaires engendrés par la maladie. Mais c’est un indice allant dans ce sens. On peut dire que c’est une condition nécessaire mais non suffisante pour prouver que la maladie vient bien de ce virus. En effet, si on ne trouve pas la particule chez les malades en question, forcément, ça montre que le problème ne vient pas de là. Mais si on la trouve, ça ne prouve quand même pas que le problème vienne de là.

Concernant la preuve de la reproduction, on fait une culture de virus. Ca va consister en une culture de cellules humaines saines (sans le virus), dans lesquelles on va introduire ce qu’on suppose être le virus ; ou alors, on va introduire des cellules supposées infectées. Et si à la fin, on retrouve la même particule que celle qu’on a obtenue lors du premier isolement, on considère qu’il s’agit bien d’un virus et pas de débris cellulaires, puisque la particule s’est reproduite.

Bien sur, on pourrait aussi inoculer la particule à des gens supposés sains et voir s’ils développent la maladie et si on retrouve la particule dans leur sang. Ca pourrait prouver aussi la reproduction de la particule. Mais évidemment, ça ne serait pas très sympathique. Donc, au lieu de ça, on utilise des animaux. Encore faut-il qu’il y ait des animaux qui développent exactement la même maladie.

Au fur et à mesure du temps, deux autres méthodes d’identification sont venues compléter l’observation visuelle au microscope électronique : les tests d’anticorps, et l’identification de l’adn du virus. L’observation visuelle reste nécessaire, puisque ça reste une preuve qu’il faut fournir. Mais, ces méthodes sont apparemment plus satisfaisantes, puisque là, on est sensé avoir une méthode d’indentification personnalisée (le test d’anticorps), et même la carte d’identité du virus (le test d’adn).

 

2) Les tests d’identification des virus ou des parties d’un virus ne sont pas fiables

 

Bien sur, tout ce qui a été dit avant sur l’isolement des virus est théorique.

Le problème en fait, se situe à tous les niveaux sur les tests d’identification des virus.

En bref, ce qui se passe, c’est qu’aussi bien l’identification visuelle, que les tests d’anticorps, que les tests d’identification de l’adn (basés sur la PCR essentiellement) sont bidons. A partir de là, ben forcément, aucun des résultats obtenus ne vaut quoi que ce soit.

Ce qui va se passer, c’est que malgré certaines limitations, il est assez facile d’obtenir toujours ce qu’on veut.

 

– L’analyse visuelle

L’analyse visuelle au microscope électronique ne permet pas d’identifier les virus en réalité.

Le grand truc qui fait dire à l’orthodoxie qu’on peut identifier des virus par ce type d’analyse, c’est le fait que quand un isolement est réussi, il y a soi-disant 99 % de particules de même taille et même forme dans l’échantillon purifié. A première vue, ça semble impressionnant effectivement.

Seulement, Stefan Lanka, un virologue dissident du sida, qui remet aussi en cause l’isolement des virus pathogènes, a remarqué une chose très importante à ce sujet. Dans les papiers prouvant soi-disant l’isolement de tel ou tel virus pathogène, soit l’échelle n’est pas mise, soit elle est mise mais alors, ce n’est jamais un papier peer reviewed, c’est-à-dire lu et accepté (ou non) par d’autres spécialistes du domaine et publié dans un journal scientifique. Donc, dans le premier cas, on ne sait absolument pas si en fait de virus, il ne s’agit pas simplement de débris ou de bactéries, ni si on est bien dans l’échelle de taille des virus, et pas à une taille beaucoup plus grosse. Et quand l’échelle est mise, le papier n’est pas un papier « peer reviewed ».  Donc ce n’est pas un article scientifique validé. Il ne vaut rien officiellement. Et donc, même chose, on n’a aucune preuve que l’échelle annoncée est réelle. Donc, aucun papier se basant sur l’analyse visuelle n’apporte réellement la preuve de l’isolement du virus concerné.

Donc, selon Lanka, pour les virus pathogènes, il n’y a jamais eu aucun papier apportant la preuve que l’échelle est la bonne et donc, qu’il y a bien 99 % de particules identiques dans la purification de la culture initiale.

J’avais observé autre chose pour les quelques papiers d’isolement de virus montrant des photos de particules de même taille et même forme. En fait, on nous montre d’abord une photo en plan large, à partir de laquelle on ne peut rien dire quand au fait que les particules aient réellement la même taille et la même forme. La photo est trop petite pour bien distinguer les particules. Et quand on en vient aux plans rapprochés (donc les seuls qui aient une valeur pour dire si oui ou non les particules sont de même taille et même forme), là, on a en général qu’une seule ou deux images. Alors que pour déterminer si on a bien 99 % de particules de tailles et de formes identiques, il faudrait probablement des centaines de photos en plan rapproché pour couvrir une quantité raisonnable (c’est-à-dire statistiquement signifiante) des particules. Donc, même si on avait des articles peer reviewed dans des journaux scientifiques, avec l’échelle d’indiquée, ça ne serait pas suffisant. Il faudrait des centaines de photos en plan rapproché pour que ça le soit.

En fait, ce qu’on peut se dire, c’est que ce n’est pas possible d’avoir 99 % de particules de même taille et même forme, puisqu’on fait un filtrage dans une échelle de taille comprise entre 100 et 200 nm (voir 30-300 nm en théorie). Forcément, dans cette échelle, on va avoir des tailles allant du simple au double (ou du simple au décuple). Du coup, on va avoir une véritable soupe avec plein de particules de tailles et de formes différentes.

Du coup, on comprend qu’ils soient obligés de tricher dans les papiers revendiquant un isolement de virus. S’ils ne le faisaient pas, ils auraient des photos avec seulement 10 ou 20 % de particules réellement de même taille et même forme.

En fait, quand on regarde les quelques exemples disponibles d’images de virus isolés, les particules virales sont souvent différentes en forme ou/et en taille. Les fameux 99 % de particules de même taille et même forme sont apparemment un mythe. C’est là qu’on voit que tout dépend de l’interprétation qu’on fait de la notion de « particules de même taille et même forme ». Il suffit d’être un peu coulant sur ce qu’on considère être de même taille et de même forme pour avoir tout d’un coup un pourcentage pas trop mauvais de particules ayant ces caractéristiques sur 2 ou 3 photos en plan rapproché.

De la même façon, en étant coulant sur le fait qu’une photo en plan éloigné n’est pas significative, (parce qu’à une distance suffisante, la plupart des particules se ressemblent), on peut affirmer qu’on a 99 % de particules de même taille et même forme.

Donc, si on est coulant sur la similitude de taille et de forme (avec par exemple des différences de taille de 30 %), il y aura quand même beaucoup de particules ayant « la même taille ». Et, évidemment, il y aura toujours un endroit ou il y aura une proportion plus grande de particules « similaires ». Donc, il suffira de donner une photographie de cette zone pour faire croire que c’est pareil ailleurs.

Pourquoi ne pas avoir pris une échelle de taille plutôt comprise entre 100 et 150 nm ? Ca aurait permis d’avoir une similitude plus grande. Mais, déjà, ils devaient être obligés d’avoir une échelle de taille un peu grande, pour pouvoir inclure d’autres virus. Il s’agit de l’échelle de taille des virus en général. Donc, on ne peut pas se limiter à seulement une taille comprise entre 100 et 150 nm ou même mieux, 100 et 120 nm. Et puis, c’est peut-être aussi que les méthodes de filtrage ne permettaient pas d’avoir une précision plus grande que ça.

On peut se dire que ce n’est pas pour rien que les virologues ont sorti le concept de particules virus-like (c’est à dire des particules qui ont tous les traits morphologiques des virus, mais qui ne sont que de simples débris cellulaires). A partir du moment où ils ont commencé à pouvoir faire des cultures de cellules, ou même simplement à partir du moment où ils ont pu analyser du sang au microscope électronique, ils ont forcément constaté qu’avec les particules supposées être des virus, il y avait plein d’autres particules de la même échelle de taille et qui différaient seulement légèrement en forme (un peu moins rondes, un peu moins régulière dans leur forme, un peu plus grosses ou plus petites).

Il y a aussi le fait qu’il est nécessaire que les particules aient un noyau ainsi que des sortes de piques à l’extérieur pour pouvoir entrer dans les cellules. Mais souvent, l’un ou l’autre de ces éléments, ou les deux ne sont pas présents sur certaines particules montrée sur les photos comme étant des virus.

Enfin bref, l’analyse visuelle ne vaut rien. Vu qu’il y a toujours des particules de taille virale dans les cultures, vu qu’on ne donne jamais réellement l’échelle de taille sur les photos, vu qu’on sélectionne une ou deux photos en plan rapproché, et vu qu’on est très coulant sur la définition de « particules identiques », il est facile de toujours trouver un virus.

Ce n’est pas toujours le cas en ce qui concerne les échantillons sanguins ou de tissus venant directement d’un individu (sans culture donc). C’est ce qui a posé problème pour le vih. Comme on a analysé des ganglions lymphatiques, et que ceux-ci sont de véritables papiers tue-mouche, forcément, il y avait peu de particules en suspension et il a été impossible de trouver un virus après isolement. Il devait y avoir des particules de taille virale, mais pas assez pour pouvoir revendiquer l’identification d’un virus.

Au passage, avant la mise au point des tests d’anticorps et d’adn, cette méthode d’analyse était la seule utilisée. Donc, toutes les identifications de virus réalisées avant l’arrivée des tests d’anticorps et d’adn ne valent strictement rien. Ca concerne tous les virus isolés avant les années 70 ; donc, en réalité la plupart des virus pathogènes connus.

En fait, si c’était possible d’avoir 99 % de particules de même taille et de même forme, à tous les coups, ça voudrait dire qu’une telle chose est assez facile à obtenir. Donc, cette situation n’aurait plus un coté exceptionnel et probant. Ca voudrait dire que la plupart des particules de cette taille ont une forme à peu près identique et une taille similaire à disons 10 ou 20 % près. Et dans toutes les purifications, on trouverait 99 % de particules de taille et de forme virale. Ca ne serait alors pas un bien grand miracle de trouver une telle situation. Donc, si on analyse les choses par mon interprétation, à savoir que les virus ne sont que des débris cellulaires, quelque soit la situation, elle est foireuse pour trouver des virus. S’il y a des tas de particules de tailles et de formes différentes dans la purification (ce qui se passe en réalité), c’est foireux, parce qu’on ne pourra jamais avoir une purification avec 99 % de particules de même taille et même forme. Et si les particules étaient à peu près toutes identiques (cas imaginaire), on trouverait toujours 99 % de particules de taille est de forme identiques. Et donc, avoir 99 % de particules identiques ne prouverait plus rien quant à la présence d’un virus.

Le seul cas où il y aurait 99 % de particules identiques sans que ça n’arrive tout le temps, ce serait celui où l’orthodoxie aurait raison et où il y aurait bien des virus. Mais dans ce cas, il serait facile de fournir la preuve de cet état de fait. Et tous les problèmes de truandes diverses relevées plus haut n’existeraient pas. Or, ils existent. Et ça, ça va bien dans le sens de mon interprétation des choses.

 

– Les tests d’anticorps et d’adn

Dans les années 70 et 80, sont apparus les tests d’anticorps et d’adn. En transférant la preuve finale de l’identification d’un virus sur l’identification de ses protéines et de son adn, ça a permis d’escamoter les problèmes de l’identification visuelle des virus.

L’identification visuelle aurait du rester indispensable. Mais puisqu’on avait d’autres tests sur lesquels se reposer pour faire l’indentification du virus, certains virologues ont commencé à dire tout d’un coup que l’étape de purification n’était plus aussi importante. Et du coup, la procédure visuelle, qui au fond, n’était déjà pas très contraignante, l’est apparemment devenue encore moins (même plus besoin de purification par exemple). Ca n’a peut-être pas été le cas chez tous les virologues, mais chez un certain nombre, c’est certain. En conséquence, tous les problèmes liés à l’identification visuelle sont devenus eux aussi moins importants. Enfin.., ça a été la nouvelle tendance.

La crédibilité de la procédure d’identification des virus a par ailleurs été renforcée, puisque là, on avait des outils qui ne l’identifiaient plus par des caractéristiques à la crédibilité discutable (taille et forme), mais par des caractéristiques ultra crédibles, pour peu qu’on croit à la validité des tests. Là, on avait carrément des tests d’identification ultra spécifiques, et même carrément la carte d’identité du virus (l’adn).

Seulement, comme on l’a vu par ailleurs, les tests d’anticorps et d’adn sont des arnaques. Ils ne sont pas spécifiques. Ils réagissent au taux de particules (quelles qu’elles soient) Et comme ce ne sont pas des tests tout ou rien, on peut trouver un peu ce qu’on veut. Vu qu’il y aura toujours une réaction, il suffit de déterminer arbitrairement le seuil à partir duquel on dit que la réaction est positive. Donc, les résultats de ces tests ne signifient rien.

En résumé, quand on identifie un virus pour la première fois, c’est bidon, parce que les tests d’identification sont bidons. Et si on n’a pas d’instruments pour identifier le virus, ben forcément, pour réaliser son identification, il y a comme un léger problème.

Donc, on comptait sur l’analyse visuelle pour prouver la validité des tests d’adn. Mais comme l’analyse visuelle ne prouve rien seule, la preuve de la validité de l’adn n’est pas fournie. Donc, encore une fois, la quête de la preuve en question n’aboutit à rien.

Puisque la problématique principale a été traitée, on pourrait s’arrêter là pour l’isolement des virus. Mais étant lancé, j’ai traité aussi le problème des contrôles.

 

– Le problème des contrôles

Quand on fait une culture virale, on réalise en parallèle une deuxième culture dite de contrôle, qui ne contient aucun virus. Si la culture réagit de la même façon que la culture virale, c’est-à-dire contient les mêmes particules, c’est que ce qu’il y a dans la culture virale n’est pas viral du tout. Ce sont de simples débris cellulaires. Par contre, si on ne trouve rien, c’est que ce qu’il y a dans la culture virale est normalement bien un virus.

Donc, l’objectif, c’est d’avoir deux résultats différents entre la culture virale et la culture de contrôle : un positif pour la culture virale et un négatif pour la culture de contrôle. Si les deux sont positifs, ou négatifs, ça veut dire qu’il n’y a que des débris cellulaires. Et bien sur, il est hors de question d’avoir un résultat négatif dans la culture virale et un résultat positif dans la culture de contrôle. Ca voudrait dire qu’il y a du virus dans la culture de contrôle et pas dans la culture virale. Ca la foutrait légèrement mal. Donc, au final, il est préférable que le test de contrôle réagisse toujours négatif. Au pire, il peut réagir positif si la culture virale réagit positif. Mais on va chercher au maximum à éviter aussi ce cas de figure.

Si l’objectif voulu est atteint, cette procédure renforce l’orthodoxie ; puisque là, les virologues ont beau jeu de mettre en avant le fait qu’ils ont un résultat négatif dans les cultures de contrôle et que ça ne peut venir que du fait qu’il y a un virus dans la culture virale et pas dans la culture de contrôle.

On constate qu’en fait, toute la validité de la procédure d’isolement repose essentiellement sur la culture de contrôle.

Ce qui se passe en réalité, c’est que si les cultures sont faites de façon identique, les analyses vont donner les mêmes résultats. On va trouver la même chose dans la culture virale que dans la culture non virale de contrôle. Et ça, c’est très mauvais pour l’objectif que les virologues veulent atteindre. C’est forcément une grosse menace pour l’orthodoxie.

La façon de résoudre ce problème, va être d’utiliser plusieurs autres truandes (forcément).

Déjà, il semble qu’on ne fasse pas tous les tests.

Il ne semble pas qu’on fasse d’analyse visuelle pour la culture de contrôle. Donc, cette partie de l’analyse n’est a priori pas soumise à vérification. Peut-être qu’on en a fait durant les années 60, quand il n’y avait pas encore les tests d’anticorps. Mais pour les rares échos qu’on en a (isolement d’un virus de leucémie de souris évoqué par Etienne de Harven, un dissident du sida), rien n’est moins sur.

Et apparemment, on ne fait également pas de test d’adn. Ca a été le cas pour l’isolement du vih de 1997. Nul part le test d’adn n’est évoqué. Ce qu’on doit se dire, c’est que comme les tests d’anticorps sont considérés comme un gold standard (c’est-à-dire comme totalement fiables), il n’y a pas de raison d’utiliser le test d’adn en plus. Précision ; on ne fait pas de test d’adn pour le contrôle, mais on n’en fait pas non plus pour la culture virale (en tout cas, c’est ce qui s’est passé pour l’isolement du vih de 1997).

Cela dit, on pourrait probablement les faire, parce que la truande utilisée pour les tests d’anticorps pourrait tout à fait être utilisée pour les tests d’adn.

En effet, ce qui se passe pour les tests d’anticorps, c’est tout simplement qu’on ment sur les résultats obtenus. Là encore, c’est ce qu’on a pu constater avec l’isolement du vih de 1997. Les résultats du Western-Blot (un test d’anticorps qui est sensé pouvoir identifier la présence de différentes protéines) sont déclarés différents par les virologues. Mais quand on voit le résultat, en réalité, c’est faux. Les protéines du test de la culture virale se retrouvent dans le test de la culture de contrôle. La seule différence qu’il y ait, c’est une différence d’intensité de réaction. Le test réagit moins fort dans la culture de contrôle, mais il réagit quand même (sur les mêmes bandes).

Forcément, comme ça, il est facile de dire que le résultat du contrôle est négatif.

Si on obtient une réaction moins forte dans le cas de la culture de contrôle, c’est qu’apparemment, on la stimule pendant une période de temps différente. A priori, c’est moins longtemps. Donc, comme les stimulants utilisés (cortisone, antibiotiques) produisent des particules de taille virale, le fait d’arrêter de les utiliser plus tôt va permettre d’avoir moins de débris dans la culture de contrôle, et donc, une réaction moins forte avec le test Western Blot. Mais les virologues vont avoir tendance à oublier ce « léger détail » et à dire que tout est réalisé de façon identique dans les deux cultures.

Ou alors, autre technique, on fait les mesures à des moments différents (plus tôt pour le contrôle).

Par exemple, dans cet article écrit par le groupe de Perth (dissidence du sida) a propos de l’isolement du vih de 1997, il est spécifié que la culture de contrôle n’a pas été faite de la même manière que la culture virale : « La seule différence qu’on peut voir dans leurs strips d’électrophorèses (sur gel en polyacrylamide-SDS) de « virus purifié » et de « faux virus » est quantitative, non qualitative. Cette différence quantitative peut être due à beaucoup de raisons, dont le fait qu’il y avait des différences significatives dans l’histoire et le mode de préparation des cultures de cellules H9 non infectées et « infectées« . »

Du coup, vu qu’on ment sur ce qu’on obtient réellement, on pourrait probablement aussi faire un test d’adn lors de la procédure d’isolement. On arriverait a priori sans trop de problème à inventer qu’il n’y a rien dans le contrôle et quelque chose dans la culture virale.

Autre possibilité de truande : le concept de contamination. Il s’agit du fait de penser que si on a un résultat positif dans la culture de contrôle, c’est parce que celle-ci a été contaminée par l’expérimentateur. C’est pratique. Si on obtient un résultat positif dans la culture de contrôle, on dit qu’il y a eu contamination. Et on recommence jusqu’à ce qu’on obtienne un résultat négatif. Les résultats positifs ne vont pas être considérés comme la preuve qu’il n’y a pas de virus, mais comme des erreurs d’expérimentation. Forcément, comme ça, c’est facile d’obtenir le résultat désiré.

On notera qu’avant l’apparition des cultures de cellules, dans les années 60, évidemment, on ne faisait pas de contrôle. Du coup, tout ce que je viens de dire sur les cultures de contrôle ne concerne que les virus isolés depuis les années 60. Donc, l’écrasante majorité des virus « pathogènes » a été isolée avant la mise en place de ces procédures.

Et même après, il semble qu’il y ait des isolements qui n’ont pas culture de contrôle.

 

3) Le cas des clones infectieux des virus

 

Comme on ne sait en réalité pas identifier l’adn (et les protéines), ce problème rejaillit sur toutes les méthodes qui requièrent son identification. Et c’est le cas des clones infectieux des virus.

Un clone d’un virus c’est bien sur un virus identique à un autre. Mais dans le monde de la virologie, c’est aussi une méthode qui consiste à reproduire le virus à partir de son adn. Donc, il ne s’agit pas de prendre un virus entier, de le mettre à proximité d’une cellule et d’attendre qu’il y rentre et se reproduise. Non, il s’agit de prendre l’adn nu du virus (c’est-à-dire sans son enveloppe de protection), de l’injecter directement dans la cellule et de voir s’il s’y reproduit.

Dans la mesure où on manipule directement l’adn, et où on obtient le virus complet à la fin de la procédure, c’est une procédure assez impressionnante quant à la validité de la génétique. On peut aussi obtenir des variations génétiques par rapport à l’adn de base, etc…

Ce qu’il y a, pour l’isolement des virus, c’est que c’est une procédure réalisée rarement. Donc, si on estime qu’elle n’a pas été réalisée correctement, l’orthodoxie n’a pas de moyen de se défendre. Toute la littérature concernant le virus tombe. Et puis, on peut dire que ça n’a pas été vérifié par des labos différents. Au contraire, dans le cas des clones infectieux, comme c’est réalisé assez souvent, on peut dire que ça l’a été. Donc, s’ils trouvent tous la même chose, la procédure devient plus crédible. Et par ailleurs, les variations obtenues sur l’adn vont dans le sens de l’existence du virus.

La méthode des clones infectieux n’est pas à confondre avec une procédure d’isolement de virus. Ce qui manque dans le cas des clones infectieux des virus, c’est certainement toute la phase de purification. Comme on estime qu’on sait reconnaitre le virus via les tests d’anticorps et les tests d’adn, on estime qu’on n’a plus besoin de la phase de filtrage de la culture. Et puis il manque aussi l’isolement directement à partir du sang d’une personne. Bien sur, puisqu’il n’y a pas purification, la phase d’analyse visuelle n’est pas incluse non plus.

Mais bien sur, comme en réalité, on ne sait identifier ni l’adn ni les protéines du virus, cette méthode ne vaut rien. Et vu qu’elle ne comporte même pas de procédure d’analyse visuelle, elle ne comporte même pas, à la base, d’élément indépendant permettant éventuellement de valider les tests d’adn.

La seule chose qui pourrait donner une preuve de l’existence de l’adn, avec cette procédure, c’est le fait que certains ont mis en avant le fait qu’on peut voir le résultat d’une infection grâce à des morceaux d’adn qui produisent une substance fluo.

Ces expériences ne sont pas à confondre avec les expériences d’animaux fluo dont j’ai parlé dans un autre article. Dans celles-ci, il s’agissait de produire un animal fluo à partir d’un embryon dans lequel on introduisait du matériel génétique (non répliquant, donc pas un virus) entrainant la fluorescence. La réplication de la fluorescence venait de la multiplication des cellules contenant le matériel génétique en question, donc déjà fluo. Là, il s’agit d’infecter un animal adulte en l’infectant avec un virus qui produit une substance fluo. Et c’est la multiplication du virus qui fait s’étendre la fluorescence.

Seulement, quand on voit le résultat, dans les publications officielles, celui-ci montre bien que ça ne marche pas. En effet, logiquement, si on arrivait à multiplier des virus qui produisent une substance fluo, on arriverait à colorer des animaux adultes entièrement en fluo, ou au moins des zones ou des organes entiers. Mais ce n’est pas le cas. Ce qui montre bien que les expériences en question sont complètement bidons. Ce qu’on voit dans les comptes rendus d’expérience, c’est qu’une zone de quelques nanomètres de largeur est devenue fluo. Forcément, seulement quelques nanomètres, ça n’est pas très convaincant.

 

Conclusion :

Donc, on avait deux éléments potentiels de preuve de la validité de l’adn avec la technique d’isolement des virus et celles de manipulation des virus : le fait que l’analyse visuelle se suffise à elle-même, et le fait qu’on puisse faire se répandre dans le corps des virus fluo.

Aucun de ces éléments ne pouvant servir de preuve, la validité de la vision orthodoxe de l’adn n’est pas prouvée par ces techniques.

Les tests d’identification du sexe d’une personne


Comme pour les autres techniques déjà examinées, dans l’esprit des gens, les tests d’identification du sexe d’une personne sont une des meilleures preuves de la validité de la théorie génétique. On va voir que là aussi c’est loin d’être le cas.


1)    Les tests chromosomiques marchent, mais ça ne prouve rien


Le principe des tests chromosomiques est simple. Les êtres humains possèdent dans pratiquement toutes leurs cellules 23 paires de chromosomes. Ils sont classés par ordre de taille. Les 22 premières sont identiques chez l’homme et chez la femme. Mais la 23ème paire de chromosome est différente. Celle des hommes a un grand et un petit chromosome (XY) et celle des femmes en a deux grands (XX).

Et ça, c’est visible au simple microscope optique. C’est d’ailleurs vers 1900 que les chromosomes ont été découverts. Et c’est en 1924 que Painter découvre le gène Y.

Donc, effectivement, on peut identifier le sexe d’une personne grâce à ses chromosomes. Et donc les tests basés sur ce système fonctionnent.

Ils sont d’ailleurs utilisés à très large échelle, puisque pour des très nombreuses femmes au delà de 38 ans, on fait un test chromosomique. Ceci à cause du risque plus élevé à ces âges là d’avoir des enfants présentant des anomalies génétiques.

Seulement, c’est l’adn qui est important dans la théorie officielle. Ce sont les briques de base du système. C’est ça qui permet d’identifier quelque chose, de produire une protéine, ou de modifier une cellule voir un individu. C’est l’adn qui est à l’origine de toutes les revendications de résultats de la génétique actuelle. C’est ça que je critique. Les chromosomes ne sont qu’une boite noire qui ne permet pas à grand-chose (à part connaitre le sexe de la personne). Donc, une technique qui se base uniquement sur la forme des chromosomes ne démontre rien concernant la validité de la théorie génétique actuelle. Et comme c’est le cas pour ce test d’identification du sexe d’une personne, il ne prouve rien.

Mais, depuis un dizaine d’années, sont apparus les tests génétiques. Là, on revient dans la problématique de l’adn.


2)    Les tests génétiques


Les tests génétiques sont apparemment tous de type SRY ; c’est à dire basés sur la détection du gène SRY (pour sex-determing region Y).


a) Le test SRY pour déterminer le sexe d’une personne adulte


Ce test sert donc à déterminer si une personne est une femme ou un homme. Seulement, vu que le problème ne se pose jamais chez les gens ordinaires, évidemment, ça n’est utilisé que dans des cas très particuliers. Essentiellement, on l’utilise soit pour identifier les cas de triche de la part des athlètes de très haut niveau (les hommes qui se font passer pour des femmes) soit dans les enquêtes de police.

A propos de l’efficacité du test, dans cet article de slate concernant les athlètes se faisant passer pour des femmes et qui sont en fait des hommes, il est dit que ça ne marche pas bien :

A partir des J.O. d’hiver de 1992, les officiels ont testé la présence d’un de ces gènes, appelé SRY (la région déterminant le sexe du chromosome Y) – si vous l’aviez, vous ne pouviez pas concourir avec les femmes. Mais ce test n’a pas marché non plus. La présence du gène SRY, ou même d’un chromosome Y, n’indique pas toujours qu’une personne est un homme. Certains individus nés avec un chromosome Y développent tous les traits physiques d’une femme à part les organes sexuels féminins.

Selon certaines sources, l’analyse du sexe de toutes les athlètes féminines lors d’une compétition est abandonnée depuis 2000. Donc, le screening à grande échelle est abandonné. Evidemment, ça laisse à penser que c’est parce que le test sry ne marchait pas et que les autorités ne voulaient pas que ça se voit. Le maintien des tests sur toutes les athlètes aurait mis de plus en plus à jour l’inefficacité du test sry. Et ça, il fallait l’empêcher.

Il est dit que les problèmes de fiabilité viendraient du fait qu’il y a des gens qui auraient toutes les caractéristiques de femmes, à part les organes sexuels. Seulement, ça devrait normalement concerner une infime minorité de la population. Il n’y a pas de raison de considérer le test comme non fiable à cause de ça. Donc, si l’usage en a été abandonné à grande échelle, c’est très probablement parce que le test identifiait très souvent des femmes comme étant des hommes. Il devait y avoir plein de faux positifs.

La situation actuelle est donc que si une athlète réclame que l’on teste une autre athlète, les autorités sportives vont le faire. Et a priori, le test sry reste utilisé dans ce cas là.

Mais évidemment, il va être très rare qu’une athlète émette un doute sur le sexe d’une autre athlète. Il va y avoir un test tous les 4 ou 5 ans. Ce qui fait que statistiquement, ça n’aura aucune signification. Et par ailleurs, dans cette situation, on fait plein d’autres tests en plus de celui-ci. Donc, les testeurs ont de nombreux autres éléments pour déterminer le sexe de la personne. Ce qui permet de truander discrètement le test sry si jamais il ne donne pas le bon résultat.

Depuis 2000, on est donc dans un cadre complètement différent de la situation précédente (screening général des athlètes féminines). Quand on teste des centaines de femmes sans possibilité de savoir par ailleurs si ce sont des hommes ou des femmes, c’est beaucoup plus dur de truander ce genre de test. Avec un ou deux test tous les 4 ou 5 ans, avec en plus plein d’autres méthodes d’analyse à disposition par ailleurs, c’est un jeu d’enfant de le faire. Déjà, il y a très peu de risque de se tromper. Et s’il y a  une erreur, elle restera cachée parce que personne ne croira que les médecins ont pu se tromper.

Donc, avec un échantillon si faible, avec si peu de possibilité d’erreur, et si peu de possibilités qu’une erreur soit éventée, cette utilisation du test sry n’a aucune valeur.

Sinon, il y a les tests policiers pour identifier le sexe du coupable. Seulement, comme on l’a vu dans un autre article, les techniciens ne travaillent pas en aveugle. Ils savent quels sont les suspects. Par ailleurs, vu que personne ne doutera du résultat du test, celui-ci a peu de chance d’être invalidé plus tard. Et puis, vu que les conditions de collecte de l’adn sont toutes sauf optimales, il est très facile, si jamais on pense plus tard qu’il y a eu une erreur, de dire qu’il y a eu contamination de l’échantillon, ou alors que l’adn collecté à ce moment-là n’est finalement pas celui du coupable. Donc, l’usage en situation policière n’a aucune valeur pour prouver la validité de cette technique.


b) Le test SRY pour déterminer le sexe d’un foetus


On a compris qu’on pouvait utiliser le test sry pour déterminer le sexe du fœtus à partir du sang de sa mère vers la fin des années 90.

Jusqu’en 1997, les scientifiques cherchaient à mettre au point une méthode pour isoler les cellules fœtales du sang maternel, ce qui aurait permis de faire un test prénatal à partir d’un simple test sanguin, et aurait évité le recours à des tests invasifs comme l’amniocentèse, ou la biopsie du trophoblaste, qui comportent tous les deux des risques de complication. Mais, ils se sont rendus compte qu’il y a seulement une cellule fœtale par mL de sang maternel ou même 10 mL, ce qui était insuffisant pour arriver à détecter l’adn du fœtus (cf. le site suivant).

C’est vers 1997 que Dennis Lo et son équipe ont déterminé qu’il y avait beaucoup plus d’adn du fœtus en circulation que de cellules. Cette quantité est considérée comme suffisante pour mener le test SRY. Ca a donc ouvert la voie à la détermination du sexe du fœtus à partir du sang de la mère.


–          Le cas de la France

Le document qu’on retrouve à chaque fois quand on fait une recherche sur le sujet en français, c’est « Détermination du sexe foetal au cours du premier trimestre de grossesse par analyse du sérum maternel par PCR en temps réel« , publié en 2002 dans le journal  » Gynécologie obstétrique et fertilité ». A part ça, on n’a pas grand-chose.

Dans cet autre document (« Diagnostic prénatal et biologie moléculaire« ), on a une analyse du professeur J.M Costa du laboratoire Pasteur Cerba, en juin 2009, sur les méthodes de diagnostics prénataux.

Page 22, on apprend que la détermination du sexe fœtal avec la méthode de détection SRY n’a été réalisée que pour 500 cas en 2008. Ca a été utilisé à partir de 2001 pour environ 200 cas, puis, ça a augmenté progressivement. Bien sur, il ne s’agit de l’activité que de Pasteur Cerba. Il peut éventuellement y avoir d’autres sociétés pratiquant ce genre de test en France. Mais à priori, c’est quasiment la seule. Cela dit, il n’est précisé nulle part qu’il s’agit de tests déjà commercialisés. Donc, il est possible que ces résultats soient faits essentiellement dans un cadre expérimental.

Ce qui va dans le sens de cette idée, c’est le fait qu’on ne parle quasiment pas de ce test ailleurs. Quand on cherche sur Internet, il n’y a presque aucun document sur le sujet. Or, s’il était utilisé en production, il y aurait des tonnes de documents évoquant son usage. Donc, il semble bien qu’il ne soit pas utilisé en France, ou alors, juste dans le cadre d’essais cliniques.

Donc, ce test qui est soi-disant fiable à 99 %, et qui a été mis au point dès 2000, ne serait toujours pas utilisé 10 ans après, malgré sa très grande utilité. Forcément, ça laisse fortement à penser que s’il n’est toujours pas utilisé, c’est tout simplement qu’il n’est pas fiable en réalité. C’est pour ça qu’il n’a pas été mis sur le marché.

Bien sur, des tests commerciaux pourraient pallier l’absence de tests officiellement utilisés dans les hôpitaux. Mais en Europe, une telle pratique est apparemment interdite ; ceci pour éviter des dérives eugénistes en fonction du sexe de l’enfant. Ce n’est qu’avec l’échographie qu’on a le droit de le faire, ou avec l’amniocentèse, ou la biopsie du trophoblaste s’il y a soupçon d’anomalie génétique. Donc, il n’y a pas de tests de ce genre réalisés par des entreprises privées.


–          Le cas de l’Amérique

Voyons maintenant le cas de l’Amérique. Là bas, il est autorisé de faire ce genre de test pour déterminer le sexe de l’enfant à la demande des futurs parents. C’est donc avec ce pays là qu’on va avoir le fin mot de l’affaire.

Normalement, si le test est aussi efficace qu’on le dit, il devrait être tout ce qu’il y a de plus officiel aux USA, et utilisé très couramment pour déterminer le sexe de l’enfant, que ce soit dans les hôpitaux ou via les pharmacies. Seulement, comme par hasard, là encore on ne trouve quasiment rien sur le sujet.

Il y a bien un test qui s’appellerait le Jack and Jill test. Sur le forum in-gender.com, on apprend que le test ne serait fait que dans un hôpital de Houston, au Texas. Donc, un test ultra confidentiel. Rien à voir avec un test officiel. C’est ce qui entraine que, sur le forum en question, pourtant spécialisé dans ce genre de tests, quasiment personne ne le connait.

Cette réponse dit que le test serait efficace à seulement 95 %. Mais, la personne ajoute qu’elle a entendu parler de personnes pour lesquelles le test s’était révélé faux.

Dans cet autre topic, datant pourtant de juillet 2009, là encore, apparemment, très peu de monde connait. Mais une personne semble révéler le pot-aux-roses. Elle dit qu’une échographie serait faite en même temps que le test génétique. Eh oui, forcément, avec l’aide de l’échographie, c’est beaucoup plus facile de donner un résultat juste. Donc, le test Jack and Jill est clairement une truande. Le seul test apparemment lié à un hôpital, est lié à un seul hôpital, et est une arnaque. Ca commence mal.

Donc, il est clair que ce test n’est pas pratiqué aux USA officiellement. Ce qui signifie de façon évidente que les affirmations concernant son efficacité sont des mensonges. Sinon, il serait forcément utilisé de façon fréquente.

Mais, si on ne trouve rien du coté des organisations officielles comme les hôpitaux, c’est différent du coté des tests commerciaux. Il en existe 2 ou 3. Et là, il y a de nombreux témoignages concernant leur fiabilité.

C’est mieux. Parce que, autant, dans le  cas de l’absence de ces tests dans les organisations officielles, on a une preuve simplement par défaut ; autant avec les témoignages sur les tests commerciaux, on a la preuve par l’expérience que ces tests sont des arnaques.


Le test Tell Me Pink Or Blue

Le test pour lequel l’arnaque est claire est le test Tell Me Pink Or Blue, ou TMPOB. C’est un test d’adn basé sur le sang de la mère (donc bien un test de type SRY), qui est fait à partir de 7 semaines. Là, beaucoup plus de monde le connait.

Le forum in-gender.com, qui traite spécialement des méthodes de détermination du sexe du fœtus et de leur fiabilité, comporte de nombreux témoignages de résultats faux concernant le test TMPOB. En voici quelques uns.

Il y a déjà celui de cette femme, qui a fait un test TMPOB à 10 semaines qui lui a prédit un garçon, puis une échographie à 16 semaines qui lui a prédit une fille. Il y a aussi cette femme, dont le test TMPOB prédisait un garçon, et dont les 5 échographies ont ensuite affirmé que ce serait une fille.

Cette autre femme a eu un premier résultat lui prédisant un garçon, mais l’échographie a dit que c’était une fille. Elle a donc fait un deuxième test TMPOB. Et cette fois, le résultat était celui d’une fille. Deux tests, deux résultats différents.

Encore une autre femme a eu un résultat faux alors qu’elle avait fait le test à 14 semaines (une fille annoncée. Mais, deux échographies faites à 21 et 22 semaines ont clairement montré que c’était un garçon). Dans le même topic, une autre femme dit qu’à 8 semaines, le résultat était une fille, et finalement, deux échographies faites à 23 semaines ont montré qu’il s’agissait d’un garçon.

Dans cet autre témoignage, le test à 10 semaines prévoyait un garçon, alors que l’échographie à 16 semaines disait qu’il s’agissait d’une fille.

Un peu après dans le même topic, une femme dit qu’en 2008, elle a fait le test à 10 semaines, et que celui-ci prédisait une fille. Finalement, à 20 semaines, l’échographie a montré que c’était un garçon. La société lui a offert de faire un second test, qui a prédit encore une fille. A la naissance, c’était bien un garçon. Une amie de cette femme lui a raconté une histoire similaire : à 10 semaines, le test prévoyait un garçon. Un autre test probablement fait après que l’échographie ait contredit le premier prévoyait encore un garçon. Finalement, lors de l’accouchement, c’était une fille.

Dans cet autre topic, la personne dit avoir appelé des revendeurs européens du test. Et ceux-ci lui ont répondu qu’ils avaient arrêté de le vendre en Europe, parce qu’ils le considéraient comme non fiable.

Pour avoir une vision un peu plus statistique des témoignages, j’ai compté a peu près tous ceux de la dernière page du sous forum consacré à ce test (il y a 4 pages en tout). Sur 30 témoignages, 7 sont bons, et 23 sont faux. Donc, il y a 77 % de faux résultats. Sur ces 30 femmes, la plupart ont donné des résultats d’échographie à au moins 20 semaines. A ce stade, il n’y a quasiment plus aucune erreur possible. Et 6 ont donné le résultat des naissances (qui correspondaient à 100 % avec le résultat de l’échographie). Au passage, pour les 6, le résultat du test TMPOB était faux.

Evidemment, un certain nombre de ces femmes sont venues sur le forum pour témoigner d’un mauvais résultat. On peut penser que ça introduit un biais statistique qui fait aller le pourcentage de résultats faux au-delà de 50 %. En effet, le test Pink or Blue étant apparemment totalement basé sur le hasard, normalement, le résultat devrait être de seulement 50 % de résultats faux. Cela dit, 50 % des femmes sont intervenues avant d’avoir le résultat du test TMPOB. Donc, pour elles, ce biais n’existait pas.

A noter que, dans ce forum, jamais quelqu’un ne recommande un test d’adn connu pour être efficace. Alors que s’il y en avait un, dès qu’une personne viendrait pour parler d’un test d’adn bidon, les autres lui recommanderaient le ou les tests en question. Il est clair que s’ils ne le font pas, c’est qu’un tel test n’existe pas.

On constate d’ailleurs ici l’utilité d’Internet et spécialement des forums et des blogs. Parce que sans Internet, on n’aurait comme référence que les travaux officiels, qui nous disent tous que tout est totalement maitrisé. Mais avec les forums et les blogs, tout d’un coup, c’est une toute autre musique qui se joue.

Si on n’avait pas ces forums, on aurait comme source que l’étude de 2002 citée plus haut, et disant que :  » Les résultats obtenus par analyse du sérum maternel sont en parfaite concordance avec le sexe du fœtus. Parmi les 121 patientes étudiées, 61 portent un fœtus masculin et 60 un fœtus de sexe féminin. Aucun résultat faussement négatif n’a été observé. De plus, aucun résultat faussement positif n’a été observé y compris chez les 27 patientes porteuses d’un fœtus de sexe féminin et ayant donné naissance à un garçon au cours d’une grossesse précédente. »

Bref, 100 % efficace. Et les docteurs balancent les mêmes résultats. On n’oserait imaginer qu’ils puissent mentir aussi effrontément. Eh bien si.

En conclusion, là encore, les perspectives de confirmation de la théorie génétique s’évanouissent. Les tests basés sur les chromosomes ne prouvent rien. Et les tests basés sur l’adn ne sont manifestement pas fiables. Encore une revendication de succès de la génétique qui est infirmée.

L’échec des thérapies géniques

Concernant les thérapies géniques, là, c’est beaucoup plus simple que pour les manipulations génétiques sur les animaux, ou que pour les ogm : l’échec est quasi-total. Et c’est reconnu par les médecins et généticiens eux-mêmes.

La question est « y a-t-il possibilités de truande » ? On va voir que oui. Du coup, l’autre question qui suit immédiatement après, c’est « pourquoi n’y a-t-il pas eu plus truande alors ? C’est le problème qu’on traitera dans la troisième section.

 

1) Les thérapies géniques sont un échec

 

Comme dit dans l’introduction, l’échec est quasi-total. Comme pour les autres secteurs liés à la génétique, on attendait des succès grandioses. Ca été un véritable fiasco.

Voyons ce qu’en disent quelques spécialistes.

J’ai eu la chance, il y a 2 ans et demi environ, de tomber sur une revue traitant du problème. Il s’agit de la revue « technologie review » (le n°3, de septembre/octobre 2007). Le grand dossier de ce numéro était « Guérir grâce à la thérapie génique : peut-on encore y croire ? ».

p.46 (article « les promesses de la thérapie génique » par Horace Freeland Judson) : « On peut décrire l’histoire de la thérapie génique comme la recherche sans cesse déçue de virus capables de jouer le rôle de « vecteurs » pour transporter le gène jusqu’aux cellules du patient, mais aussi comme la prise de conscience déconcertante qu’il faut bien plus que de simples gènes pour produire avec succès les protéines désirées. Pour la communauté scientifique, les échecs s’accumulaient au fil des ans. »

p.50 : « A partir de l’automne 1994, le directeur du NIH (National Institutes of health), Harold Varmus, devint de plus en plus sceptique quant à la qualité de la recherche en matière de thérapie génique. Le Recombinant DNA Advisory Comittee (RAC) fut chargé de passer en revue tous les protocoles d’essais cliniques humains de thérapie génique financés par le NIH…

… Il (ndr : le comité) s’aperçut que le cas Anderson n’était que le plus fameux, et qu’il y avait eu beaucoup d’autres annonces exagérées ou sans fondement autour de la thérapie génique. Bien que le NIH ait alloué 200 millions de dollars par an à la recherche en thérapie génique, que les grandes sociétés pharmaceutiques et des nuées de start-ups en biotechnologies aient dépensé autant encore, pas un seul cas d’essai réussi sur l’homme n’avait été rapporté à un journal scientifique. »

 

p.55 (article « Thérapie génique et business : de l’emballement à la déception« , par Bertrand Jordan, biologiste moléculaire, a été directeur de recherche au CNRS, directeur du Centre d’immunologie de Marseille- Luminy et coordinateur de Marseille-Nice Génopole. Il a publié « Thérapie génique, espoir ou illusion ? ») :

« Au début des années 1990, l’industrie de la thérapie génique semblait vouée à un avenir prometteur. Pourtant, depuis quelque temps, les start-ups créées au moment de la « bulle biotech » disparaissent progressivement et la désillusion s’installe dans la sphère financière. Sera-t-il possible de redresser la barre ? ».

« Au début des années 1990, la biotechnologie suscitait de grands espoirs. Des sociétés comme Genentech (fondée en 1976) ou Amgen (1980), avaient atteint une taille respectable et affichaient des résultats prometteurs. La montée en régime du programme Génome faisait prévoir une moisson de découvertes, et on annonçait avec optimisme des retombées médicales rapides…

.. Nombre de firmes furent alors créées aux Etats-Unis : Avigen (fondée en 1992, en Californie), qui cibla ses efforts sur le traitement de l’hémophilie, Genzyme Transgenics (1993, Maryland) qui lança très vite des essais cliniques pour la mucoviscidose, Targeted Genetics Corporation (1989, Washington) sur le même sujet, ou encore Introgen Therapeutics (1993, Texas) qui concentra ses travaux sur le cancer. Ce ne sont là que quelques exemples : dès 1995, une cinquantaine de sociétés, aux Etats-Unis, avaient pour thème principal la thérapie génique…

… Au départ, les prévisions économiques, élément essentiel pour les financiers, étaient très optimistes. Une étude du cabinet américain Kalorama de 1995 évaluait le marché de la thérapie génique à 3 milliards de dollars pour l’année 2000 et à 60 pour 2005 ; en France, la revue l’Usine Nouvelle annonçait (en 1994) 50 milliard pour 2010…

.. A partir de 1995, la désillusion commença à s’installer, et la cote des sociétés du secteur auprès des financiers s’effondra. L’absence de résultats positifs était de plus en plus difficilement supportable…

… Le marché mondial de la thérapie génique pour 2005 était encore évalué, en 2002, à 2 milliards de dollars par le cabinet BioSeeker Group. Il reste en fait nul, tout au moins dans le monde occidental, puisque aucun produit de thérapie génique n’a reçu d’autorisation de mise sur le marché. La commercialisation, avec succès semble-t-il, d’une thérapie génique anticancéreuse en Chine montre que cette situation n’est sans doute que transitoire. »

p.57 « L’industrie a-t-elle totalement renoncé à la thérapie génique ? Il serait exagéré de l’affirmer. Certes, l’inconscient qui prétendrait aujourd’hui créer une start-up dans ce secteur n’aurait aucune chance de lever des capitaux, mais de nombreux programmes sont poursuivis au sein d’entreprises qui ont d’autres cordes à leur arc »

Bref, comme le dit l’auteur à la fin de l’article, on est très loin des espoirs un peu fous du début des années 1990.

 

p. 68 (article « Thérapie génique : la grande illusion ? », par Jacques Testart, directeur de recherche à l’Inserm, biologiste de la procréation) :

« Malgré la persistance des échecs, les tenants de la thérapie génique affirment que « ca va finir par marcher ». Ils ont su créer une telle attente sociale que la « mystique du gène » s’impose partout, jusque dans l’imaginaire de chacun. »

 

Donc, voilà. Ca ne marche pas. Et l’échec de la thérapie génique confirme à son tour l’idée que la génétique, telle qu’elle est conçue officiellement, est fausse.

Bien sur, le grand public ne sait pas que la thérapie génique est un échec. Eh oui, il faut bien continuer à le faire rêver. Et puis surtout, il faut qu’il continue à donner pour le Téléthon.

Enfin, il commence à en avoir plus ou moins conscience, mais pour maintenir l’enthousiasme pour le sujet, régulièrement, des « succès » sont annoncés. Des succès uniquement de laboratoire sur 2 ou 3 cobayes animaux, sans aucune expérience faite par d’autres labos. Et puis, à chaque fois, on n’en entend plus jamais parler après. Mais, on ne s’attarde pas là-dessus bien sur. Du coup, dans le flot d’informations qui déferle en permanence, ça passe. D’ailleurs, ils mettent l’accent sur l’idée qu’on est tout près de réussir. Tout ça maintient l’illusion que les choses bougent et qu’on va bientôt arriver à des résultats concrets.

On, pourrait en rester là, et se contenter de constater l’échec des thérapies géniques. Et en conclure qu’encore une fois la génétique ne donne rien de probant. Essayons d’aller plus loin et de voir s’il est possible de truander.

 

2) Possibilités de truandes

 

Ce qui doit rendre difficile la truande dans ce domaine là, c’est que contrairement aux animaux ou aux plantes, les humains parlent. Ils peuvent donc témoigner du fait qu’ils sont guéris ou pas. Forcément, ça limite les possibilités de bidonnage complet.

Alors, est-ce qu’il y a tout de même des possibilités de truande ?

A mon avis, oui. Il y a très probablement un certains nombre de maladies supposées génétiques qui sont en fait complètement bidons. Comme il n’y a aucune maladie en fait, il est facile de proposer un traitement génétique qui va « guérir » le malade.

Ce qui nous amène au seul demi-succès de la thérapie génétique. En fait, il est considéré comme un échec officiellement ; mais il y a des « guérisons ».

Le succès en question, c’est celui des enfants-bulle. Il s’agit d’enfants qui sont supposés ne pas avoir de système immunitaire, ou en tout cas un système immunitaire complètement déficient. Bien sur, c’est complètement faux. D’ailleurs, même du point de vue de la médecine officiel, c’est assez absurde, puisque si c’était le cas, vu qu’il est quasi impossible d’éviter la présence de microbes pathogènes, ils mourraient en une ou deux semaines d’une infection généralisée. Ils mourraient par exemple de la gangrène. C’est le même problème que pour la soi-disante immunodéficience du sida d’ailleurs.

Du coup, ils peuvent inventer sans problème un traitement qui les « guérira ». Ca marchera à tous les coups, puisque ces enfants n’ont rien en réalité.

D’où le fait que le traitement génétique en question a marché. Sur 10 enfants, 9 ont pu sortir de leur bulle et mener une vie normale. Il s’agit d’une expérience menée à l’hôpital Necker de Paris, en 1999, par l’équipe du professeur Alain Fisher.

Donc, en prenant d’autres maladies bidons de ce style, il serait possible que dans les prochaines années, la médecine officielle nous invente des succès pour la thérapie génique.

 

3) Qu’est-ce qui limite les possibilités de truandes ?

 

Bien sur, la question qui se pose est : si c’est possible, pourquoi ça n’a pas été fait plus souvent ? Eh bien ce qui se passe, c’est que, même dans les cas où la maladie n’est pas réelle, il y a des limitations.

Déjà, puisque la maladie n’est pas réelle, tout repose essentiellement sur des analyses sanguines et autres indicateurs biologiques de ce genre. Or, les divers instruments de détection utilisés par la médecine vont avoir tendance à conclure que la maladie est toujours là. La capacité de la médecine moderne à prendre le patient lambda dans ses filets se révèle trop efficace. Tout l’arsenal de détection des maladies de la médecine moderne se retourne contre elle. Et il n’y a même pas besoin que ce soit positif tout le temps. Ca peut devenir négatif après le traitement. Mais il suffit que ça soit positif à nouveau un ou deux ans après pour que la thérapie soit considérée comme un échec.

Et puis, souvent, les patients prennent un traitement. Seulement, comme on l’a vu dans d’autres articles, en général, si on arrête ce traitement d’un coup, ça va provoquer un effet en retour. Ce qui va être considéré souvent comme un retour de la maladie. Le cercle vicieux initié par la médecine se retourne contre elle dans ce cas particulier.

Le problème rencontré lors de la thérapie des enfants-bulle nous donne un troisième élément limitant. Après les trois premières années, 3 enfants parmi les 10 traités ont soi-disant développé une forme de leucémie. Ils ont été traités par le traitement habituel en cas de leucémie, à savoir une chimiothérapie à forte dose. Deux ont survécu, mais un est mort (tué par la chimio évidemment).

Le problème qui apparait, dans le cas en question, c’est que comme les patients restent suivis de très près par les médecins, la moindre petite affection va être scrutée dans tous les sens. Et comme les médecins en question vont être en mode paranoïa aiguë (parce qu’ils s’attendent à une complication causée par la thérapie génique, et ils craignent également une rechute dans la maladie initiale), ils vont très souvent interpréter l’affection comme étant quelque chose de grave. Donc, il y a un danger important que tôt ou tard, les médecins diagnostiquent une maladie grave, au vu des antécédents de la personne. Comme il y a des risques que ce soit attribué à la thérapie génique, celle-ci sera considérée comme un échec (ce qui est le cas ici). Non pas, selon eux, parce que la thérapie ne marche pas, mais parce qu’elle induit un trop grand risque de développer d’autres maladies graves. Le rapport bénéfice/risque sera considéré comme trop faible.

Ici, ce sont les diverses croyances de la médecine qui se retournent contre elle (le coté « à la tête du client » n’aide pas non plus). Et ça, ça plombe la possibilité d’utiliser les maladies bidons pour fournir un succès à la thérapie génique.

Concernant les enfants-bulle, le fait qu’il s’agisse d’enfants était particulièrement pénalisant. En effet, les enfants subissent nombre de maladies. Et dans le cas particulier des enfants-bulle, comme les parents devaient avoir peur que leur système immunitaire ne fonctionne pas encore assez bien, à la moindre affection, ils devaient leur donner des antibiotiques. Ce qui, comme on l’a vu dans un autre article, entraine des cycles de diminutions des symptômes suivi de leur reprise. Et ça, avec un médecin en mode paranoïa aiguë, ça entraine un risque important qu’il diagnostique une maladie grave (cf l’article sur la leucémie par exemple. D’ailleurs, comme par hasard, ici, c’est une leucémie qui a été diagnostiquée pour trois des dix enfants).

Et comme ce sont en général des enfants qui vont être les sujets de ces expériences (parce que les médecins pensent qu’ils résisteront mieux, qu’il faut traiter le problème le plus tôt possible avant que ça n’ai trop évolué, que les parents poussent à l’expérimentation, etc…), le problème risque d’être récurrent.

Pour ces trois premiers problèmes, les généticiens se heurtent aux autres branches de la médecine. Peut-être qu’il y a des gens puissant qui interviennent dans l’ombre et qui décident de ce qui se fait ou non. Peut-être pas. Mais même si c’était le cas, a priori, ils n’ont pas le pouvoir d’interdire à tel médecin de faire ça ou ça. Le médecin lambda n’est contrôlé que par la formation qu’il a reçue et la peur du gendarme que représente le conseil de l’ordre. En dehors de ça, il est à peu près indépendant. Donc, on ne peut pas lui dire de regarder ailleurs. Ce n’est pas comme un policier à qui sa hiérarchie peut dire de fermer le dossier ou de chercher dans une autre direction. Donc tout le système de croyance en place plombe cette nouvelle arnaque. Bien sur, on peut avoir un gros doute concernant l’indépendance des médecins faisant l’expérience. Mais les patients peuvent consulter les médecins qu’ils veulent. Et ceux-là ne sont pas dans la combine.

Autre problème, les chercheurs se sont attaqués parfois à des maladies a priori plus ou moins réelles parce que la théorie supposait que telle maladie était plus facile à traiter (exemple : l’hémophilie). Mais comme il s’agissait en général de maladies ayant au moins un fond de réalité, forcément, ça ne pouvait pas marcher. Là, ils sont limités par leur propre théorie génétique. Celle-ci les détourne en partie des fausses maladies. Cela dit, cette limitation n’est que partielle, puisque potentiellement rien n’interdit qu’ils traitent des maladies n’ayant aucune réalité. Ce qui a pu les pousser à faire ça, c’est aussi qu’ils ont du vouloir s’attaquer au début à des maladies ayant des symptômes clairs et nets, pour pouvoir présenter des résultats spectaculaires.

Devant l’échec des tentatives concernant certaines maladies rares, ils se sont recentré sur des maladies touchant plus de monde et susceptibles d’être plus rentables en cas de traitement qui aurait fonctionné. Du coup, ils se sont concentrés sur les cancers. Ca représente depuis 15 ou 20 ans une part très importante de la recherche sur les thérapies génique (dans les 65-70 %). Problème, les cancers sont trop encadrés par la médecine. Du coup, il y aura toujours de soi-disantes rechutes. Et comme le patient sera scruté dans tous les sens, comme pour le cas des enfants-bulle, il y aura de soi-disantes complications. Donc là aussi, c’est voué à l’échec. Dans le cas présent, ils sont limités par la façon dont se sont déroulés les évènements (les échecs initiaux), et aussi par la réalité économique qui s’impose aux entreprises du secteur (les échecs initiaux ont conduit à un désintérêt pour le secteur de la part des investisseurs et la pression économique pousse donc à se concentrer sur les secteurs les plus potentiellement rentables, mais moins facilement truandables).

Cela dit, les deux dernières limitations (logique interne, et problème historico-économique) sont bien moins importantes que les trois premières. Sans la limitation qui vient des arnaques déjà en place, il y a probablement bien longtemps que les médecins auraient présenté des traitements qui « marchent ».

Enfin, dans une optique plus conspirationniste, peut-être aussi que toutes les entreprises qui constituent big pharma n’ont pas trop envie de guérir ces maladies. Un patient qui prend un traitement à vie rapporte beaucoup plus qu’un patient qui est supposé guéri définitivement. Donc, cette raison pourrait les pousser à mettre la pédale douce sur les guérisons. Et comme une seule maladie guérie pourrait ouvrir la boite de pandore (puisqu’il n’y aurait alors pas de raison que d’autres maladies ne soient pas guéries elles aussi), peut-être que les entreprises en question mettent le véto à toute « réussite » de la thérapie génique.

L’arnaque des plantes transgéniques

 

Voyons maintenant le cas des plantes transgéniques.

 

1) Une réalité beaucoup moins glorieuse que prévue

 

Déjà, ce qu’on peut constater à propos des plantes transgéniques, c’est que la réalité est beaucoup moins glorieuse que ce qui était imaginé, voir annoncé.

Lorsqu’on a commencé à parler des manipulations génétiques, dans les années 70/80, on imaginait des centaines de nouveaux types de fruits ou de légumes, des textures et des gouts nouveaux. On imaginait des oranges grosses comme des melons, du blé poussant dans le désert, des trucs complètement incroyables ; un peu comme pour l’an 2000, où on imaginait les voitures volantes.

Au final, on a essentiellement des plantes qui sont sensées mieux résister aux herbicides, aux parasites, ou encore aux maladies. Enorme déception. La montagne a accouché d’une souris.

Donc, forcément, ça entretient le doute sur la réalité de la génétique. Si on la maîtrisait vraiment, on devrait pouvoir produire des plantes très bizarroïdes. Mais non. Et ce n’est certainement pas par scrupule concernant une éventuelle dissémination des gênes modifiés, vu qu’ils n’en ont absolument aucun avec les plantes soi-disant transgéniques actuelles. Donc, s’ils ne le font pas, c’est bien qu’ils ne peuvent pas le faire.

 

2) Mais surtout, soit les plantes transgéniques ne marchent pas, soit ça ne prouve rien, soit il y a de la truande dans l’air

 

Il y a principalement deux types de plantes transgéniques mises sur le marché actuellement :

– les plantes émettant un insecticide qui les rend donc résistantes à certains insectes

– les plantes résistantes à certains herbicides

Le maïs Bt par exemple, qui est résistant à certains insectes, contient un élément nommé Bt 176, consistant en un gène tiré d’une bactérie présente dans le sol, le bacillus thuringiensis (d’où Bt) qui est actuellement utilisé comme pesticide écologique partout dans le monde. Ce gène permet la production d’une toxine qui détruit diverses espèces de papillons et de chenilles.

Le soja Roundup ready (RR) contient des éléments de l’adn d’une bactérie leur permettant de dégrader l’herbicide Roundup et donc, de ne pas être affecté par celui-ci.

Selon le site http://www.monde-solidaire.org/spip.php?article3421

98% des surfaces cultivées en ogm et 90% de la recherche concernent des plantes résistantes à un herbicide et/ou sécrétant une toxine Bt insecticide.

 

A) Les plantes résistantes aux insectes

Là, c’est le cas le plus facile. Grosso modo, ça ne marche pas. Au début selon certaines études, il y aurait une protection. Mais c’est une protection qui ne semble pas causer la mort des insectes. Ils n’attaquent tout simplement pas. Ce qui n’a rien à voir avec la méthode d’action supposée (destruction des insectes par empoisonnement).

Voici quelques extraits d’articles permettant d’avoir un panorama de la situation.

– Cas de l’Espagne et du maïs résistant aux pyrales :

http://terresacree.org/espagne.htm

Une étude de l’IGTA (1), réalisée entre 1998 et 2000, montre que dans la plupart des cas, aucune différence n’a été notée entre les cultures transgéniques et conventionnelles, en cas d’attaque de pyrales. Cela signifie que les pyrales survivent aux toxines produites par les plantes transgéniques et que le risque de les voir développer des résistances est élevé. Cela peut non seulement constituer un problème économique pour les agriculteurs, mais également un problème écologique, car des pesticides plus efficaces et plus nocifs pour l’environnement seront à l’avenir indispensables pour combattre les insectes « résistants ».

… Des études indiquent que le rendement des OGM est substantiellement inférieur à celui des variétés conventionnelles comparables. Ainsi, en 1999, le maïs transgénique a produit 25% de moins que la variété ayant le meilleur rendement.

… L’Espagne se transforme en un grand champ d’expérimentation. Les OGM sont cultivés depuis cinq ans sans avoir apporté le moindre avantage économique par rapport aux variétés conventionnelles et sans qu’aucune mesure n’ait été adoptée pour éviter leurs impacts négatifs.

Donc, il n’y a aucune différence de résultat entre les cultures transgéniques et les conventionnelles en cas d’attaques de pyrales. Ce qui laisse à penser qu’en réalité, ce sont exactement les mêmes plantes. Le maïs soi-disant transgénique est en fait du simple maïs conventionnel ; mais vendu beaucoup plus cher.

– Autres infos ici, cette fois sur l’Inde et le coton Bt :

http://www.liberation.fr/terre/0109479346-l-inde-tente-d-enraciner-les-ogm-dans-sa-culture

Pour l’heure, la seule culture transgénique à avoir reçu le feu vert des autorités est non comestible : le coton. Développées par la multinationale américaine Monsanto, les trois variétés légalisées en 2002 dans le sud et le centre du pays sont censées être plus résistantes aux parasites.

Première culture alimentaire à réclamer une autorisation commerciale, la moutarde OGM développée par ProAgro (Aventis) a, elle, été rejetée. Motif : les experts gouvernementaux contestent les analyses de ProAgro, selon lesquelles la variété fournirait des rendements 20 à 25 % supérieurs. «C’est la preuve que le gouvernement ne fonce pas tête baissée, souligne le département de biotechnologie.

De plus, certaines études indiquent que l’introduction du coton transgénique semble avoir décuplé la résistance de certains insectes. Résultat : le «coton miracle», plus cher à l’achat, a finalement besoin de presque autant de pesticides qu’avant.

Du coup, certains s’interrogent sur l’efficacité réelle du coton transgénique. Et des OGM en général. «Le discours gouvernemental est un chapelet de fausses promesses, lance Vandana Shiva, militante de la biodiversité. Les applications des OGM ne portent que sur la résistance accrue des plantes contre les maladies et les insectes. Mais, pour ce qui touche aux valeurs nutritionnelles, aux meilleurs rendements ou à la résistance à la sécheresse, rien n’est pour l’instant prouvé. Tout cela n’est que pure spéculation.

 

– Sur infogm, résultats d’une étude « INDE – Coton Bt inefficace et surestimé » :

http://www.infogm.org/spip.php?article2352

Après les différentes plaintes d’agriculteurs et conflits avec Monsanto, une étude scientifique a donné raison aux premiers en révélant que le coton Bt perd son efficacité à lutter contre le ver du coton après 110 jours de culture (1). Cette étude a été effectuée par l’équipe du Pr. Kranthi de l’Institut Central de Recherches sur le Coton de Nagpur (CICR), sous l’autorité du Comité d’Evaluation du génie Génétique (GEAC). Les résultats montrent que la teneur en protéine transgénique insecticide Cry1Ac diminue lorsque la plante grandit. Cette teneur passe même sous le seuil d’efficacité après 110 jours de culture alors que certaines variétés ont des cycles jusqu’à 140 jours et au-delà. Par ailleurs, l’expression de la protéine est la plus faible dans l’ovaire de la plante ainsi que dans l’enveloppe des capsules vertes, deux cibles privilégiées du ver.

 

– Voici une autre étude disant que les insectes résistent aux plantes Bt :

http://www.monde-solidaire.org/spip.php?article2477

Une population du ver rose du coton ou « bollworm »  ou Helicoverpa armigera – le parasite agricole le plus important en Australie, aussi bien qu’en Chine, en Inde et en Afrique – a développé une résistance à la protéine Cry1Ac,  à 275 fois le niveau à laquelle elle aurait tué l’insecte non-résistant [6].

Environ 70 pour cent des larves résistantes ont été capables de survivre sur du coton Bt exprimant la protéine Cry1Ac (Ingard).

Des variétés de coton de Bt exprimant la protéine Cry1Ac (Ingard) ont été développées en Australie pour contrôler le ver rose du coton depuis 1996 et une nouvelle variété contenant les protéines Cry1Ac et CryAb a été commercialement disséminée vers la fin de l’année 2003.

Par ailleurs, je me souviens avoir vu un reportage sur Arte à propos des plantes transgéniques. A un moment, des paysans indiens témoignaient de leur expérience concernant une plante transgénique sensée limiter fortement l’usage de produits chimiques contre les parasites. L’un d’entre eux révélait qu’en fait, celle-ci avait été attaquée par le parasite et  qu’ils avaient perdu une grosse partie de leur récolte. Et les années suivantes, ils avaient du utiliser encore plus de pesticide qu’avant.

 

Ce qui ressort de tout ça, c’est que globalement, ces plantes ogm de type Bt sont une arnaque. En gros, ça ne marche pas. Elles ne sont pas vraiment résistantes aux parasites. Et il n’y a certainement pas de toxine Bt de produite par ces plantes. Donc, la méthode d’action de ces plantes n’est pas du tout celle qui est revendiquée par les entreprises qui les commercialisent. Et  ce qui est présenté comme un succès de la génétique ne l’est absolument pas.

Cela dit, on peut éventuellement nuancer légèrement ce propos au travers des détails donnés dans ces extraits de documents.

Selon certaines études (voir ici et ici), certaines plantes Bt seraient beaucoup plus ligneuses au niveau de la tige (et apparemment des feuilles pour certaines variétés). Ca concerne le maïs Bt et apparemment aussi le coton. Par ailleurs, comme on l’a vu plus haut, dans le cas du coton, la plante serait résistante pendant les 110 premiers jours. Alors, bien sur, il peut s’agir encore d’une étude bidon et la plante est peut-être non résistante dès le début ; mais acceptons ça comme hypothèse de travail.

Le fait que la tige et les feuilles soient plus ligneuses pourrait expliquer que les insectes s’y attaquent moins au début. Ca pourrait rendre ces parties de la plante moins digestibles pour les insectes (si tant est qu’ils s’attaquent en temps ordinaire à la tige et aux feuilles durant les 110 premiers jours bien sur). Ca expliquerait que tant que les graines, l’ovaire, les capsules, ne sont pas développés, les parasites attaquent moins la plante que d’habitude. Une fois ces éléments développés, comme ces parties de la plante sont probablement beaucoup moins ligneuses, les insectes les attaqueraient alors. Donc, la période de protection (de 110 jours dans le cas du coton Bt) ne viendrait pas d’un déclin progressif de la production de la soi-disante toxine Bt dans la plante. Ce viendrait simplement du fait que durant ce temps là, les parties attaquables (parce que beaucoup moins ligneuses) ne seraient pas encore présentes.

Du coup, les insectes les attaqueraient un peu moins au début. Mais, cette impression de protection volerait en éclat dès que la plante arriverait à son plein développement. Au final, l’inefficacité est quand même totale, puisque ce qui intéresse les agriculteurs, c’est la fleur, ou les graines de la plante, pas sa tige.

Donc, éventuellement, les agriculteurs auraient besoin effectivement d’un peu moins de pesticides au début. Mais à partir du milieu de la phase de développement de la plante, ils en auraient besoin d’autant qu’avant.

Evidemment, si les insectes ne s’attaquent qu’à ces parties des plantes et pas aux tiges ou aux feuilles, l’arnaque serait encore plus simple. La période de protection face aux insectes serait simplement la période avant que n’apparaissent les parties de la plante dont ils se nourrissent. Donc, évidemment, ce ne serait pas un bien grand miracle que les parasites ne s’attaquent pas à la plante avant ça.

Et vu qu’a priori, il doit être assez facile d’obtenir des plantes assez ligneuses, on peut penser qu’ils ont développé ces plantes par croisements successifs. Autant, le fait d’avoir un pouvoir insecticide aurait signifié qu’il y avait très probablement manipulation génétique, autant là, ce n’est pas le cas. Donc, il est possible que ce soit effectivement une plante différente de la plante classique, mais obtenue simplement par croisements et pas par génie génétique.

Une chose qui va dans le sens de cette interprétation, c’est qu’au travers des comptes-rendus critiquant l’efficacité de ces plantes Bt, on s’aperçoit que les insectes ne meurent pas (voir le premier texte cité). Ils ne sont pas tués par la plante. Ca montre bien que la résistance temporaire (s’il y en a vraiment une), n’est pas obtenue par l’action d’une toxine, mais parce que les insectes ne trouvent pas la plante à leur gout.

D’ailleurs, ce coté fibreux pourrait expliquer, dans le cas du coton Bt, des rendements inférieurs et une qualité de moindre. Ce qui implique que le très léger gain financier éventuel (et apparemment temporaire) lié à la diminution des attaques d’insectes est détruit par la baisse des rendements. Donc, c’est complètement foireux.

Cela dit, cette histoire de résistance durant les 3 premiers mois de vie de la plante est peut-être complètement bidon. Pour le maïs Bt d’ailleurs, on ne parle pas de période de protection. Dans ce cas, il n’y a apparemment aucune protection d’aucune sorte. C’est donc clairement du simple maïs classique vendu comme du maïs ogm.

Bien sur, concernant l’inefficacité de la toxine, l’explication officielle est que les insectes sont devenus résistants au cours du temps à ces plantes ogm. La mienne, c’est que ces plantes ne sont pas ogm, n’émettent pas de toxine Bt, et n’ont donc jamais été résistantes aux insectes (enfin de la façon officielle). La plante n’étant pas résistante aux insectes, ceux-ci n’ont pas eu à devenir résistants à la plante. Il n’y a jamais eu toxine contre laquelle devenir résistant. Les insectes ont continué à attaquer la plante parce que celle-ci n’est pas du tout ogm. C’est une simple plante classique, qui se fait donc attaquer comme avant par ses insectes prédateurs.

De toute façon, une résistance ne s’acquerrait certainement pas aussi vite. Là, on parle d’une résistance qui aurait été obtenue en moins de 5 ans. Les pesticides de type Bt n’auraient engendré aucune résistance pendant des dizaines d’années, et là, tout d’un coup, en moins de 5 ans, paf, la résistance serait là. Un peu trop rapide pour être vrai. L’explication selon laquelle les plantes n’ont jamais été résistantes est plus logique.

En tout cas, au final, ce qu’on constate, c’est que, par rapport à l’objectif affiché (préservation contre les ravageurs par empoisonnement de ceux-ci), les plantes ogm insecticides ne marchent pas. C’est tout simplement une arnaque. Et du coup, les agriculteurs sont obligés de traiter les cultures avec autant d’insecticide qu’avant.

 

B) Le cas des plantes résistantes aux herbicides

 

Ces plantes sont conçues pour résister principalement aux herbicides de type glyphosate, des herbicides non spécifiques ou  autrement appelés herbicides totaux ; c’est-à-dire des herbicides qui éliminent toutes les plantes. Ils agissent par contact, ce qui nécessite que les plantes soient déjà sorties de terre.

Les plantes dites Roundup-ready résistent au glyphosate soi-disant parce qu’on a introduit en elles le gène d’une bactérie qui est capable de dégrader cet herbicide.

Le problème ici, n’est donc pas tellement d’augmenter les rendements (ils ne sont pas meilleurs et les compagnies vendant ces produits ne revendiquent pas ce genre d’objectif), mais de pouvoir utiliser ce type d’herbicide n’importe quand. Ce qui offre plus de flexibilité. Par ailleurs, ça permet d’utiliser beaucoup moins d’herbicides spécifiques (puisqu’on peut utiliser le glyphosate à la place), ce qui a priori entraine une diminution des couts en herbicides, puisqu’on n’a pas à épandre 4 ou 5 autres produits (et à chaque fois, avec la même quantité à l’hectare qu’un herbicide total). Cela dit, ça dépend bien sur du prix du glyphosate utilisé en remplacement.

La difficulté, par rapport à l’objectif de l’article, c’est que si ces plantes sont bidons, si ce sont des plantes tout ce qu’il y a de plus classiques, alors, les herbicides de type glyphosate devraient les détruire. Si ce n’est pas le cas, c’est bien que ces plantes sont résistantes.

Et effectivement, il semble bien qu’elles soient résistantes. Apparemment, le glyphosate est utilisé en général deux fois. Une première fois avant le plantage des graines, et une deuxième peu après que les plantes soient sorties de terre. Donc, puisque, lors du deuxième épandage, les plantes ont déjà commencé à pousser, et qu’il ne les détruit pas, a priori c’est qu’elles sont résistantes.

Seulement, il y a une possibilité de truande là aussi. Le glyphosate en question peut ne pas tuer les plantes parce qu’il est sous dosé.

Mais dans ce cas, il ne devrait pas arriver à tuer les autres plantes non plus.

Et justement, c’est apparemment bien ce qui semble se passer. Peu de temps après l’introduction des plantes Roundup ready, on a commencé à parler de résistance de la part des mauvaises herbes. Ceci, alors que depuis environ 25 ans que le glyphosate était utilisé (introduit en 1975) aucune résistance ne s’était manifestée.

Mais ça implique que, afin de leur fournir de l’herbicide sous-dosé en conséquence, la compagnie sait que les agriculteurs utilisent des plantes résistantes.

Ben justement, c’est le cas. Monsanto, la société à la base des plantes Roundup ready, fournit en même temps les graines ogm et le Roundup aux paysans. C’est même une obligation du contrat. Si Monsanto vend du soja Roundup ready, le paysan est obligé d’acheter le Roundup avec.

Donc, Monsanto n’a aucune difficulté à adapter le dosage, puisqu’il sait que l’agriculteur va utiliser des plantes supposées résistantes au Roundup. Il peut même faire quasiment du sur-mesure, puisqu’il sait qu’elle quantité de graines a pris l’acheteur. Il peut donc adapter la concentration du Roundup vendu en conséquence.

Voir par exemple ce document :

http://www.google.fr/url?sa=t&source=web&ct=res&cd=8&ved=0CBsQFjAH&url=http%3A%2F%2Fpagesperso-orange.fr%2Fanaram%2FCerealiercontreOGM.pdf&rct=j&q=surcout+soja+roundup+ready&ei=qESHS92QGoui0gTOi8zFCw&usg=AFQjCNFGXuAAECCaUs2gm1nR33A4hfpuRw

Il faut savoir que les OGM ne sont pas soumis comme les variétés conventionnelles au Certificat  d’Obtention  Végétale,  mais  au  brevet.  On  n’achète  pas  une  semence  mais  on utilise une technologie. Ce qui veut dire que toute production doit être contractuelle avec le possesseur  des  droits  et  que  toute  reproduction  peut  être  assimilée  à  une  contrefaçon industrielle.  Les  obtenteurs  ont  de  facto  tous  les  droits  sur  les  producteurs.  En  voici  deux exemples :

-En Argentine, les producteurs de soja Round Up Ready se voient remettre une carte à puce sur laquelle sont enregistrés les achats de semences et de Round Up  ainsi que les quantités récoltées. Il faut qu’il y ait cohérence entre les chiffres sinon il y a suspicion d’utilisation  de  semences  fermières  ou  bien  de  glyphosate  générique.  Dans  ce  cas  de lourdes amendes sont prévues dans le contrat.

-Au  Canada,  les  producteurs  de  Canola  O.G.M.(colza  de  printemps)  signent  un contrat drastique avec Monsanto : Ils doivent eux aussi employer, bien entendu, du Round Up,  et  de  plus  laisser  libre  accès  à  leurs  parcelles,  silos  et  magasins  aux  agents  de Monsanto,  qui  peuvent  s’assurer  ainsi  de  l’utilisation  de  semences  certifiées  et  du désherbant de la marque ainsi que de la destination des récoltes.

 

On en revient alors au fait que c’est depuis que les plantes résistantes au glyphosate ont été introduites que sont apparues des résistances de la part des mauvaises herbes. Ce qui rend tout a fait possible l’hypothèse que le glyphosate vendu est en réalité sous-dosé. Ceci afin que n’apparaisse pas la supercherie concernant ces ogm.

L’augmentation de la consommation des herbicides spécifiques (qui tuent certaines herbes indésirables, mais pas la plante cultivée) va dans le sens des informations sur l’apparition des résistances. S’il n’y avait pas de résistance et que le Roundup était toujours aussi efficace, on assisterait plutôt à un effondrement de la consommation de ces herbicides, devenus alors inutiles. Par ailleurs, l’utilisation de ces herbicides spécifiques permet de masquer l’inefficacité de ce Roundup modifié. Sinon, la catastrophe serait bien plus importante.

Concernant la résistance des mauvaises herbes, voici quelques sources :

http://fr.wikipedia.org/wiki/Glyphosate

La culture majoritaire de soja OGM résistant au glyphosate en Argentine  a entraîné une utilisation massive de ce désherbant. Des résistances sont apparues, amenant à l’utilisation de doses de plus en plus importantes. La dévégétalisation des sols, associée au labour, est cause de perte d’humus, d’une dévitalisation et d’une dé-fertilisation des sols.

http://www.liberterre.fr/agriculture/pesticides/index.html

– La résistance des adventices. Les espèces suivantes sont devenues résistantes au glyphosate : Commelia erecta / Convulvulus arvensis / Ipomoea purpurea / Iresine difusa / Hybanthus parviflorus / Parietaria debilis / Viola arvensis / Violeta Silvestre / Petunia axillaris / Verbena litoralis.

http://www.infogm.org/spip.php?article3540

Concernant l’Argentine

Selon Daniel Ploper du Service d’Inspection de santé animale et de l’alimentation, l’apparition de mauvaises herbes tolérantes au glyphosate a été observée dans six provinces du pays. Le gouvernement a donc demandé à ce que soit mis en place des plans de contrôle de ces herbes, comme l’utilisation d’herbicides autres que ceux à base de glyphosate [1]. Difficile, dans un pays où le soja transgénique tolérant au glyphosate est massivement cultivé. D’après le député de la province de Cordoba, 25 millions de litres d’autres herbicides seront nécessaires pour se débarrasser de ces mauvaises herbes.

– Voici une info sur la variation de la quantité des autres herbicides utilisés depuis l’apparition du soja Roundup ready.

http://www.liberterre.fr/agriculture/pesticides/index.html

* Pour le soja Roundup Ready en non-labour, on assiste à une augmentation sans cesse croissante des insecticides (les pertes de récoltes suite aux attaques d’insectes se font de plus en plus graves), des fongicides ( de plus en plus de problèmes de champignons et autres maladies se manifestent) et autres herbicides tels que le 2,4 D et le 2,4 DB. Durant la campagne 2003/2004, ce sont 4200 tonnes d’herbicides autres que le glyphosate qui ont été utilisés. De 2001 à 2004, l’utilisation de 2,4 D a augmenté de 10 %, d’Imazethapyr de 50 % et de Dicamba de 157 %!

– Les plantes Roundup ready nécessitent plus d’herbicides :

Monsanto « between misleading and dishonest »

4 May 2001

Amsterdam/London: One of the fundamental claims of the Genetic Engineering (GE) industry that their soya crops need less herbicides than conventional varieties has been seriously challenged by a new independent report, according to Greenpeace today. Previously unreleased data from the US Department of Agriculture (USDA) prove that on average 11.4% more herbicides are used on Monsanto’s Roundup Ready (RR) soya, than on conventional soya. In many cases the increase was up to 30%. (1)

 

Monsanto, et les autres sociétés lui ayant emboité le pas, fait donc un double bénéfice. Elle vend des graines tout ce qu’il y a de plus classiques plus chères, et elle assure un débouché à son Roundup.

A ce sujet, il faut savoir que le brevet de Monsanto pour le Roundup finissait vers l’an 2000 (il a été inventé vers 1974). Les parts de marché de Monsanto menaçaient de s’effondrer à partir de ce moment-là. Or, c’est vers 1996 qu’à été introduit le soja Roundup ready par Monsanto, juste quelques années avant l’expiration du brevet. Donc, cette opération lui a permis, non seulement de conserver ses revenus, mais même de les augmenter.

L’arnaque est encore meilleure en fait. Parce que comme la dose de Roundup est insuffisante, les paysans sont obligés d’en mettre plus. Du coup, d’année en année, la consommation augmente, et les bénéfices de Monsanto aussi.

Evidemment, tout ça risque de n’avoir qu’un temps. Les agriculteurs semblent revenir des plantes Roundup ready. Mais, ça aura fait augmenter les bénéfices pendant 10 ou 20 ans.

 

– Autres hypothèses et réflexions concernant les plantes Roundup ready :

Ce qui est possible, aussi, c’est qu’en fait, Monsanto ait modifié, ou ait la possibilité de modifier la composition du glyphosate et ait la possibilité de le remplacer totalement par des produits spécifiques, ou alors de garder le glyphosate sous dosé et y ajouter des herbicides spécifiques. Ca permettrait de supprimer le problème des mauvaises herbes résistantes et donc, de transformer une opération qui se révèle de plus en plus être un échec en succès. Ou, au moins, ça pourrait permettre de limiter l’échec en question, et d’éviter donc que ça se transforme en désastre.

Je pensais que je n’arriverais pas à trouver quoique ce soit sur la chose. Mais voilà un élément allant dans ce sens :

http://www.lesmotsontunsens.com/ogm-faucheurs-au-secours-agriculteurs-americains-mauvaises-herbes-4229

Monsanto au courant dès 2001

Selon la Soil Association, une association anti-OGM britannique, Monsanto connaissait la menace des « superweeds » dès 2001, puisque la firme avait fait breveter la technique de mélanger de l’herbicide Roundup avec d’autres pesticides qui ciblent des plantes résistantes au Roundup. « Ce brevet va permettre à l’entreprise de profiter d’un problème que ses produits ont créé à l’origine » affirme un rapport de la Soil Association publié en 2002.

 

Par ailleurs, si les plantes en question étaient vraiment résistantes au Roundup, ça ne voudrait pas dire que c’est obtenu par génie génétique. Dans la mesure où des plantes sauvages ont pu devenir résistantes au bout de quelques années sans manipulation génétique, pourquoi les plantes de cultures ne pourraient pas le devenir par simple sélection ? Il n’y a aucune raison. Donc, la résistance, même si elle était vraie, ne serait en aucun cas une preuve de manipulation génétique.

Mais, ce qui rend sceptique vis-à-vis d’une réussite de la chose (que ce soit par manipulation génétique ou simple sélection), c’est que le glyphosate a l’air d’être un herbicide super puissant. C’est le truc qui semble capable de tout détruire sans distinction. Il n’y a apparemment aucune plante qui lui résiste. Donc, on voit mal comment, tout d’un coup, une plante pourrait devenir résistante.

Et puis, on voit mal comment ils auraient pu reproduire le fonctionnement de l’enzyme de la bactérie si facilement.

Mais évidemment, si ces plantes avaient été obtenues par simple sélection, ça n’aurait pas pu être breveté (les brevets sur les plantes et animaux obtenus de façon traditionnelle est interdit, voir ici). Donc, pour pouvoir avoir l’exclusivité, il fallait qu’on dise que ça a été obtenu par génie génétique. Faire croire que ces plantes ont été obtenues de cette façon était donc d’une importance cruciale.

Par ailleurs, on apprend dans l’article mis en lien dans le paragraphe précédent, que l’Office Européen des Brevets cherche de plus en plus à étendre le champ d’application des brevets aux plantes obtenues de façon traditionnelle. Même chose aux USA (mais le processus est apparemment plus avancé là bas). Donc, on peut penser à la stratégie suivante. Les ogm, vu leur nature technologique particulière, permettaient d’avoir une bonne raison d’introduire les brevets dans la culture du vivant (végétal ou animal). Mais, les brevets accordés aux ogm n’auraient été que la première étape. Le but aurait été en fait dès le départ d’étendre les brevets à toutes les manipulations permettant d’obtenir des plantes ou des animaux plus ou moins nouveaux ; donc des manipulations de type croisement ou sélection. Ainsi, les exploitants agricoles n’auraient plus aucun pouvoir sur la reproduction de leurs cultures ou de leur cheptel. Tout appartiendrait à quelques grands groupes de biotechnologie et d’agro-alimentaire. Donc, pour arriver à cet objectif de contrôle général, il est capital de faire croire aux gens que les manipulations génétiques sont une réalité.

On remarquera que ce sont les tests génétiques qui permettent de dire si une plante est transgénique ou pas. Et concernant l’extension aux plantes ou animaux modifiés de façon classique, c’est là encore les tests génétiques qui permettront de dire si la plante ou l’animal est modifié ou non. Donc, la croyance en la validité des tests génétiques est là aussi tout à fait cruciale. Il est donc certain que les gens qui sont derrière ce plan défendront la validité des tests génétiques à tout prix.

Au passage, le fait de diminuer les concentrations en produits actifs pourrait être utilisé pour d’autres herbicides et insecticides. Comme les agriculteurs ne peuvent pas savoir ce qu’il en est, la porte est totalement ouverte à ce genre de manipulations. Et l’explication au fait que, soudainement, les mauvaises herbes ne meurent plus, est toute trouvée : ce sont les plantes qui finissent pas devenir résistantes. Comme on nous ressort cette idée depuis plus de 20 ans, ça passerait comme une lettre à la Poste. Du coup, les agriculteurs seraient obligés de mettre plus de produit, et donc, de payer plus.

 

3) Pourquoi les agriculteurs utilisent-ils encore ces plantes ogm ?

 

– Ca semble marcher

En ce qui concerne les plantes résistantes aux herbicides, il y a déjà une raison toute bête : ça semble marcher. On pulvérise du Roundup dessus, et ces plantes ogm ne meurent pas. Alors, bien sur, c’est que le Roundup en question est sous dosé. Sinon, ça ne marcherait pas. Mais ça, les agriculteurs ne le savent pas.

Lorsque, à la première année d’utilisation, les plantes ogm en question ne meurent pas après pulvérisation de Roundup, pour l’agriculteur qui découvre le produit, c’est que la plante est bien Roundup ready.

Alors, ensuite, les mauvaises herbes ne meurent pas, ce qui devrait les faire réfléchir. Mais vu qu’ils ne soupçonnent pas la truande, ils ne font pas le lien. Comme ils n’imaginent pas une telle arnaque, la seule explication qu’ils pourront envisager, c’est que les mauvaises herbes sont devenues résistantes au Roundup. Ils ne font d’ailleurs que reprendre ce que disent les scientifiques et les journalistes ; et même les anti-ogm.

En fait, la résistance des mauvaises herbes les pousse à se féliciter d’utiliser des plantes ogm et donc, à continuer à le faire.  En effet, ils se disent alors qu’ils ont de la chance d’avoir les ogm, parce que ça leur permet de pouvoir traiter les mauvaises herbes résistantes n’importe quand et d’utiliser plus de pesticides. Sans l’utilisation des plantes RR, ils ne pourraient traiter ces plantes que lors de la période avant l’apparition des premières pousses.

Et ceux qui n’utilisent pas encore les plantes Roundup ready, vont avoir tendance à se faire le même type de raisonnement, et du coup, à passer aux plantes RR, pour pouvoir lutter contre les mauvaises herbes résistantes.

C’est même potentiellement un argument de vente de la part des compagnies style Monsanto. Elles peuvent tout à fait mettre en avant le fait que puisqu’il y a des résistances de la part des mauvaises herbes, il est plus prudent de passer au soja RR.

Donc, loin de dégouter les agriculteurs des ogm, la résistance des mauvaises herbes fait augmenter l’utilisation de celles-ci.

Pour que les gens voient le truc, il faudrait qu’ils imaginent qu’il y ait une arnaque. Si ce n’est pas le cas, ils n’ont aucune raison de soupçonner que la plante ogm n’est pas résistante en réalité, et que la composition du Roundup a été modifiée en conséquence.

Pour les plantes de type Bt, c’est-à-dire, soi-disant résistantes aux insectes, le fait que ça ne marche pas est beaucoup plus évident. Mais ce qui se passe, c’est que rapidement, les sociétés fournissant les semences en ont vendu des mixtes : c’est-à-dire des semences contenant à la fois la résistance aux insectes et aux herbicides. Donc, pour beaucoup d’entre elles, les exploitants n’ont plus le choix. Ils se retrouvent automatiquement avec les deux types d’ogm. Du coup, ça explique que le pourcentage des plantes ogm de type Bt ne diminue pas trop.

 

– La peur de subir un procès

Par ailleurs, Monsanto et les compagnies du même genre sont apparemment très vigilants sur le fait que les agriculteurs utilisent leurs semences de façon illégale. C’est particulièrement vrai aux USA.

Il est possible que la publicité faite autour de certaines affaires de contamination des champs normaux par des gênes ogm et autour de certains procès gagnés par Monsanto ait été intentionnelle et ait eu pour but de faire peur aux agriculteurs utilisant des semences classiques. Ce que voient les agriculteurs, au travers des ces affaires, c’est que se faire contaminer son champ est très facile si on a des champs ogm près des chez soi, et que ça entraine un gros risque de subir un procès de la part de Monsanto et donc, de finir ruiné.

Et ce d’autant plus qu’il semble que les semences sont analysées lors de la vente, officiellement afin de permettre la séparation entre les récoltes ogm et non ogm. Donc, d’une part il devient difficile d’échapper aux contrôles, et d’autre part on présente le risque de se faire contaminer comme élevé. Forcément, dans l’esprit de l’exploitant agricole lambda, apparait l’idée qu’il y a un gros risque de se prendre un procès à tort.

Et plus il y a de gens utilisant ces ogm, et plus le risque de contamination est supposé élevé, et plus le risque de se faire prendre un procès par Monsanto augmente. Autrement dit, plus il y a de gens utilisant ces ogm, et plus les autres y viennent par peur de se faire prendre un procès.

Donc, on peut penser que par précaution, les agriculteurs n’utilisant pas d’ogm au départ finissent par le faire. C’est la peur qui dans ce cas les pousserait à les utiliser au lieu du pur intérêt économique.

Il y a en particulier l’affaire célèbre de Percy Schmeiser, un agriculteur canadien. En 1997, celui-ci pulvérise du Roundup sur la bordure de son champ afin d’éliminer les mauvaises herbes et les repousses de colza. Deux semaines plus tard, il remarque que ces plants de colza ont survécu et résistent à l’herbicide. Il imagine que son champ a été contaminé par les champs voisins qui utilisent du colza transgénique. En 1998, Monsanto l’attaque pour utilisation de son colza ogm sans paiement de la licence.

On peut penser que cette affaire a été particulièrement publicisée pour envoyer un signal fort aux agriculteurs. Un signal disant « attention, si on découvre que vos cultures ont des traces d’ogm, voilà ce qui vous attend ». Selon certaines interviews de Schmeiser, Monsanto n’a d’ailleurs pas l’air de s’en cacher. On notera aussi la date de 1998, c’est à dire très tôt dans l’histoire de la commercialisation des plantes ogm. Il fallait que ça sorte tôt pour que la terreur de se faire prendre avec des traces d’ogm soit installée immédiatement. Alors, est-ce que Percy Schmeiser faisait parti du coup, ou est-ce une victime ? On peut se poser la question.

 

– Cultures en semis direct

Ce qu’il y a aussi, c’est que, particulièrement en Amérique du Sud, mais aussi dans certains endroits des USA, et probablement dans d’autres parties du monde, les agriculteurs utilisent un type de culture dite culture en semis directs. C’est-à-dire une culture sans labour. C’est pratiqué quand l’humus est de faible épaisseur et donc, que le sol est fragile. Utiliser le labour dans ces conditions risquerait de favoriser l’érosion des sols.

Le problème, c’est que du coup, les mauvaises herbes prolifèrent plus facilement. Le labour en retournant le sol, limite la prolifération des mauvaises herbes, dont les graines ou les pousses sont alors enfoncées profondément. Sans cette action, elles restent en place.

Donc, puisqu’on n’a pas cette arme du désherbage mécanique, en semis direct, on utilise des désherbants chimiques puissants pour lutter contre les mauvaises herbes. On fait ça en général avant la période d’épandage des graines. On utilise pour ce faire des désherbants totaux (qui vont détruire toutes les plantes sans distinction), en général, du glyphosate. Avec cette méthode, le terrain est quasiment stérilisé.

Voir pour ça l’article de Wikipédia sur le semis direct :

La lutte contre les adventices (dont buissons, et jeunes arbres dans les cultures proches de forêts), qui justifie souvent l’usage d’un désherbant total (glyphosate en général).

Donc, quasiment tous les exploitants agricoles pratiquant le semis direct utiliseront de toute façon le glyphosate pour leur culture.

A partir de là, il doit être beaucoup plus facile de les convaincre d’utiliser des plantes RR. Alors que si le labour était utilisé, on peut penser que l’usage d’un désherbant total étant moins fréquent, et en plus, moins nécessaire, les agriculteurs seraient beaucoup moins perméables au discours des semenciers.

En effet, l’argument selon lequel ils pourront aussi répandre du Roundup après le semis est séduisant pour eux.

Et comme de toute façon, ils utilisent du Roundup, la perspective d’en utiliser une ou deux fois de plus ne va pas les gêner, si ça peut leur éviter des pertes de rendements à cause des mauvaises herbes et des économies sur les autres herbicides.

En fait, tout dépend du prix des semences. Si le surcout par rapport aux semences classiques n’est pas trop élevé, les exploitants peuvent se laisser convaincre de les acheter. Apparemment, dans le cas du maïs (ici, p.2), les semences classiques couteraient dans les 130 euros par dose, tandis que le maïs ogm couterait dans les 155/160 euros par dose (25 à 30 euros de plus). Ca ferait donc dans les 19 à 23 % de surcout. Vu qu’il y a d’autres couts, au final, si ça fait 4 ou 5 % de cout global en plus, l’argument de la souplesse d’utilisation des herbicides, plus un éventuel léger gain de rendement (même si ce n’est pas ce qui est tellement mis en avant, parce qu’il doit être assez minime par rapport à la situation antérieure) peut éventuellement convaincre les agriculteurs.

 

– Le problème des monocultures

Un problème qui est mis en avant, particulièrement dans le cas des cultures en semis directs, c’est que le fait de cultiver la même plante sur plusieurs années de suite favorise l’envahissement par certaines mauvaises herbes (envahissement spécifique à cette culture). Le fait de varier les cultures d’une année sur l’autre permet de casser cette dynamique.

Dans le cas des cultures de soja en Amérique du sud, le fait de ne cultiver que ça années après années est invoqué pour expliquer une partie de l’envahissement des champs par les herbes indésirables.

Bien sur, ça joue réellement. Mais cette explication permet aussi de masquer la baisse d’efficacité du Roundup et donc, l’arnaque au soja RR.

 

– Phénomène récent et début de retournement de situation

Par ailleurs, tout ça n’est pas si vieux. Ca fait à peine 10 ans que les cultures ogm ont commencé à être utilisées sur une large échelle. Donc, il faut le temps que les gens commencent à comprendre. Surtout qu’alors que certains agriculteurs abandonnent les ogm, d’autres, dans d’autres pays, y viennent.

Cela dit, il semble que les agriculteurs commencent à en revenir. Certains semblent abandonner les cultures ogm. Donc, il faut voir ce qui va se passer dans les 10 prochaines années.

 

Conclusion :

Au final, là encore, on n’a aucune preuve que la génétique telle qu’elle est conçue actuellement fonctionne et n’est donc pas une invention purement imaginaire.

Et si j’ai raison, les plantes ogm sont une gigantesque arnaque. Arnaque qui est destinée probablement à aller plus loin en permettant un contrôle de plus en plus grand des semences et des animaux d’élevage.

Bien sur, tout ça signifie que de l’autre coté (anti-ogm), les craintes d’empoisonnements dus aux plantes transgéniques n’existent pas en réalité. Vu qu’au mieux, il ne s’agit que de plantes modifiées par sélection, sans aucun pouvoir insecticide ou de résistances aux herbicides, il n’y a aucun risque pour la santé.

Quand aux contaminations, dans le cas de plantes dont la reproduction se fait au gré du vent, ou par le biais d’insectes pollinisateurs, c’est une possibilité, mais on peut supposer que cette menace n’est pas supérieure à celle qu’il y a pour deux variétés d’une même plante classique. Elle est donc fortement exagérée afin de terroriser les agriculteurs et les obliger à passer aux plantes ogm pour ne plus avoir cette épée de Damoclès au dessus de la tête.