Histoire de l’invention des virus

Pour entrer directement dans le vif du sujet, les virus sont des inventions pures et simples qui ont été créés à l’époque de l’hystérie pastorienne sur les germes pathogènes. Ce n’est qu’une séquelle, une conséquence du délire de ces années là.

A l’époque, presque toutes les maladies étaient considérées comme étant dues à des germes pathogènes. Problème, il y avait des maladies pour lesquelles ont ne trouvait aucune bactérie pouvant être considérée responsable. Alors, comme il fallait obligatoirement que les maladies en question soient dues à des germes pathogène, on en a inventé de nouveaux. Et comme on ne pouvait pas les voir, on a incriminé les instruments de l’époque, et la taille des germes en question. On a dit qu’il y avait bien des germes, mais que ceux-ci étaient trop petits pour être détectés avec les instruments de l’époque. Les virus venaient d’être inventés.

Bien sur, certains découvreurs n’ont pas eu de scrupule à utiliser quelques animaux pour valider leurs théorie et ainsi, récolter la gloire d’être les découvreurs de nouveaux germes pathogènes (avec la manne financière qui allait avec cette gloire, sous forme de récompense de l’état, de chaires d’enseignements en faculté, etc…). Il suffisait de tuer ceux qui devaient correspondre à la théorie. Les animaux ne parlent pas.

C’est ainsi qu’on a pu réaliser les premiers soi-disants isolements rudimentaires de virus. On filtrait le sang ou le liquide contenant le supposé virus. Et quand les animaux utilisés ne tombaient plus malade, voir, ne mourraient plus, on « savait » qu’il n’y avait plus d’agent pathogène dans le filtrat. Donc, on arrivait grosso modo à établir la taille des agents pathogènes en question. Tout reposait sur le truandage des expériences d’inoculation de virus pathogènes aux animaux.

Donc, quand sont arrivées les méthodes moderne de détection des virus, la messe était déjà dite. La croyance en l’existence des virus était déjà totale dans le milieu scientifique. On ne pouvait plus faire marche arrière. Il fallait trouver des virus au microscope électronique. Sinon, la biologie et la médecine perdaient totalement la face.

Donc, tout était joué d’avance quand sont arrivés les microscopes électroniques dans les années 40, puis, les méthodes de culture in vitro dans les années 60, et enfin, les méthode d’identification des protéines et de l’ADN dans les années 70.

Heureusement pour eux, sur leur chemin, il y avait des particules qui étaient en fait les déchets de fonctionnement des cellules. Ces particules avaient la taille des particules virales. Et comme elles étaient émises par les cellules, il était possible de faire croire que lorsqu’elles sortaient des cellules, il s’agissait de réplication. De même, comme la cellule se nourrit, il était possible de faire croire que les particules absorbées par les cellules pour se nourrir étaient des virus en train d’infecter les cellules. Un peu comme quelqu’un qu’on observerait de loin pendant une semaine, et qui mangerait une fois une banane en plus d’autres plats. Les déjections ressemblant un peu à une banane, de loin on pourrait penser que la banane est un virus qui se multiplie dans le corps. Donc, chance pour eux, les virologues avaient sous la main un type de particule qui pouvait tout à fait passer pour un virus.

L’évolution technique progressive a été surtout une chance pour la virologie, même si elle introduisait une petite faille. Une chance, parce que la complexité des nouveaux outils permettaient de jeter une nappe de brouillard sur la discipline. Et avec cette nappe de brouillard technique, il y avait beaucoup moins de problèmes pour valider la discipline. Tout le savoir, et donc, le pouvoir était désormais dans les mains des spécialistes. Ca permettait de repousser pour très longtemps la critique de l’existence des virus. Mais, il y avait également une petite faille. Le coté progressif de l’évolution technique allait forcément entrainer un jour ou l’autre la question suivante de la part de gens ayant un minimum d’esprit critique : « Si la technique a évolué, et qu’il est obligatoire d’utiliser les derniers développements techniques pour être sur qu’on a bien identifié un virus, c’est que les techniques précédentes ne permettaient pas d’être sur qu’on avait affaire à un virus. Alors, comment pouvait-on être sur, lors des différentes phases de l’évolution technique, qu’on avait bien un virus, si la technique de l’époque n’était pas suffisamment évoluée pour en avoir la preuve ? ». Question qui devait aboutir à l’idée qu’il y avait eu truande avec les anciennes méthodes (sur la validité des découvertes). Et à partir de cette constatation, on pouvait remonter à la période actuelle. Parce que, si les virologues avaient été capables de truander dans les années 50/60, il n’y a pas de raison qu’ils n’aient pas continué à truander les décennies suivantes.

L’identification des virus a commencé par l’utilisation exclusive du microscope électronique (avec la méthode de l’ultracentrifugation pour isoler les particules de taille « virale »), vers la fin des années 40. La chance pour les virologues, c’est qu’en étant pas regardant sur les preuves, cette technique était juste assez convaincante pour faire croire à l’identification des virus. On arrivait grace à la purification, à avoir parfois jusqu’à 99 % de particules de même taille et même forme. Et elle permettait donc, grace aux peu de preuves exigées, de trouver beaucoup de nouveaux virus.

Mais bien sur, cette technique, n’était absolument pas valable. Le problème c’est qu’en l’absence de culture virale (technique non maitrisée à l’époque) et d’identification des particules (idem), on ne sait pas si ce qu’on a isolé est du virus, ou simplement des particules endogènes à (c’est à dire produites par) l’organisme. Donc, on a bien 99 % de quelque chose, mais de quoi ? Mystère.

Par la suite, dans les années 60, on a commencé à cultiver les virus, grace à des cultures de cellules. Grace à la culture de virus, on peut avoir une seconde culture témoin ; c’est à dire, une culture où il n’y a pas de virus d’introduit, et dans laquelle, il ne devrait pas y avoir de particules de taille virale. Le problème, c’est que les cultures de cellule ont un défaut fatal qui fait que, le couple « culture de virus + microscope électronique » n’est pas suffisant lui non plus. Le problème, c’est que les cultures de cellule engendrent la production de particules de tailles virale (ce qui est normal puisque les virus sont en fait des déchets des cellules). Donc, comme on a des particules de taille virale aussi bien dans la culture de virus, que dans la culture témoin, il faut identifier les particules virales pour faire la différence entre les deux. Si on cultive des virus dans des cellules, et qu’on n’a qu’un microscope électronique pour les identifier, ce n’est pas suffisant. Visuellement, on ne peut pas dire si telle particule de taille virale est une particule X ou Y. Donc, on ne peut pas dire si les particules de taille virale sont des virus ou des déchets cellulaires.

Donc, tous les virus identifiés durant ces années là ne peuvent pas être considérés comme ayant été isolé et identifiés. Ces virus sont des inventions pures et simples. De même que ceux trouvés avant cette période.

Dans les années 70, enfin on a réussi à identifier les composants des virus. On a d’abord réussi a identifier les protéines des virus, puis, leur ADN et ARN. Sur le papier, la méthode « culture de cellules + microscope électronique + identification des composants du virus » était enfin suffisante pour isoler et identifier les virus. La virologie tenait enfin son Graal.

Mais, à l’analyse, il se révèle que ces techniques d’identification des composants d’un virus sont totalement fallacieuses. Elles ne permettent pas du tout d’identifier ce qu’elles cherchent à identifier. Donc, on est resté en réalité à la période précédente, celle du couple « culture de cellules + microscope électronique ».

Le problème de l’identification des protéines, c’est que c’est une méthode indirecte qui repose sur le fait que les anticorps sont spécifiques des antigènes, et donc, que si on sait quel anticorps on a, on sait quel antigène il y a en face. De même, les antigènes sont supposé spécifiques d’un virus donné, et pas de plusieurs. Or, les anticorps ne sont pas spécifiques du tout, et les antigènes ne sont pas spécifique de tel ou tel virus. Donc, cette méthode ne permet pas du tout d’identifier les protéines des virus. Elle ne permet même pas d’identifier telle ou telle protéine. C’est une méthode qui ne vaut rien. En réalité, à mon avis, les anticorps sont simplement une espèce de papier tue-mouche, des particules collantes qui servent à collecter les déchets cellulaires pour permettre leur élimination ou leur recyclage par le système lymphatique. Donc, c’est normal qu’ils se collent à tout et n’importe quoi et qu’ils ne soient absolument spécifiques de tel ou tel antigène. Il n’y a pas de système clef/serrure entre l’anticorps et l’antigène.

Enfin, l’identification de l’ADN a l’air d’être carrément une truande totale. Quand on identifie un ADN, on a une longue bande principale, avec des bandes latérales. La position des bandes latérales permettent d’identifier des fragments de l’ADN en question, qui lui sont spécifiques. Ca donne une sorte d’empreinte digitale de l’ADN. Seulement, le problème, c’est que cette empreinte n’est pas identifiable directement, qu’elle doit donc passer par un traitement informatique, et qu’elle est complètement trafiquée par le technicien qui le réalise. Le cliché de départ, est trop sombre pour qu’on voit bien les bandes. Donc, il faut pousser la luminosité pour les voir. On fait ça avec un logiciel. Mais, le problème, quand on fait ça, c’est qu’il y en fait beaucoup de bandes qui apparaissent. Alors, le technicien en enlève, en repositionne, en redimensionne certaines, pour obtenir ce qu’il veut. Donc, en réalité, la fameuse empreinte digitale de l’ADN est une arnaque totale.

Vous me direz qu’il y a quand même l’expérience d’inoculation du virus, qui montre bien qu’il y a quelque chose de taille virale qui provoque la maladie et qui peut être ensuite transmis à une autre personne, puis une autre, etc… Donc, même si les techniques d’isolements n’étaient pas valables, il serait quand même clair qu’il y a un microbe pathogène d’impliqué. Mais non. Pour d’évidentes raisons éthiques, il est hors de question d’inoculer la maladie à des êtres humains. Donc, on n’inocule la maladie qu’à des animaux. Or, comme déjà mis en avant, les animaux ne parlent pas. Donc, toutes les truandes sont possibles. Vous me direz qu’il y a les virus touchant les animaux eux-même. Mais on retombe sur le même problème. Les animaux ne parlent pas. Donc, on peut dire ce qu’on veut sur ce qui arrive quand on leur inocule tel ou tel soi-disant virus, comme tout ça se passe en laboratoire, personne ne peut venir raconter le contraire. Le seul modèle qui soit valable, c’est l’être humain. Parce que lui, on ne peut pas parler à sa place.

Donc, l’histoire des virus est l’histoire d’une invention continue de particules qu’on a déclarées virales alors qu’on n’avait pas les moyens de le prouver. C’est l’histoire d’un bluff et donc, d’une arnaque permanents.

Effet Lazare et mise sous perfusion

Etant impliqué dans la dissidence du SIDA, l’histoire de l’effet Lazare provoqué par les trithérapies revient de temps à autres. Il y a une autre catégorie de médicaments qui, en son temps, aurait soi-disant provoqué un effet Lazare : les antibiotiques. Ne croyant pas du tout à l’effet Lazare de la part de ces médicaments, je vois une autre raison à ce soi-disant effet Lazare, dans le cas, bien sur, où celui-ci serait une réalité : la mise sous perfusion. Voila ce que j’en dit dans le présent message posté sur le forum onnouscachetout.com.

« Pour l’effet Lazare, franchement, on peut se demander quelle est la réalité de cette histoire. Est-ce que ce n’est pas une légende balancée pour promouvoir les trithérapies ? Je n’ai pas l’impression qu’il y ait beaucoup de littérature sur le sujet. Donc bon…

Mais, s’il y a une réalité derrière ça, moi, je verrais plutôt ça de la façon suivante. Il est bien possible que l’effet Lazare soit du à un élément peu pris en considération lorsqu’on analyse la réussite d’une hospitalisation : la réhydratation via perfusion avec distribution en même temps de sels minéraux. Selon le Dr Fereydoon Batmanghelidj, les problèmes liés à la déshydratation peuvent être importants et beaucoup plus courants qu’on ne le croit. Et, à mon avis, les problèmes de manque de sels minéraux sont plus ou moins aussi dans ce cas. Du coup, peut-être bien que des gars qui arrivent à l’hôpital sont déshydratés et/ou manquent de sels minéraux. Et ces deux éléments leur sont fournis par la mise sous perfusion. Du coup, O miracle, tel Lazare, ils reviennent à la vie en quelques jours.

Pourquoi ça arrive avec les trithérapies et pas l’AZT ? Ben, probablement parce que les trithérapies sont beaucoup moins létales que l’AZT. Avec la mise sous doses massives d’AZT, les effets négatifs maintiennent le patient au 36ème dessous. Donc, pas d’effet Lazare quand on donne un poison violent.

On peut rapprocher ça avec l’effet Lazare qui est soi-disant apparu lors de l’introduction des antibiotiques. Peut-être que là aussi, on donnait avant des médicaments extrêmement agressifs et que l’introduction des antibiotiques, beaucoup moins létaux, a permis de donner un effet Lazare artificiel. C’est à dire, pas lié à l’efficacité de l’antibiotique, mais à sa moins grande létalité par rapport aux anciens médicaments.

Cela dit, en faisant une recherche sur l’histoire de la perfusion, il y a quelques temps, j’ai appris que celle-ci a été généralisée en Europe à partir de 1944, grace à la société Baxter. Avant, la perfusion demandait une attention trop importante de la part des infirmières (une infirmière devait rester au moins une heure pour voir si la perfusion se passait bien) et était apparemment peu employée. Bref, ça s’est généralisé juste au moment de l’introduction des antibiotiques. Du coup, on peut penser que l’effet Lazare des antibiotiques était en fait un effet Lazare de la perfusion.

Peut-être qu’il n’y avait même pas de problème de moins grande létalité des antibiotiques par rapports aux anciens médicaments, et que c’est la généralisation des perfusions qui est entièrement responsable de l’effet Lazare attribué aux antibiotiques. »

Les soi-disant germes mutants 2

Donc, ça fait désormais au minimum 16 ans qu’on nous serine que, dans les hopitaux, il y a des germes pathogènes qui ont muté et sont résistants à quasiment tous les antibiotiques. Et le taux des germes pathogènes résistants reste depuis 16 ans, invariablement à environ 20 %. Or, il est évident que si les germes devenaient vraiment résistants, le taux devrait évoluer. Et il devrait a priori plutot augmenter, puisque la sélection devrait ne retenir que les germes résistants.

A mon avis, il n’y a tout simplement pas de germes pathogènes mutants. Déjà, je pense que les germes en question n’ont pas muté. Je ne dis pas que, in vitro, on ne réussit pas à obtenir des taux de résistances aux antibiotiques d’environ 20 %. Mais, on peut penser que les bactéries ont une capacité d’adptation temporaire à certains niveaux. Dans une culture soumise régulièrement aux antibiotiques, il est possible que les bactéries épaississent leur paroi, empêchant ainsi pendant un certain temps l’antibiotique de détruire celle-ci (et le stress étant continu, et les bactéries se reproduisant par sisciparité, il est normal que l’adaptation soit transmise à la descendance. Il ne s’agit pas vraiment de descendance, mais de copie). Mais, ça doit être une évolution temporaire. Une fois revenus dans un environnement non agressif, les bactéries doivent voir leur parois s’amincir, parce que ça doit être plus avantageux dans un milieu non agressif.

Et je ne pense pas que ce soient des germes qui soient à l’origine des infections en question. Je ne crois pas aux germes pathogènes. A mon avis, il se passe tout simplement que l’hospitalisation (prise de médicaments, tests biologiques invasifs, opération chirurgicale) produit un stress important sur l’organisme. Ca va consommer une quantité importante des anti-oxydants présents dans le corps de la personne hospitalisée (mais il n’y a pas que le stress oxydatif ; il peut y avoir d’autres manques et déséquilibres chimiques ainsi que physiques). Si cette quantité descend trop bas, la personne va tomber malade ; non pas d’un germe pathogène, comme ce sera certainement diagnostiqué par les médecins, mais d’un stress oxydatif. Donc, il ne s’agit pas du tout d’un problème de microbes pathogènes mutants, mais d’un déséquilibre chimique dans le corps. Déséquilibre chimique provoqué par l’hospitalisation.

Donc, c’est l’hospitalisation elle-même qui est à l’origine du problème. C’est ce qui fait qu’on ne peut pas se débarasser du dit problème. On pourra prendre toutes les mesures d’hygiènes préventives possibles, on continuera à avoir des maladies nosocomiales. Et un certain pourcentage des personens atteintes de ces maladies nosocomiales mettrons plus de temps à guérir que d’habitude lors d’une prise d’antibiotiques (ce qui fera qu’on accusera les germes mutants).

C’est ce qui fait que, dans cette longue saga des germes mutants, on a fini par aboutir à la version que le problème des germes mutants touche surtout l’hopital.

En général, lors d’une hospitalisation ayant provoqué une maladie nosocomiale (un stress oxydatif en réalité), la personne se remettra toute seule. Et dans ce cas, on attribura cette évolution aux antibiotiques, qui en fait, n’ont été pour rien, au contraire (les antibiotiques provoquent du stress oxydatif), dans le rétablissement. Mais d’autres fois, les niveaux d’antioxydant seront trop bas, et la personne ne se remettra pas, ou alors, plus lentement. Et dans ce cas, ben, puisque les médecins vont croire que le problème vient d’un germe attrapé à l’hopital (maladie nosocomiale), l’explication de la résistance aux antibiotiques sera la bienvenue. Et comme c’est un problème complètement inévitable, puisque les complications viennent de la violence des hospitalisations elles-mêmes, ben, les médecins tiennent là un deus ex machina tout trouvé.

Le taux de 20 % s’insère bien dans cette vision des choses. On imagine bien qu’il ne va pas y avoir 50 % des individus ayant contracté une maladie nosocomiale (ou non) qui vont avoir des problèmes importants pour surmonter ce problème. Ca va être plutot limité. Donc, ça ne va pas être inférieur à 10 %, mais ça ne va pas être supérieur à 35 %. Donc, un chiffre entre 15 et 30 % est assez logique. Et logiquement, plus les services hospitaliers vont traiter des maladies graves ou vont faire des opérations lourdes, plus le taux va augmenter. Tandis que dans les services avec des hospitalisations légères, le taux va être plus bas.

Pourquoi le taux ne bouge-t-il pas beaucoup et reste dans les environs de 20 % ? C’est parce que dans un service hospitalier, en général, le taux de personnes récupérant vraiment difficilement d’une opération (au niveau du stress oxydatif), ne va pas varier énormément sur une année. Ceci parce que les conditions d’une année sur l’autres vont être assez identiques : pourcentage de tel type d’opération, pourcentage de tel type de population (age, forme physique, etc…). Donc, grosso modo, on va avoir des taux de personnes non guéries dans les temps habituels par les antibiotiques, qui vont rester assez stables. Et comme le taux est calculé sur les services hospitaliers de toute la France, les taux des différents hopitaux se pondèrent les uns les autres.

Les soi-disants germes mutants

Pour commencer le blog, un court article sur les soi-disants germes mutants. J’ai commencé à entendre parler de ça dans les années 80. A l’époque, je croyais encore à tout ce qu’on nous racontait sur la médecine. On nous annonçait alors qu’à cause de l’usage immodéré des antibiotiques, les germes avaient déjà commencé à muter, que certains antibiotiques n’étaient déjà plus efficaces à cause de ces mutations, et que la plupart des antibiotiques ne le seraient plus d’ici 10 ans. Ce qui nous menaçait de voir revenir les grandes épidémies d’entant. Quelle angoisse ! Ca foutait vraiment les jetons.

Au cours des années, régulièrement, cette histoire ressortait. Vers le début des années 90, il ne restait soi-disant plus qu’un ou deux antibiotiques qui n’étaient pas touchés par le phénomène de résistance. Et on avait déjà commencé à parler de maladies contractées à l’hopital qui n’avaient pas pu être soignées par les antibiotiques habituels. Dans certains hopitaux, c’étaient 20 %, voir 30 % des germes qui étaient devenus résistants. L’évolution avait été fulgurante. Et le début de la fin était manifestement là, avec le retour de la tuberculose, de la syphilis, des autres MST, etc, etc… Surtout que le SIDA n’était pas là pour arranger les choses, puisque les sidéens attrapaient ce genre de maladies facilement et pouvaient devenir un foyer contagieux. Bref, l’apocalypse était à nos portes.

Seulement, au bout de 5 ans, alors que tous les antibiotiques (c’est à dire, en fait, les deux derniers) auraient du être devenus inneficaces, et que ça aurait du être 60 ou 70 %, voir 100 % des germes pathogènes qui auraient du être résistants à tous les antibiotiques, on ne voyait pas rien de tout ça arriver. Les maladies contagieuses ne se répandaient pas plus que ça. Toujours 20 % des bactéries pathogènes étaient résistantes dans les hopitaux. Les antibiotiques étaient toujours autant utilisés, et on ne parlait plus trop de leur inneficacité. Bizarre quoi.

Encore 5 années plus tard, au début des années 2000, toujours rien. Pire, si on parlait encore des germes résistants dans les hopitaux, on commençait à ne plus parler du tout de la résistance des germes aux antibiotiques ailleurs que dans les hopitaux. Et l’apocalypse du renouveaux des maladies contagieuses n’était vraiment, mais alors vraiment plus à l’ordre du jour. Et dans les hopitaux on continuait à avoir le même pourcentage de 20 % de germes résistants. A ce moment-là, forcément, n’importe quel être sensé se poserait la question suivante : « est-ce qu’ils ne se fouteraient pas un peu de notre gueule ? ». C’est ce que je me suis dit en tout cas.

Il ne restait plus que 1 ou 2 antibiotiques encore efficaces 10 ans plus tot, et il n’y avait toujours pas de problèmes ? C’était quoi ce délire ? Soit les antibiotiques étaient encore efficaces, et alors, on nous avait menti sur leur efficacité, soit ils ne l’étaient plus, mais alors, on aurait du voir ressurgir des maladies pour lesquelles il n’y avait pas de vaccin (syphilis), ou pour lesquelles le vaccin était d’une efficacité juste moyenne (tuberculose). Mais, vu que ceci n’arrivait pas, on nous avait forcément menti quelque part.

De cette mode lancée, à l’époque, ne restait donc plus que l’affirmation que 20 % de certains germes pathogènes qu’on pouvait trouver dans les hopitaux étaient résistants à presque tous les antibiotiques. Seulement, là aussi, c’était carrément bizarre que le chiffre de 20 % n’ait pas bougé en 10 ou 12 ans. Et il n’a toujours pas bougé depuis. Donc, depuis 16 ou 18 ans, le chiffre de 20 % de germes résistants ne bouge pas. J’expliquerais de quoi il retourne vraiment demain.