L’être humain est un gros pot de colle 2

Suite à ce premier message, j’avais ajouté le 26 décembre 2004 :

———————

On peut constater l’intérêt de cette approche en terme de colles et aussi de fluides plus ou moins épaissis en ce qui concerne les anti-inflammatoires.

Qu’est-ce qu’une inflammation ? C’est très probablement le fait qu’une zone est encombrée de déchets et qu’une oxydation se produit à cet endroit. Il faut donc dégager la zone pour que le flux des nutriments et de leur évacuation puisse se faire et que l’oxydation cesse.

Donc, qu’est-ce qu’un anti-inflammatoire (ou au moins une bonne partie d’entre eux) ? C’est un truc qui doit liquéfier la zone encombrée de déchets, ou de façon plus générale, les fluides sanguins et lymphatiques. C’est une sorte de dissolvant. Le problème, c’est qu’à dissoudre les matières colloidales liquides ou semi liquides, ça finit par dissoudre les matières colloidales solides comme les chairs. Ce qui crée des trous, donc, des ulcères, des hémoragies.

C’est pour ça que la grand majorité des anti-inflammatoires entrainent des problèmes gastriques. Parce que, là où l’anti-inflammatoire est absorbé, sa concentration est la plus grande. Donc, c’est dans le système digestif que l’anti-inflammatoire va crée les plus gros dégats.

Ensuite, les problèmes crées dans les autres parties du corps sont fonction de la concentration du dissolvant. Si c’est un médicament qui contient beaucoup de produit dissolvant, il sera efficace pour lutter contre l’inflammation, mais dangereux. Inversement, si le médicament en contient peu, il ne sera pas trop dangereux, mais peu efficace. S’il est concentré et donc, dangereux, le produit va créer des problèmes de la même façon que dans le ventre, mais de façon un peu moins intense (vu qu’en entrant dans le système sanguin, il devient moins concentré). Il va dissoudre les chairs qu’il rencontre en premier, les chairs des vaisseaux sanguins. Donc, il va y avoir risque d’attaque cérébrale par rupture de vaisseau sanguin.

Il y a apparemment aussi risque d’infarctus. Pourquoi ? Là, je ne sais pas trop, vu que les vaisseaux en question sont plus gros et le flux plus intense. Mais on peut penser que le même phénomène est en jeu. Peut-être que comme le coeur récupère tout le liquide sanguin dans un temps très court, il est exposé au produit de façon importante, malgré le flux rapide.

Pour en revenir au système digestif, on peut penser que ces produits sont cause de très nombreux cancers et tumeurs du système digestif. Dans la mesure ou le cancer est lui aussi lié à un blocage de l’apport des nutriments et une inflammation, en dissolvant les chairs, l’anti-inflammatoire va créer les conditions du cancer. Ce qui va se passer, c’est que dans cet amas de chairs dissoutes ou respirant mal, des cellules vont revenir à un état de développement primitif, de type bactérie, avec multiplication infinie, ce qui va être le début du cancer ou d’une tumeur.

On peut penser que plus l’individu est maigre, et donc, a un sang moins épais, plus il va être susceptible de développer des problèmes rapidement (vu qu’une fois le sang désépaissi, le dissolvant s’attaque aux chairs). Mais, un individu gros aura tendance à prendre le produit pendant beaucoup plus longtemps, donc, à avoir des problèmes aussi. En plus, comme l’individu gros a tendance à avoir des problèmes de tension, ça ne doit pas aider.

Comment je l’ai évoqué plus haut, l’industrie pharmaceutique a un problème avec ces molécules. Alors, elle louvoie entre ces problèmes de médicament efficaces mais dangereux et pas dangereux mais assez inefficaces en utilisant des concentrations plus ou moins grandes. D’où toute une déclinaison en multiples produits anti-inflammatoires qui sont soit disant différents, mais qui doivent jouer essentiellement sur la concentration du produit. Cela dit, la fécondité de la chimie fait qu’il y a probablement quelques rares anti-inflammatoires qui agissent légèrement différement (à d’autres endroit du problème de la concentration des matières colloidales), mais les plus efficaces semblent être des dissolvants.

La solution la plus simple serait tout simplement de manger beaucoup moins d’aliments contenant des matières colloidales. Mais, forcément, la vente de petites pillules anti-inflammatoires s’effondrerait (et même celle de bien d’autres petites pillules).

J’en suis un exemple de ce que je décris à propos de ces problèmes d’inflammation. Avant janvier 2002, régime normal, avec un peu de junk food (chocolat, petits gateaux, etc…) : une migraine tous les mois. Entre janvier et juillet 2002, régime enrichi en viandes et laitages (donc, beaucoup plus colloidale) : passage à une migraine toutes les semaines. Depuis juillet 2002, régime fruit (avec un repas classique par jour), donc très peu colloidale : une migraine tous les ans, et encore.

Edit : Je viens de retrouver ce que j’avais vu sur la cortisone. Les produits anti-inflammatoires en application locale doivent logiquement avoir les mêmes effets que ceux utilisés en pillule. Ils attaquent les chairs, donc, la peau. Et effectivement, sur le topic sur la cortisone, il est dit que la cortisone affine la peau.

sans$ > Oui, il y a des effets secondaires à l’application en usage extene: un affinnement de la peau d’autan plus prononcé que le roduit est utilisé longtemps. Attention il y a 4 classes de corticoïdes: très puissante, (ex:dermovate) puissante (ex: locoid), moyennement puissante (ex: locacortene) et peu puissante en vente libre en Belgique comme l’hydrocortisone.

———————

Puis, j’avais ajouté le 23 janvier 2005 :

Du coup, fort de cette théorie, en regardant il y a quelque temps une émission de la cinq sur la santé dont le sujet était la décoloration des peaux noires, avant même que le reportage dise quel produit était utilisé, je me suis dit que ça devait être un produit à base cortisone. Et effectivement, c’est le cas. La corstisone désagrégeant les protéines, ça désagrège la peau, la rendant plus fine, et donc, moins noire.

Il est intéressant aussi de lire que, dans le cas du SIDA, la baisse du taux de cd4 est lié au taux de cortisol (même chose que la cortisone, mais produite par le corps). Un taux élevé de cortisol diminue la quantité de cd4. A mon avis, ça doit désagréger les cd4.

Le cortisol est lié au stress. Il est possible que le cortisol serve en fait à fluidifier le sang en vu d’un effort qu’il va avoir à produire. Dans la nature, un stress signifie souvent qu’il va falloir produire un effort important, comme se battre ou fuir devant un prédateur. La fluidification du sang permettant probablement à l’oxygène et aux nutriments d’arriver plus facilement dans les muscles.

L’être humain est un gros pot de colle

Je repost un message que j’avais mis sur le forum onnouscachetout.com le 16 juillet 2004 :

A mon avis, on ne réflechit pas assez à la problématique des matériaux qui constituent la structure du corps humain.

Qu’est-ce que sont les chairs en terme de chimie (qui représentent quand même la majorité de la structure du corps humain, avec les os) ? Eh bien, je pense que ce sont des colles, des colles plus ou moins aglomérées.

Donc, il est clair qu’une grande partie de la santé passe par le maintien le plus parfait possible de la structure de ces colles. Toute transformation de ces colles par quelque élément que ce soit, risque d’aboutir à des problèmes en terme de santé. Donc, tout élément entrainant la désagrégation, la dissolution de ces colles, ou leur trop grande aglomération (ou polymérisation, c’est peut-être un terme plus adapté) va entrainer des problème. On peut par exemple analyser les médicaments à travers leur role dans cette problématique. Un médicament qui à tendance à dissoudre les chair peut poser des problèmes (par exemple, les médicaments qui fluidifient le sang comme l’aspirine). Inversement, un médicament qui entraine une surpolymérisation des chairs pose aussi problème (on peut se demander, par exemple, si les médicaments qui entrainent une oxydation des cellules n’entrainent pas ce genre de phénomènes. Ou les rayons qui entrainent une fibrose des chairs lors d’un traitement anticancéreux).

Par ailleurs, ces colles ne sont pas apparues par enchantement et elle ont une organisation dans le corps. Il y a tout un processus pour amener les colles sur le lieu ou elles vont être utilisées. Et ensuite, il y a tout un processus pour évacuer les colles du corps. Donc, tout élément qui entraine la perturbation de ce cycle d’absorption, utilisation, organisation, évacuation, va entrainer des problèmes.

Les éléments qui vont servir comme base de la colle sont apportés évidemment par l’alimentation. Parmi les éléments apportés par l’alimentation, il semble clair, vu leur coté colloïdal, que ce sont les protéines qui servent de matériaux de base pour construire la colle carnée. Et d’ailleurs, effectivement, la littérature dit que les chaires sont constituées de protéines.

Donc, tout le cycle d’absorption des protéines dans le corps, et leur utilisation, et leur évacuation doit être analysé. Il doit très probablement y avoir un optimum dans ce cycle. Et toute chose perturbant cet optimum va entrainer des problèmes. Par exemple, manger trop de viande ou quelque aliments contenant beaucoup de protéines que ce soit, va surcharger ce cycle des protéines. Comme je l’avais déjà évoqué dans un autre topic, peut-être que le surplus n’arrive pas à s’évacuer totalement et qu’il y a des dépots de protéines qui se créent sur les artères (d’où l’artérosclérose). De même la surconsommation va surcharger le système d’évacuation (ie. le système lymphatique), et entrainer des bouchons dans ce système (d’où les ganglions douloureux, voir les tumeurs, cf. un autre topic sur hammer). Il va sans dire que quand les colles des éléments vitaux comme les reins ou le foie sont affectées dans leur structure ou leur organisation, les problèmes vont être d’autant plus graves (fibrose du foie par exemple).

Donc, il me semble important d’analyser un bon nombre de maladies au travers de cette problématique.

PS : en règle générale, il me semble que depuis plus d’un siècle, on se focalise beaucoup trop sur les éléments de base microscopiques, comme les microbes, puis, maintenant, la cellule ou l’ADN et pas du tout assez sur la structure générale du corps dans laquelle fonctionnent ces éléments de base. Délaisser l’un pour n’étudier que l’autre, ça me semble dangereux.

Histoire de l’invention des virus

Pour entrer directement dans le vif du sujet, les virus sont des inventions pures et simples qui ont été créés à l’époque de l’hystérie pastorienne sur les germes pathogènes. Ce n’est qu’une séquelle, une conséquence du délire de ces années là.

A l’époque, presque toutes les maladies étaient considérées comme étant dues à des germes pathogènes. Problème, il y avait des maladies pour lesquelles ont ne trouvait aucune bactérie pouvant être considérée responsable. Alors, comme il fallait obligatoirement que les maladies en question soient dues à des germes pathogène, on en a inventé de nouveaux. Et comme on ne pouvait pas les voir, on a incriminé les instruments de l’époque, et la taille des germes en question. On a dit qu’il y avait bien des germes, mais que ceux-ci étaient trop petits pour être détectés avec les instruments de l’époque. Les virus venaient d’être inventés.

Bien sur, certains découvreurs n’ont pas eu de scrupule à utiliser quelques animaux pour valider leurs théorie et ainsi, récolter la gloire d’être les découvreurs de nouveaux germes pathogènes (avec la manne financière qui allait avec cette gloire, sous forme de récompense de l’état, de chaires d’enseignements en faculté, etc…). Il suffisait de tuer ceux qui devaient correspondre à la théorie. Les animaux ne parlent pas.

C’est ainsi qu’on a pu réaliser les premiers soi-disants isolements rudimentaires de virus. On filtrait le sang ou le liquide contenant le supposé virus. Et quand les animaux utilisés ne tombaient plus malade, voir, ne mourraient plus, on « savait » qu’il n’y avait plus d’agent pathogène dans le filtrat. Donc, on arrivait grosso modo à établir la taille des agents pathogènes en question. Tout reposait sur le truandage des expériences d’inoculation de virus pathogènes aux animaux.

Donc, quand sont arrivées les méthodes moderne de détection des virus, la messe était déjà dite. La croyance en l’existence des virus était déjà totale dans le milieu scientifique. On ne pouvait plus faire marche arrière. Il fallait trouver des virus au microscope électronique. Sinon, la biologie et la médecine perdaient totalement la face.

Donc, tout était joué d’avance quand sont arrivés les microscopes électroniques dans les années 40, puis, les méthodes de culture in vitro dans les années 60, et enfin, les méthode d’identification des protéines et de l’ADN dans les années 70.

Heureusement pour eux, sur leur chemin, il y avait des particules qui étaient en fait les déchets de fonctionnement des cellules. Ces particules avaient la taille des particules virales. Et comme elles étaient émises par les cellules, il était possible de faire croire que lorsqu’elles sortaient des cellules, il s’agissait de réplication. De même, comme la cellule se nourrit, il était possible de faire croire que les particules absorbées par les cellules pour se nourrir étaient des virus en train d’infecter les cellules. Un peu comme quelqu’un qu’on observerait de loin pendant une semaine, et qui mangerait une fois une banane en plus d’autres plats. Les déjections ressemblant un peu à une banane, de loin on pourrait penser que la banane est un virus qui se multiplie dans le corps. Donc, chance pour eux, les virologues avaient sous la main un type de particule qui pouvait tout à fait passer pour un virus.

L’évolution technique progressive a été surtout une chance pour la virologie, même si elle introduisait une petite faille. Une chance, parce que la complexité des nouveaux outils permettaient de jeter une nappe de brouillard sur la discipline. Et avec cette nappe de brouillard technique, il y avait beaucoup moins de problèmes pour valider la discipline. Tout le savoir, et donc, le pouvoir était désormais dans les mains des spécialistes. Ca permettait de repousser pour très longtemps la critique de l’existence des virus. Mais, il y avait également une petite faille. Le coté progressif de l’évolution technique allait forcément entrainer un jour ou l’autre la question suivante de la part de gens ayant un minimum d’esprit critique : « Si la technique a évolué, et qu’il est obligatoire d’utiliser les derniers développements techniques pour être sur qu’on a bien identifié un virus, c’est que les techniques précédentes ne permettaient pas d’être sur qu’on avait affaire à un virus. Alors, comment pouvait-on être sur, lors des différentes phases de l’évolution technique, qu’on avait bien un virus, si la technique de l’époque n’était pas suffisamment évoluée pour en avoir la preuve ? ». Question qui devait aboutir à l’idée qu’il y avait eu truande avec les anciennes méthodes (sur la validité des découvertes). Et à partir de cette constatation, on pouvait remonter à la période actuelle. Parce que, si les virologues avaient été capables de truander dans les années 50/60, il n’y a pas de raison qu’ils n’aient pas continué à truander les décennies suivantes.

L’identification des virus a commencé par l’utilisation exclusive du microscope électronique (avec la méthode de l’ultracentrifugation pour isoler les particules de taille « virale »), vers la fin des années 40. La chance pour les virologues, c’est qu’en étant pas regardant sur les preuves, cette technique était juste assez convaincante pour faire croire à l’identification des virus. On arrivait grace à la purification, à avoir parfois jusqu’à 99 % de particules de même taille et même forme. Et elle permettait donc, grace aux peu de preuves exigées, de trouver beaucoup de nouveaux virus.

Mais bien sur, cette technique, n’était absolument pas valable. Le problème c’est qu’en l’absence de culture virale (technique non maitrisée à l’époque) et d’identification des particules (idem), on ne sait pas si ce qu’on a isolé est du virus, ou simplement des particules endogènes à (c’est à dire produites par) l’organisme. Donc, on a bien 99 % de quelque chose, mais de quoi ? Mystère.

Par la suite, dans les années 60, on a commencé à cultiver les virus, grace à des cultures de cellules. Grace à la culture de virus, on peut avoir une seconde culture témoin ; c’est à dire, une culture où il n’y a pas de virus d’introduit, et dans laquelle, il ne devrait pas y avoir de particules de taille virale. Le problème, c’est que les cultures de cellule ont un défaut fatal qui fait que, le couple « culture de virus + microscope électronique » n’est pas suffisant lui non plus. Le problème, c’est que les cultures de cellule engendrent la production de particules de tailles virale (ce qui est normal puisque les virus sont en fait des déchets des cellules). Donc, comme on a des particules de taille virale aussi bien dans la culture de virus, que dans la culture témoin, il faut identifier les particules virales pour faire la différence entre les deux. Si on cultive des virus dans des cellules, et qu’on n’a qu’un microscope électronique pour les identifier, ce n’est pas suffisant. Visuellement, on ne peut pas dire si telle particule de taille virale est une particule X ou Y. Donc, on ne peut pas dire si les particules de taille virale sont des virus ou des déchets cellulaires.

Donc, tous les virus identifiés durant ces années là ne peuvent pas être considérés comme ayant été isolé et identifiés. Ces virus sont des inventions pures et simples. De même que ceux trouvés avant cette période.

Dans les années 70, enfin on a réussi à identifier les composants des virus. On a d’abord réussi a identifier les protéines des virus, puis, leur ADN et ARN. Sur le papier, la méthode « culture de cellules + microscope électronique + identification des composants du virus » était enfin suffisante pour isoler et identifier les virus. La virologie tenait enfin son Graal.

Mais, à l’analyse, il se révèle que ces techniques d’identification des composants d’un virus sont totalement fallacieuses. Elles ne permettent pas du tout d’identifier ce qu’elles cherchent à identifier. Donc, on est resté en réalité à la période précédente, celle du couple « culture de cellules + microscope électronique ».

Le problème de l’identification des protéines, c’est que c’est une méthode indirecte qui repose sur le fait que les anticorps sont spécifiques des antigènes, et donc, que si on sait quel anticorps on a, on sait quel antigène il y a en face. De même, les antigènes sont supposé spécifiques d’un virus donné, et pas de plusieurs. Or, les anticorps ne sont pas spécifiques du tout, et les antigènes ne sont pas spécifique de tel ou tel virus. Donc, cette méthode ne permet pas du tout d’identifier les protéines des virus. Elle ne permet même pas d’identifier telle ou telle protéine. C’est une méthode qui ne vaut rien. En réalité, à mon avis, les anticorps sont simplement une espèce de papier tue-mouche, des particules collantes qui servent à collecter les déchets cellulaires pour permettre leur élimination ou leur recyclage par le système lymphatique. Donc, c’est normal qu’ils se collent à tout et n’importe quoi et qu’ils ne soient absolument spécifiques de tel ou tel antigène. Il n’y a pas de système clef/serrure entre l’anticorps et l’antigène.

Enfin, l’identification de l’ADN a l’air d’être carrément une truande totale. Quand on identifie un ADN, on a une longue bande principale, avec des bandes latérales. La position des bandes latérales permettent d’identifier des fragments de l’ADN en question, qui lui sont spécifiques. Ca donne une sorte d’empreinte digitale de l’ADN. Seulement, le problème, c’est que cette empreinte n’est pas identifiable directement, qu’elle doit donc passer par un traitement informatique, et qu’elle est complètement trafiquée par le technicien qui le réalise. Le cliché de départ, est trop sombre pour qu’on voit bien les bandes. Donc, il faut pousser la luminosité pour les voir. On fait ça avec un logiciel. Mais, le problème, quand on fait ça, c’est qu’il y en fait beaucoup de bandes qui apparaissent. Alors, le technicien en enlève, en repositionne, en redimensionne certaines, pour obtenir ce qu’il veut. Donc, en réalité, la fameuse empreinte digitale de l’ADN est une arnaque totale.

Vous me direz qu’il y a quand même l’expérience d’inoculation du virus, qui montre bien qu’il y a quelque chose de taille virale qui provoque la maladie et qui peut être ensuite transmis à une autre personne, puis une autre, etc… Donc, même si les techniques d’isolements n’étaient pas valables, il serait quand même clair qu’il y a un microbe pathogène d’impliqué. Mais non. Pour d’évidentes raisons éthiques, il est hors de question d’inoculer la maladie à des êtres humains. Donc, on n’inocule la maladie qu’à des animaux. Or, comme déjà mis en avant, les animaux ne parlent pas. Donc, toutes les truandes sont possibles. Vous me direz qu’il y a les virus touchant les animaux eux-même. Mais on retombe sur le même problème. Les animaux ne parlent pas. Donc, on peut dire ce qu’on veut sur ce qui arrive quand on leur inocule tel ou tel soi-disant virus, comme tout ça se passe en laboratoire, personne ne peut venir raconter le contraire. Le seul modèle qui soit valable, c’est l’être humain. Parce que lui, on ne peut pas parler à sa place.

Donc, l’histoire des virus est l’histoire d’une invention continue de particules qu’on a déclarées virales alors qu’on n’avait pas les moyens de le prouver. C’est l’histoire d’un bluff et donc, d’une arnaque permanents.

Effet Lazare et mise sous perfusion

Etant impliqué dans la dissidence du SIDA, l’histoire de l’effet Lazare provoqué par les trithérapies revient de temps à autres. Il y a une autre catégorie de médicaments qui, en son temps, aurait soi-disant provoqué un effet Lazare : les antibiotiques. Ne croyant pas du tout à l’effet Lazare de la part de ces médicaments, je vois une autre raison à ce soi-disant effet Lazare, dans le cas, bien sur, où celui-ci serait une réalité : la mise sous perfusion. Voila ce que j’en dit dans le présent message posté sur le forum onnouscachetout.com.

« Pour l’effet Lazare, franchement, on peut se demander quelle est la réalité de cette histoire. Est-ce que ce n’est pas une légende balancée pour promouvoir les trithérapies ? Je n’ai pas l’impression qu’il y ait beaucoup de littérature sur le sujet. Donc bon…

Mais, s’il y a une réalité derrière ça, moi, je verrais plutôt ça de la façon suivante. Il est bien possible que l’effet Lazare soit du à un élément peu pris en considération lorsqu’on analyse la réussite d’une hospitalisation : la réhydratation via perfusion avec distribution en même temps de sels minéraux. Selon le Dr Fereydoon Batmanghelidj, les problèmes liés à la déshydratation peuvent être importants et beaucoup plus courants qu’on ne le croit. Et, à mon avis, les problèmes de manque de sels minéraux sont plus ou moins aussi dans ce cas. Du coup, peut-être bien que des gars qui arrivent à l’hôpital sont déshydratés et/ou manquent de sels minéraux. Et ces deux éléments leur sont fournis par la mise sous perfusion. Du coup, O miracle, tel Lazare, ils reviennent à la vie en quelques jours.

Pourquoi ça arrive avec les trithérapies et pas l’AZT ? Ben, probablement parce que les trithérapies sont beaucoup moins létales que l’AZT. Avec la mise sous doses massives d’AZT, les effets négatifs maintiennent le patient au 36ème dessous. Donc, pas d’effet Lazare quand on donne un poison violent.

On peut rapprocher ça avec l’effet Lazare qui est soi-disant apparu lors de l’introduction des antibiotiques. Peut-être que là aussi, on donnait avant des médicaments extrêmement agressifs et que l’introduction des antibiotiques, beaucoup moins létaux, a permis de donner un effet Lazare artificiel. C’est à dire, pas lié à l’efficacité de l’antibiotique, mais à sa moins grande létalité par rapport aux anciens médicaments.

Cela dit, en faisant une recherche sur l’histoire de la perfusion, il y a quelques temps, j’ai appris que celle-ci a été généralisée en Europe à partir de 1944, grace à la société Baxter. Avant, la perfusion demandait une attention trop importante de la part des infirmières (une infirmière devait rester au moins une heure pour voir si la perfusion se passait bien) et était apparemment peu employée. Bref, ça s’est généralisé juste au moment de l’introduction des antibiotiques. Du coup, on peut penser que l’effet Lazare des antibiotiques était en fait un effet Lazare de la perfusion.

Peut-être qu’il n’y avait même pas de problème de moins grande létalité des antibiotiques par rapports aux anciens médicaments, et que c’est la généralisation des perfusions qui est entièrement responsable de l’effet Lazare attribué aux antibiotiques. »