- ENTREE de SECOURS -



jeudi 30 juillet 2015

COP 21 : « circulez, il n’y a rien à dire ! »

Par Michel Gay,
le 30 juillet 2015 dans Environnement
 
Au nom de la protection du climat, la loi de transition énergétique accumule des promesses excessives, ruineuses et inefficaces.
.
La loi de transition énergétique (LTE) votée le 22 juillet 2015 par l’Assemblée nationale est destinée à préserver (au moins en apparence) les engagements électoraux du gouvernement. Elle s’efforce également de donner une image environnementale exemplaire de la France en prévision de la 21e conférence internationale sur le climat1 (COP 21) qui se tiendra à Paris en décembre 2015.
.
L’objectif principal de cette conférence est de parvenir à une réduction des émissions de gaz à effet de serre, et notamment du gaz carbonique (CO2), au niveau mondial. Mais, le gouvernement français continue à soutenir le développement des énergies renouvelables (EnR) électrogènes intermittentes, aux dépens de la production d’électricité nucléaire décarbonée et compétitive pour réduire la consommation des combustibles fossiles.
.
Or, il est mensonger d’attribuer une réduction des émissions de gazcarbonique au déploiement des EnR électrogènes en France.
.
L’analyse des productions actuelles des énergies intermittentes montre que les gigantesques programmes de développement de l’éolien et du solaire photovoltaïque prévus par la LTE (environ 10 milliards € d’investissements par an) augmenteront les émissions de gazcarbonique, comme en Allemagne.
.
Ces programmes conduiront aussi à une forte augmentation du coût de production et de distribution de l’électricité. Ce surcoût sera payé par le consommateur via une taxe, la contribution au service public de l’électricité (CSPE), qui finance désormais principalement le solaire et l’éolien. Si la LTE est mise en application sans modification des prix d’achat des productions intermittentes, cet « impôt innommé« 2 s’élèvera à près de 13 milliards € par an en 2025, et plus de 16 milliards € en 2030.
.
De plus, ce programme perturbera gravement la stabilité du réseau et amplifiera le déficit commercial du pays en augmentant les importations d’équipements (éoliennes, panneaux photovoltaïques), de gaz et même de charbon pour faire face aux fluctuations de la production.
.
Par ailleurs, les conséquences économiques et sociales de cette loi ont été largement masquées dans sa présentation.
.
Elle se caractérise par :
un gaspillage de la production nucléaire,
une gabegie à cause du développement non maîtrisé des énergies renouvelables électrogènes,
une ambition d’amélioration de l’efficacité énergétique techniquement irréaliste.
.
Au nom de la protection du climat, la LTE accumule des promesses excessives, ruineuses et inefficaces, alors que la France est déjà une des nations les plus performantes d’Europe en matière d’émission de gaz à effet de serre. Nos émissions de gazcarbonique du secteur électrique sont seulement d’environ 40 g/kWh3.
.
À titre de comparaison, l’Allemagne a émis 477 g/kWh (en 2013), soit… 12 fois plus de gazcarbonique que la France pour produire son électricité ! Elle a pourtant déployé un vaste parc d’énergies renouvelables électrogènes intermittentes et… elle a diminué sa production nucléaire. Mais elle a compensé ses choix par des centrales à gaz et au charbon pour répondre à la demande. L’essentiel de sa production électrique provient du lignite et de la houille (43,6% en 2014), mais une subtilité allemande consiste à séparer la production d’électricité à partir de lignite et de houille pour faire croire que les productions des renouvelables électrogènes sont en tête avec 25,8%…
.
La loi de transition énergétique ne donne que des objectifs généraux pour 2030. L’étude4 d’impact qui l’accompagne manque de justifications et sa faiblesse est flagrante. Pourtant des députés et des sénateurs ont voté cette LTE sur ce fondement. La faisabilité technique et l’estimation du coût de cette loi pour la collectivité sont tout simplement impossibles à établir.
.
Attendre de cette loi une réduction des émissions de gazcarbonique en même temps qu’une contribution à la défense du niveau de vie du consommateur est illusoire. Cette loi « idéologique » nie sciemment les réalités techniques et économiques pour plaire à une frange écologiste alliée du gouvernement, et aussi pour pouvoir « briller » à la COP 21, mais elle ne peut conduire qu’à un échec retentissant. « Circulez, il n’y rien à dire ! »
.
Organisation de la 21ème conférence des parties de la convention-cadre des Nations unies sur les changements climatiques à Paris début décembre 2015. Rapport de la Cour des comptes janvier 2012.
.
RTE, Bilan électrique 2014 : 19 MteqCO2 pour 540 TWh produits (35g/kWh), ou pour 465 Twh consommés (41 g/kWh).
.
« Quand la science ignore certains faits pour servir une idéologie, ce n’est plus de la science, c’est de la propagande pour un dogme ». Keneth Hilborn, 1996.
.

mercredi 29 juillet 2015

Au Japon, le personnel d’un aéroport va utiliser des combinaisons robotiques (vidéo)

Science et religion n’ont jamais fait bon ménage : retour sur la théorie de l’effet de serre et le réchauffement climatique, épisode 1

Il faut souffrir de notre vivant pour expier nos fautes originelles, c’est en résumé la philosophie des religions monothéistes afin d’assurer la survie de notre âme. C’est ce que nous préparent les écologistes, des souffrances, car nous sommes tous coupables de piller les ressources naturelles limitées qui nous sont offertes par la planète … Il s’agit en réalité de la résurgence d’une nouvelle religion que mettent en place insidieusement ces écologistes avec les mêmes outils qu’a utilisé pendant des siècles la religion catholique, c’est-à-dire par exemple l’Inquisition qui a conduit au bûcher Giordano Bruno parce qu’il avait osé contester le géocentrisme prôné par l’Eglise pour préserver symboliquement son pouvoir temporel. Les écologistes retournent à cet obscurantisme. Les papes défendaient la primauté cosmologique de la Terre, les écologistes veulent protéger la Terre comme un élément fini dont on ne peut pas extraire tout ce dont on a besoin de manière anarchique. De même que la religion a toujours profité de l’exploitation de la peur de l’au-delà, de même les écologistes brandissent la fin du monde, en d’autres termes il faut faire pénitence pour assurer un avenir à la planète et aux privilégiés qui échapperont à l’Armageddon planétaire climatique. En quelque sorte nous devons aujourd’hui, maintenant, tout de suite, expier nos fautes passées et à venir, une sorte de réactualisation du péché originel, nous serrer la ceinture pour préserver l’avenir de la planète. Car la planète Terre a plus d’importance aux yeux des écologistes que n’importe quel être humain …
.
Cette dimension planétaire que n’avaient jamais abordé les papes aux XVe et XVIe siècles – il faut préciser qu’ils prônaient la platitude de la Terre et que Rome se trouvait au centre de ce disque symbolique – les écologistes climatiques alarmistes ont repris ce concept de platitude de la Terre pour biaiser les calculs de flux du rayonnement en provenance du Soleil et je me permettrai d’en apporter une preuve (voir note) ainsi que la preuve de l’imposture de cette comédie funeste pour l’ensemble de l’humanité qu’est le réchauffement climatique proclamé par des pseudo-scientifiques dûment assermentés par les Nations-Unies (l’IPCC) pour terroriser le monde entier. La subtilité de ces pseudo-scientifiques réside dans une manipulation de la thermodynamique telle qu’elle est pourtant enseignée (encore ?) au lycée. Lorsque la Terre est éclairée, donc chauffée, par le Soleil il existe un décalage entre le maximum de la température atteinte à la surface du sol et le passage au zénith du Soleil. Pour rappel l’énergie incidente en provenance du Soleil est d’environ 1370 W/m2 lorsque le Soleil est au zénith au niveau des tropiques, c’est-à-dire lorsqu’il n’y a pas d’ombre portée, en d’autres termes lorsque le rayonnement solaire se trouve à l’exacte perpendiculaire avec la surface terrestre. Or la Terre est ronde et de plus elle tourne sur elle-même en 24 heures. En tenant compte de ces données que personne ne peut contester, à moins de risquer le bûcher comme Giordano Bruno, il se trouve que la Terre réémet à la faveur de ce cycle jour-nuit la totalité de l’énergie qu’elle a reçu en provenance du Soleil et au final la Terre se comporte immuablement comme un corps noir à la température de –18 °C.
.
Les tenants (ou inventeurs) de la théorie de l’effet de serre, considérant que la température de la Terre au sol se trouve être en moyenne (et il faut garder en mémoire cette fausse notion de température moyenne) de + 15 °C, il « doit » exister un « effet de serre » pour que l’on puisse constater une telle situation. Le subterfuge utilisé pour justifier l’existence d’un effet de serre a consisté à oublier que dans la réalité l’atmosphère est aussi soumise au champ gravitationnel terrestre et que par conséquent la température moyenne au sol de 15 °C s’explique par l’existence du gradient de pression et de densité de l’atmosphère en fonction de l’altitude qu’on appelle gradient adiabatique, j’en ai déjà dit un mot dans plusieurs billets de ce blog. On est effaré devant une telle ignorance du fonctionnement de l’ensemble harmonieux que constituent la Terre et son atmosphère aussi ténue que celle de Pluton dont la sonde interplanétaire de la NASA nous a gratifié il y a quelques jours de cette image surréaliste :
Capture d’écran 2015-07-26 à 21.36.42
De loin la Terre ressemble à ça. Les écologistes, Greenpeace en tête, considèrent que nous perturbons notre atmosphère en raison de notre activité industrielle délirante qui produit un gaz bénéfique pour l’ensemble du maintien de la vie, le gaz carbonique, et que ce gaz est prétendument considéré comme néfaste car il serait susceptible de perturber l’équilibre thermique de l’atmosphère. J’ai fait une récente recherche sur les effets supposés négatifs de ce gaz sur les écosystèmes. En dehors de tous les articles pseudo-scientifiques carrément orientés idéologiquement vers l’hypothèse de l’effet de serre, ce gaz est bénéfique pour tous les organismes vivants dont le métabolisme en dépend. Globalement toute forme de vie sur la Terre, y compris l’espèce humaine, est dépendante du gazcarbonique. Sans gazcarbonique pas d’herbe, pas d’arbres, pas de fruits, pas de blé, pas de plancton donc pas de poissons, pas de coraux, et paradoxalement pas de pétrole ni de charbon dont la combustion restitue à la planète ce que la géologie a piégé avec le temps de même que les océans piègent le méthane généré par les fermentations bactériennes des boues profondes sous forme d’hydrates que l’on est sur le point d’exploiter de manière rentable. Les boues d’estuaire sont de formidables machines à fabriquer des hydrocarbures avec la collaboration de bactéries puisant leur énergie depuis le rayonnement solaire. Sans gazcarbonique aucune vie n’est donc possible sur la Terre. Les végétaux ont paradoxalement pris du retard dans le rééquilibrage de l’atmosphère avec l’accumulation débordante d’oxygène dont ils ne peuvent rien faire. La RUBISCO, cet enzyme le plus abondant sur Terre (voir note en fin de billet) dont le rôle est de mettre à profit la présence de gazcarbonique pour le piéger et le transformer en molécules utiles, cet enzyme fascinant est d’une rare inefficacité parce qu’il y a trop d’oxygène dans l’atmosphère !
Voici l’oubli des écologistes :
Capture d’écran 2015-07-26 à 19.35.45
Comme il fallait trouver un bouc-émissaire aux délires malthusiens de ces fanatiques d’un nouveau genre, le gazcarbonique était et constitue maintenant le meilleur argument pour terroriser les populations. Il y avait bien eu les CFCs et la destruction de la couche d’ozone matérialisée par le fameux « trou » au dessus de l’Antarctique. Une fois l’interdiction des CFCs obtenue, le gazcarbonique fut déclaré principal acteur de cet effet de serre qui s’explique par cette différence de température entre le sol et la température de – 18 °C du corps noir que constitue la Terre isolée dans l’espace. Si encore une fois on fait une recherche dans la littérature scientifique non caviardée par les écologistes on ne trouve aucune preuve d’un rôle majeur du gazcarbonique dans un putatif réchauffement de la planète. On se trouve donc aujourd’hui dans une situation identique à celle des scientifiques du XVIe siècle : toute contestation du dogme du réchauffement climatique global porte atteinte aux fondements de l’église de scientologie climatique.
.
Rassurez-vous, vous ne grillerez pas comme des toasts (cf Christine Lagarde, Forum de Davos 2014), aux dernières nouvelles une étude très sérieuse publiée par la Royal Astronomical Society le 9 juillet 2015 et qui fera l’objet d’un prochain billet de ce blog prévoit que dès 2020-2025 la Terre entrera dans une ère glaciaire prolongée qui pourrait durer bien au delà de 2050. Tout ça en raison des fluctuations de l’activité solaire. Pour le coup le gazcarbonique n’aura rien à voir et dès lors, si ces pseudo-scientifiques étaient logiques avec eux-mêmes ils devraient au contraire encourager la production de gazcarbonique !
.
Notes :
Note 1 L’équation :
Capture d’écran 2015-07-27 à 12.20.06
décrit l’état d’un gaz, ici l’atmosphère sec composé d’azote, d’oxygène, d’argon et de quantités infinitésimales de gazcarbonique, néon, hélium, xénon et krypton, dans un champ gravitationnel, celui de la Terre. Ici g est l’accélération de la pesanteur (9,8 m/ s2) et Cp la capacité thermique du gaz (pour l’atmosphère sec 1 joule/ gramme/ °K) , la température T exprimée en °K à une altitude donnée h s’exprime par rapport à la température To mesurée à une altitude ho. Le gradient de température établi par la compression adiabatique de l’atmosphère est de l’ordre de 10 °K ou centigrades (peu importe) par kilomètre. Il ne faut pas oublier que l’atmosphère n’est pas un système figé et que les courants de convection, les vents, la vapeur d’eau et les nuages contribuent à la dissipation vers l’espace de l’énergie solaire atteignant la surface de la Terre.
.
Note 2 La théorie de l’effet de serre stipule que la Terre est soumise au rayonnement solaire dans son intégralité et que l’approximation consistant à considérer la partie effectivement ensoleillée de la Terre est plate, ce qui n’est valable, à un instant t de la journée quand le soleil est au zénith, que pour une surface équivalente à environ celle des USA, ce qui introduit une erreur grossière dans les calculs de température au sol. De plus, établir une moyenne diurne des températures est un non-sens scientifique car celles-ci dépendent à l’évidence de l’angle d’incidence du rayonnement solaire. Enfin négliger les phénomènes de refroidissement au cours de la nuit constitue une autre approximation encore plus grossière. En effet, comme l’illustre la figure suivante, il ne fait pas « plus chaud » quand le Soleil passe au zénith et il ne fait pas « le plus froid » à minuit mais les températures se rééquilibrant en permanence, il fait « le plus chaud » en début d’après-midi et « le plus froid » quelques heures avant l’aurore :
Capture d’écran 2015-07-27 à 13.10.46
Note 3 La RUBISCO ou ribulose 1,5 bisphosphate carboxylase catalyse la fixation d’une molécule de gazcarbonique sur ce sucre phosphaté pour former deux molécules de 3-phosphoglycérate. L’un des 3-phosphoglycérates est dirigé vers le métabolisme général et l’autre est recyclé pour reformer du ribulose. Ce cycle dit de Calvin, rien à voir avec le Genevois du XVIe siècle, est un gros consommateur d’énergie qui est fournie par le rayonnement solaire conduisant à la cassure de l’eau pour libérer de l’oxygène et des équivalents réducteurs à la cellule photosynthétique. Ces deux voies, carboxylation et coupure de l’eau, ne coexistent pas dans le même compartiment cellulaire car l’oxygène a la fâcheuse tendance à inhiber l’activité de la RUBISCO.
.
Comme disait Goebbels « plus le mensonge est gros, plus il passe »
.

mardi 28 juillet 2015

Loi sur le renseignement, surveillance permanente

Metamag
lun., 27 juil. 2015 04:09 UTC
.
Radars sur les routes, caméras de surveillance à tous les coins de rue. Grande est l'impression d'être en permanence surveillés. Avec la nouvelle loi sur le renseignement, jusqu'où les dérives liberticides peuvent-elles aller ?
.
La nouvelle loi autorise l'installation sur les réseaux et les serveurs de « boîtes noires », reposant sur des technologies d'« inspection des paquets en profondeur » (Deep Packet Inspection), qui permettent de lire les conversations privées sur Internet, d'intercepter et de scanner toutes les communications pour détecter, grâce à des algorithmes tenus secrets, les propos « suspects » ou les comportements« bizarres ». Elle autorise aussi, sans qu'il y ait besoin de solliciter l'autorisation d'un juge, la sonorisation des domiciles, l'intrusion informatique pour siphonner le contenu des ordinateurs, les « valises IMSI-catcher » (fausses antennes-relais qui interceptent la totalité des conversations téléphoniques dans un périmètre donné), les « keyloggers » (logiciels permettant de lire en temps réel ce qu'une personne tape sur son clavier), la pose de balises sur les voitures, la géolocalisation des personnes, des véhicules et des objets, etc.
.
Les « boîtes noires » permettent aussi d'analyser l'ensemble des« métadonnées », c'est-à-dire toutes les traces que l'on laisse derrière soi en téléphonant ou en utilisant Internet. La valeur d'une donnée étant proportionnelle au carré du nombre de données auxquelles elle est reliée, le ramassage toujours plus large des « métadonnées » permet, non seulement de prédire les comportements d'un groupe d'individus aux caractéristiques déterminées, mais de connaître tout de la vie des citoyens : leurs relations, leur correspondance, leur pratique des réseaux sociaux, leurs opérations bancaires, leurs déplacements, leurs achats, leurs abonnements, leur mode de vie, leur âge, leurs opinions politiques, etc.
.
Il ne s'agit donc plus de cibler, mais de quadriller
.
En dépit des assurances lénifiantes des pouvoirs publics, c'est bien à une surveillance de masse des citoyens que l'on est en train d'assister, alors même qu'il n'existe pour l'immense majorité d'entre eux aucune suspicion de lien avec une quelconque infraction. Le régime d'exception devient ainsi la norme. La vie privée n'existe plus et les libertés publiques sont menacées par une loi qui se fixe pour objectif de savoir si chacun d'entre nous connaît des gens qui connaissent des gens qui connaissent des gens qui ne sont pas « clairs ». Tradition « républicaine »oblige, on en revient à la loi des suspects de 1793. Les citoyens se plaignent non sans raison de ne pas être entendus. À défaut d'être entendus, ils seront écoutés.
.
Les citoyens, on le sait de longue date, sont toujours prêts à abandonner des pans de liberté pour des semblants de sécurité. D'où le Patriot Act américain. Manuel Valls utilise d'ailleurs le même argument : c'est pour lutter contre le terrorisme. Benoît Hamon ajoutait, l'an dernier, que « si on n'a rien à cacher, il n'y a pas de problème à être écouté ».
.
Rappel historique. Le 8 décembre 1893, pour venger Ravachol, guillotiné l'année précédente, l'anarchiste Auguste Vaillant faisait exploser à la Chambre des députés une bombe qui ne fit aucune victime. Quelques jours plus tard, les parlementaires adoptaient des lois antiterroristes, connues bientôt sous le nom de « lois scélérates », prévoyant la suppression de la liberté de la presse et l'interdiction de tout rassemblement anarchiste, même dans un lieu privé. Le banquier et futur président de la République Casimir Périer précisait à cette occasion que la « liberté d'expression ne s'applique pas aux ennemis de la civilisation ». Cela ne vous rappelle rien ? Terrorisme, « civilisation », restriction des libertés, tout y est. La « lutte contre le terrorisme » est seulement un prétexte, au demeurant très classique. Aucune des mesures de la nouvelle loi n'aurait permis d'éviter les attentats de ces derniers mois. Au demeurant, on ne déploie pas un chalut pour attraper une poignée de sardines.
.
Quant à ceux qui disent que cela ne les gêne pas car « ils n'ont rien à cacher », ils méritent assurément le GPNC (Grand Prix de la naïveté citoyenne). Ce sont les mêmes idiots qui regardent les jeux télévisés ou qui achètent au bureau de tabac des cartes à gratter dans l'espoir de faire fortune. En disant cela, ils renoncent d'eux-mêmes à leurs libertés, sans réaliser que les motifs allégués par la loi (de la « prévention des violences collectives » à celle « de la reconstitution ou du maintien de groupements dissous ») sont suffisamment flous pour permettre, selon les circonstances, de placer sous surveillance policière toute action concertée visant à changer les structures politiques, sociales ou économiques du pays, tous les mouvements sociaux revendicatifs, tous ceux qui ont des opinions dissidentes ou qui se permettraient de contester d'une façon ou d'une autre l'ordre établi, que ce soit les manifestants de Sivens et de Notre-Dame-des-Landes ou ceux de la Manif pour tous.
.
Nos gouvernants veulent pouvoir écouter tout le monde, mais ils sont eux-mêmes écoutés, notamment par les Américains. Comment l'Élysée aurait-il dû réagir aux récentes révélations faites à ce sujet par Julian Assange ?
.
François Hollande aurait pu exiger le rappel immédiat de l'ambassadrice américaine à Washington. Il aurait pu accorder le droit d'asile à Julian Assange, voire à Edward Snowden. Il aurait pu annoncer que la France se retire de la négociation sur le traité transatlantique. Il n'a rien fait de tout cela, parce qu'il est le vassal des États-Unis, dont il dépend même désormais pour conduire les opérations où nos forces armées sont engagées. Depuis que la France a réintégré l'OTAN, ayant perdu toute indépendance, elle s'est du même coup interdit toute réaction.
.

lundi 27 juillet 2015

Pr Luc Montagnier: "Les vaccinations de masse ont été désastreuses"

26 juillet 2015
 .
« Simplement parce qu’on veut éviter les problèmes, on recule devant la reconnaissance de la réalité, et ça c’est anti-scientifique, totalement anti-scientifique. »
Pr Luc Montagnier, Prix Nobel de Médecine
 .
« …Le déni ! Ce qui est dommage, c’est que l’attitude des pouvoirs publics et des institutions dépendant du public ou de leurs représentants préfèrent faire un déni des problèmes plutôt que de les traiter. Il y a des exemples patents, le nôtre par exemple, mais il y en a d’autres. Il y a les rapports avec les effets secondaires des vaccinations. »
.
« Ce n’est pas en niant ces effets secondaires qu’on va aider la vaccination, au contraire. On va tuer les vaccinations qui sont peut-être très utiles.
.
Il faut reconnaître qu’il y a des personnes, des enfants qu’il ne faut pas vacciner dans certaines circonstances. Il ne faut pas que la vaccination soit une vaccination de masse. Les vaccinations de masse ont été désastreuses. On se souvient de l’hépatite B des enfants en âge scolaire par exemple, ou les vaccinations antipolio chez les enfants africains par exemple, sans discrimination.
Alors, ça demande davantage d’efforts médicaux, mais c’est très important qu’il n’y ait aucun mort par vaccination. Même une seule mort serait de trop ou une maladie grave, ou une maladie grave handicapant à vie l’enfant.
.
Si on fait un déni de ces événements, simplement parce qu’on veut éviter des problèmes, on recule devant la reconnaissance de la réalité, et ça c’est anti-scientifique, totalement anti-scientifique. »
VIDEO : interview du Pr. Luc Montagnier (TV locale Strasbourg) :

Et ci-dessous, une des nombreuses vidéos qui confirment à 100% les vues du Professeur Montagnier sur les douloureux (et inutiles) fiascos des vaccinations de masse, par définition aveugles...

Voir aussi
 .











« Les campagnes d'éradication reposant entièrement ou essentiellement sur la vaccination de masse furent couronnées de succès dans quelques pays mais échouèrent dans la plupart des cas. [...] ...il fallait absolument changer de stratégie. »
 .
Demandez-vous quel virologiste, quel immunologiste ou infectiologue a fait l'effort de lire ce rapport avant de vous préconiser des vaccins tous azimuts? 
.

vendredi 24 juillet 2015

Un superbe Look à la sécheresse historique de Californie - Vues du ciel

Soumis par Tyler Durden le 23/07/2015 16:55-0400
.
Laid anneaux bruns où les ondes utilisées à tour à la rive. Docks secs se trouvant sur limon desséché. Rampes stériles. Ruissellement de l'eau." Ce sont juste certains de l'équipe du département des ressources en eau de la Californie images troublantes scie dans une visite aérienne du lac du Nord de la Californie Folsom, réservoirs Lake Oroville et Shasta a publié cette semaine...
.
La timelapsed des vues aériennes spectaculaires il y a juste un an montrent le niveau de dévastation déjà... et ce n'est pas sur le point de faire mieux...
.

MK-Ultra: témoignage de Karen Wetmore, torturée par la CIA dans son adolescence (France 3 - 07/2015)


MK-Ultra: le témoignage de Karen Wetmore... par JaneBurgermeister
mardi 21 juillet 2015
.
Un reportage accablant diffusé sur une chaîne publique pour une fois.
.
Les personnes qui souffrent de maladies mentales font de bons sujets pour les expérimentations MK parce qu'elles sont souvent privées de leurs droits et qu'il est facile de les discréditer par la suite en mettant leurs témoignages sur le compte de leur maladie. Karen Wetmore est une de ces victimes du programme MK-Ultra, elle est l'auteur du livre "Surviving Evil: CIA Mind-Control Experiments in Vermont". Lors de son adolescence, au début des années 70, elle a été internée pour "schizophrénie" dans un hôpital psychiatrique du Vermont. Un long séjour dont elle n'a gardé que des souvenirs fragmentés.
.
Ce n'est qu'à l'âge adulte qu'elle a été diagnostiquée avec un trouble dissociatif de l'identité, un trouble de la personnalité qui a très certainement été renforcé par ces expérimentations sur le contrôle mental... Les enfants ayant déjà des troubles dissociatifs étant des proies idéales pour ce genre d'expérimentations MK. D'après le psychiatre Colin Ross qui a enquêté sur le dossier de Karen Wetmore, elle aurait pu être sélectionnée parce qu'elle souffrait déjà d'un trouble dissociatif dû à des abus sexuels répétitifs.
.

jeudi 23 juillet 2015

Propagande climatique : du biais des mesures aux biais cognitifs ; torturons les chiffres, il finiront par tout avouer !


Eloge de la complexite
jeu., 23 juil. 2015 04:47 UTC
Image
« Les chiffres sont des êtres fragiles qui, à force d'être torturés, finissent par avouer tout ce qu'on veut leur faire dire ». (Aphorisme attribué au démographe Alfred Sauvy)

Du biais des mesures aux biais cognitifs

Les longues séries de données climatiques comportent des biais. Les biais sont des erreurs systématiques dues à des imperfections du dispositif instrumental et/ou aux conditions inadaptées dans lesquelles l'évaluation ou la mesure a lieu. La recherche obsessionnelle du signal anthropique dans les données climatiques conduit à un biais tout aussi redoutable : le biais de confirmation qui incite à chercher constamment des raisons de continuer à croire ce que l'on croit déjà.

Lors d'une conférence donnée au Bureau des Longitudes le 7 octobre 2009[1], Pierre Morel fondateur du laboratoire de météorologie dynamique (CNRS), parle avec humour de la façon dont biais cognitifs et biais instrumentaux s'additionnent :
« On voit un réchauffement progressif qui se monte à 0,6°C en un siècle. Mais sur ce 0,6°C en un siècle, il y en a 0,4 qui sont des corrections apportées pour compenser les défauts des appareils de mesure ! Le signal est faible. S'il y en a un, il est bruité... et par conséquent la scrutation extrêmement attentive pour ne pas dire obsessionnelle de ces diagrammes de variations séculaires de tel ou tel paramètre, notamment la température est un tout petit peu... dangereuse, ... Il n'y a pas assez d'information pour en tirer des conclusions... Le climat, c'est un peu comme les tests de Rorschach, on y trouve ce qu'on y cherche. On y voit, on y trouve ce qu'on veut. Il suffit de vouloir quelque chose : on le trouve »
Cet article fournit quelques exemples de la façon dont les données sont « soumises à la question » pour leur faire avouer... l'origine anthropique du réchauffement climatique.

La courbe en forme de crosse de hockey

La querelle climatique s'est longtemps fixée sur la crosse de hockey, une courbe censée reproduire les variations de la température moyenne du globe depuis 1000 ans. Dans le premier rapport du GIEC (1990), le graphique du climat des 1100 années précédentes faisait apparaître une période médiévale (Optimum Médiéval) qui était un peu plus chaude que la période présente ainsi qu'une période plus froide qui s'est écoulée entre la Renaissance et le milieu du 19ème siècle, baptisée petit âge glaciaire (PAG).
Image
L'existence d'une période plus chaude que la période actuelle, en l'absence de gaz à effet de serre anthropiques, fut considérée comme gênante par ceux qui soutenaient que le réchauffement actuel ne pouvait être expliqué que par les activités humaines. Mann et al (1998, 1999) utilisèrent des données dendrochronologiques (enregistrements de cernes d'arbres) et produisirent une reconstruction des températures de l'hémisphère Nord qui occultait l' « optimum médiéval » et le « petit âge glaciaire ».

Cette courbe connue sous le nom de crosse de hockey montrait un léger refroidissement pendant environ mille ans, aboutissant à un réchauffement rapide commençant au XIXème siècle. La courbe de Mann a été mise en avant dans le rapport suivant du GIEC (1995) suggérant que le réchauffement actuel était sans précédent depuis 1000 ans.
Image
Cette courbe a été depuis invalidée : il est intéressant de noter que les critiques les plus pertinentes de la courbe de Mann provinrent de statisticiens extérieurs au domaine de la recherche climatique : (McIntyre et McKitrick, 2003, 2005a, b). Le 4ème rapport du GIEC ne mentionna plus la crosse de hockey, mais l'affirmation que le réchauffement actuel est sans précédent, est restée.

Et s'il n'y avait pas de hiatus, après tout !

Depuis 1998 (année d'un épisode El Niño particulièrement intense), la terre ne se réchauffe plus alors mêmes que les gaz a effet de serre (GES) n'ont pas cessé d'être répandus dans l'atmosphère. Ce plateau de température est reconnu par le GIEC sous le nom de hiatus[2]s car il s'agit d'une anomalie non prévue par ses modèles. Embarrassés par cette réalité, certains scientifiques avancent diverses hypothèses pour expliquer le « hiatus ».

La chaleur perdue serait enfouie dans les couches profondes de l'océan

Pour Kevin Trenberth [3], cette « chaleur perdue » (l'énergie supplémentaire introduite dans le système climatique qui ne se manifeste pas un réchauffement) serait enfouie dans l'océan profond. En mai 2013 Trenberth et 2 co-auteurs (Balmaseda, et Källén) ont ré-analysé les données climatique des 50 dernières années et « montré » que au cours des 10 dernières années 30 % du réchauffement des océans s'est produit en dessous de 700 m de profondeur.

Vu le caractère lacunaire des données d'observations (les balises ARGOS n'ont été déployées qu' à partir de 2007), cette théorie a nécessité une ré-analyse des données très sophistiquée (appelée « assimilation ») qui mixe données d'observations et prévisions de modèles en vue de fournir (en principe) une estimation de qualité supérieure.

Le hiatus : un artefact des mesures ?

Plus récemment (juin 2015) des scientifiques de la NOAA ont publié dans Sciences [4] une étude dans laquelle ils affirment avoir découvert 3 biais dans les mesures des températures des surfaces de la mer dont l'élimination permet d'annihiler le « hiatus ». Constatant que les températures mesurées par les bateaux sont plus élevées que celles relevées par les bouées ARGOS, celles-ci ont ainsi été ajustées à la hausse.

Selon que les mesures sur les navires ont été effectuées directement à partir des canaux d'admission du moteur ou par prélèvement de l'eau dans un seau avant cette même mesure, le résultat est très légèrement différent. Les chercheurs ont estimé ce 2ème biais et l'ont intégré à leur analyse. Enfin, ils ont pris en compte de nouvelles bases de données des températures relevées par des stations météorologiques terrestres « améliorant » ainsi la couverture spatiale de nombreuses zones, dont l'Arctique, où les températures ont augmenté rapidement ces dernières années.

Patrick J. Michaels, Richard S. Lindzen et Paul C. Knappenberger[5] ont fait observer que la correction à la hausse des bonnes données (produites par ARGOS) pour les ajuster aux « mauvaises » données » (celles des navires) était une pratique spécieuse : la densification du réseau des balises ARGOS durant les 2 décennies passées ne pouvait qu'introduire un tendance au réchauffement dans la série de données. L'introduction de températures de stations terrestres de l'arctique leur semble aussi critiquable : en effet, la plus grande partie de l'océan arctique est recouvert par la glace, même en plein été, avec une température de surface voisine de 0°C. Introduire des données terrestres dans celles de l'océan induit nécessairement un réchauffement.

L'homogénéisation des données

Les techniques d'homogénéisation visent à extraire le signal climatique en supprimant au mieux les ruptures d'homogénéité (changements des capteurs ou des pratiques d'observation, déplacement des sites d'observation ou modifications de leur environnement). La nécessité de retraiter les données ne fait pas de doute; ce qui est surprenant, c'est que les corrections vont toujours dans le sens du réchauffement.

Richard Lindzen Professeur de Climatologie au MIT (et auteur principal du chapitre 7 du 3ème rapport du GIEC) écrit à ce sujet [6] :
« que des corrections aient besoin d'être appliquées aux données climatiques n'est pas du tout surprenant, mais que ces corrections aillent toujours dans le sens « souhaité » est hautement improbable. Cette situation peut faire penser à une malhonnêteté évidente, mais il est tout à fait possible que beaucoup de scientifiques imaginent, dans le contexte scientifique actuel, que le rôle de la science est de confirmer le paradigme de l'effet de serre pour le changement climatique »
Exemples en France et aux États-Unis.

En France

Avant leur homogénéisation les moyennes annuelles des températures maximales quotidiennes enregistrées en France tout au long du 20ème siècle indiquaient un refroidissement de 1,2 °C. A la suite de l'homogénéisation c'est désormais un réchauffement général de 0,7°C qui est constaté.

Météo-France donne l'exemple de la station de Pau-Uzein pour illustrer les performances de sa méthode d'homogénéisation : [7].
Image

Températures France
Météo France indique qu'après correction, les données de température sont désormais tout à fait cohérentes avec la tendance globale au réchauffement et précise qu'on retrouve bien sur cette série chronologique les trois phases généralement observées : une croissance modérée de la température jusqu'au début des années 50, une stagnation ou une diminution jusque vers 1970, et ensuite une forte croissance.

Les cartes ci-dessous illustre les résultats de l'homogénéisation au niveau de la France entière.
Image
Aux États-Unis

Dans un article publié en août 1999 sur le site de la NASA[8], James Hansen relève que la décade la plus chaude aux États-Unis est 1930-1940 et l'année la plus chaude 1934.
Image

Températures USA
James Hansen note : aux Etats Unis il y a eu assez peu de changement de températures dans les 50 dernières années malgré les émissions de Gaz à effet de serre en rapide augmentation ; en fait il y a même eu un léger refroidissement. Comme en France l'homogénéisation aux Etats Unis a eu pour effet faire apparaître un réchauffement que montrent les courbes ci-dessous [9] :
Image
L'homme est le principal responsable de la fonte des glaciers depuis 1990

C'est le titre d'un article du Monde.fr du 15 août 2014 en référence à une étude du glaciologue Ben Marzeion (Université d'Innsbruck) qui quantifie le pourcentage des pertes de masse des glaciers imputable aux activités humaines :

- entre 1851 et 2010 : 25% (avec une marge d'erreur de + - 35 %)
- entre 1991 et 2010 : 69% (avec une marge d'erreur de +-24 %).

Même sans connaître la méthodologie de cette étude, on imagine que les données ont carrément été suppliciées pour parvenir à de tels résultats (avec des marges d'incertitude conséquentes il est vrai). D'autant que dans une précédente étude (2012)[10], le même auteur indiquait que notre connaissance du comportement des glaciers est fortement limitée par l'insuffisance des observations ; il écrit :
« On ne dispose de mesures directes que pour 300 glaciers ; le nombre de glaciers sur lesquels les données portent sur une période de plus de 30 ans est encore plus restreint ; or le nombre total de glaciers dans le monde est supérieur à 20 000.

... Même une accentuation de nos efforts pour augmenter le nombre d'observations ne pourrait améliorer substantiellement la situation dans les prochaines décades »
Conclusions

Pour conclure citons l'océanographe Carl Wunsch qui dans un article intitulé : « Climate change as an intergenerational problem » publié en mars 2013 dans PNAS[11] a écrit :
« Rares sont les scientifiques qui prétendraient pouvoir comprendre le phénomène physique même le plus trivial sans avoir observé son évolution sur les échelles de temps nécessaires...

...le système climatique change à toutes les échelles de temps (de quelques années à l'âge de la terre), alors même que nous ne disposons que de données d'observations brèves et récentes ».
Rappelons que :

- Le thermomètre n'a été inventé qu'au début du 17e siècle
- Les relevés de température par satellite ont commencé en 1979
- La hausse du niveau de la mer n'est surveillée par satellite que depuis 1992
- Le déploiement complet des balises ARGOS (permettant une analyse de la température et de la salinité des eaux de 0 à 200 mètres) n'a été achevé qu'en 2007
- Les bilans de masse des glaciers du Groenland et de l'Antarctique n'ont commencé qu'au début du 21e siècle.

Carl Wunsch de conclure :
« La compréhension du changement climatique est un problème pour plusieurs générations. Les scientifiques d'aujourd'hui devraient prendre en compte les besoins des générations suivantes, plutôt que de se concentrer uniquement sur leur productivité scientifique immédiate ».
Notes :
[1] Bureau des longitudes 07 octobre 2009 (http://www.canalacademie.com/ida5110-Rechauffement-planetaire-et-science-du-climat.html)
[2] Dans son 5ème rapport ( 2013), le GIEC) précisait qu'entre 1951 et 2012, la tendance moyenne au réchauffement avait été de 0,12 °C par décennie, alors qu'entre 1998 et 2012, la tendance n'avait été que de 0,05 °C par décennie
[3] Climatologue au « National Center for Atmospheric Research » (USA)
[4] Thomas Karl and al : « Possible artifacts of data biases in the recent global surface warming hiatus »
[5] http://judithcurry.com/2015/06/04/has-noaa-busted-the-pause-in-global-warming/
[6] Richard Lintzen Science du Climat : Est-elle, de nos jours, apte à répondre aux questions ? (septembre 2008)
[7] http://www.cnrs.fr/cw/dossiers/dosclim1/biblio/pigb12/05_rechauffement.htm
[8] Whither U.S. Climate? By James Hansen, Reto Ruedy, Jay Glascoe and Makiko Sato — August 1999 (http://www.giss.nasa.gov/research/briefs/hansen_07/)
[9] http://judithcurry.com/2014/07/07/understanding-adjustments-to-temperature-data/
[10] Past and future sea-level change from the surface mass balance of glaciers » (novembre 2012).
[11] http://www.pnas.org/content/110/12/4435.full
 
.
http://fr.sott.net/article/26053-Propagande-climatique-du-biais-des-mesures-aux-biais-cognitifs-torturons-les-chiffres-il-finiront-par-tout-avouer

mercredi 22 juillet 2015

Le Gouvernement des États-Unis décrète $ 133 millions de vaccins antivarioliques

par Staff
le 8 juillet 2015
.
Bavarian Nordic a/s a annoncé que l'Advanced Biomedical Research et Development Authority (BARDA), une division de l'US Department of Health & Human Services, a commandé une fourniture en gros de IMVAMUNE ® non répliquées variole végard, une valeur de USD 133 million.
.
En vertu de cette nouvelle commande, qui est une extension d'un contrat existant, Bavarian Nordic fabriquera et emmagasiner une quantité en vrac de IMVAMUNE. Ce matériau en vrac pourraient être convertis en IMVAMUNE lyophilisé à une date ultérieure, une fois que le procédé de fabrication lyophilisation a été transféré à une marge commerciale et est approuvé par les autorités américaines.
.
Cette ordonnance a été rendue possible par financement antérieur de BARDA, qui a permis d'identifier un nouveau processus pour prolonger la durée de vie de majeure partie végard. Ce procédé offre désormais une plus grande souplesse pour le stockage de nos vaccins par les gouvernements. L'approvisionnement en vrac pourrait représenter la transition initiale à une préparation lyophilisée de IMVAMUNE, une fois qu'une autorisation d'utilisation d'urgence a été accordée", a déclaré Paul Chaplin, Président et Chief Executive Officer de Bavarian Nordic. « Notre partenariat fructueux de la décennie avec BARDA ouvre la voie à la préparation publique améliorée health , assurer à tous les Américains sont protégés contre la variole, y compris les personnes ayant des systèmes immunitaires affaiblis et troubles de la peau comme l'eczéma. »
.
La version lyophilisée de IMVAMUNE devrait permettre de réduire les coûts de gestion du cycle de vie basés sur une plus longue durée de vie et remplacera la version liquide congelé qui est actuellement stockée dans le stock stratégique National US (SNS). La version lyophilisée est bien placée pour satisfaire les besoins à long terme du gouvernement américain pour suffisant non répliquées variole végard de 66 million américains, incluant ceux pour lesquels une réplication de variole végard n'est pas recommandé de protéger et de leurs contacts familiaux .
.
.