Catégorie : ENVIRONNEMENT

  • Notre-Dame, un bug informatique désigne le mauvais coupable
    Notre-Dame, un bug informatique désigne le mauvais coupable
    Un mystérieux bug informatique aurait envoyé les agents de sécurité au mauvais endroit lors de la première alerte incendie à Notre-Dame, retardant de 38 minutes l’intervention des pompiers. Cette défaillance technique soulève des questions troublantes sur la vulnérabilité de nos systèmes de protection du patrimoine.

    18h20, lundi 15 avril. Une alarme retentit dans la cathédrale Notre-Dame. Un agent de sécurité se dirige vers le lieu indiqué par le système informatique. Il ne trouve rien. 23 minutes plus tard, une seconde alerte. Cette fois, c’est trop tard. La charpente huit fois centenaire part en fumée.

    Ce qui me frappe dans cette affaire, c’est l’incroyable enchaînement de défaillances. Un système de détection ultramoderne qui dysfonctionne au moment crucial. Des agents de sécurité envoyés au mauvais endroit. Et surtout, ce silence assourdissant sur les vraies causes de ce bug.

    La chronologie qui ne colle pas

    Reprenons les faits établis. Le système de détection enregistre une anomalie à 18h15. Cinq minutes plus tard, à 18h20, la première alerte incendie se déclenche. Pour moi, cette alerte correspond clairement à une détection positive. Le feu est là, quelque part dans la cathédrale.

    Mais voilà où ça se complique. Un « bug informatique » – ces guillemets ne sont pas anodins – envoie l’agent de sécurité au mauvais endroit. Il effectue sa levée de doute, ne voit rien, et repart. Le système a menti, ou plutôt, le système a été induit en erreur.

    La deuxième alerte survient à 18h43. Cette fois, impossible d’ignorer la réalité : la charpente est en feu. Les pompiers arrivent à 18h58, soit 38 minutes après le premier signal d’alarme. 38 minutes pendant lesquelles un incendie peut transformer une intervention simple en catastrophe nationale.

    Ce délai pose question. Dans n’importe quel bâtiment moderne, et a fortiori dans un monument historique de cette importance, la procédure est claire : alerte = vérification immédiate + appel aux secours si le moindre doute subsiste. Pourquoi cette procédure n’a-t-elle pas été suivie ?

    Le bug qui arrange bien des gens

    Patrick Chauvet, recteur de la cathédrale, évoque « sérieusement » l’hypothèse d’un bug informatique à l’origine de l’incendie. Permettez-moi d’être sceptique. Un bug peut expliquer une mauvaise localisation. Un bug peut retarder une intervention. Mais un bug qui déclenche un incendie ? C’est pousser la responsabilité technologique un peu loin.

    Ce qui me dérange profondément, c’est cette tendance à tout mettre sur le dos de l’informatique. C’est pratique : pas de responsable humain, pas de négligence, juste une machine qui dysfonctionne. Circulez, il n’y a rien à voir.

    Sauf que les systèmes informatiques, ce sont des humains qui les conçoivent, les installent, les maintiennent. Un bug, ce n’est jamais un acte de Dieu. C’est soit une erreur de programmation, soit un défaut de maintenance, soit – et c’est plus inquiétant – une vulnérabilité exploitée.

    Les zones d’ombre de l’enquête

    Plusieurs éléments troublants émergent de mes sources. D’abord, on cherche obstinément une cause extérieure : l’échafaudage, l’ascenseur, un point chaud quelconque. Pourtant, d’après mes informations, l’incendie a bel et bien démarré à l’intérieur, dans la charpente sous la flèche. Un endroit décrit comme « hermétique », difficilement accessible.

    Ensuite, il y a ce rapport du CNRS, classé secret défense. Un document qui détaille non seulement la vulnérabilité au feu des combles et de la charpente, mais aussi – et c’est là que ça devient intéressant – les « scénarios possibles » pour, je cite mes sources, « tout faire cramer ». Un manuel d’instruction pour pyromane, en quelque sorte.

    Pourquoi ce rapport est-il classifié ? Quelles informations contient-il de si sensible qu’on ne puisse les rendre publiques ? La sécurité nationale est-elle en jeu, ou cherche-t-on simplement à éviter l’embarras ?

    Une source proche de l’enquête m’a confié : « Il est possible que l’on ne sache jamais qui est à l’origine de cet incendie. » Cette phrase, lâchée dès le lendemain du drame, sonne comme un aveu d’impuissance. Ou pire, comme une volonté de ne pas savoir.

    L’informatique, bouc émissaire idéal

    Dans notre société hyper-connectée, le bug informatique est devenu l’excuse parfaite. Panne de réseau, erreur système, défaillance logicielle… Ces termes techniques masquent souvent des réalités plus prosaïques : manque de formation, négligence, économies sur la maintenance.

    Les systèmes de détection incendie modernes sont conçus avec de multiples redondances. Un capteur défaillant ? Les autres prennent le relais. Une erreur de localisation ? Le système affiche plusieurs zones possibles. Pour qu’un bug envoie quelqu’un complètement au mauvais endroit, il faut soit une défaillance majeure du système, soit… autre chose.

    Ce « bug » soulève des questions techniques précises :

    • Quelle était la nature exacte de la défaillance ?
    • Le système a-t-il été audité après l’incident ?
    • Y avait-il des signes avant-coureurs de dysfonctionnement ?
    • Les logs du système ont-ils été préservés et analysés ?

    Sans réponses à ces questions, parler de bug reste de la spéculation.

    Les questions qui dérangent

    Deux informations cruciales manquent toujours au dossier. Premièrement, l’heure exacte à laquelle de la fumée était visible de l’extérieur. Cette donnée permettrait de recouper avec les alertes système et de vérifier la cohérence du récit officiel.

    Deuxièmement, l’heure du premier appel aux pompiers. Qui a appelé ? Un passant voyant de la fumée ? Le personnel de la cathédrale après la deuxième alerte ? Ce détail n’est pas anodin : il pourrait révéler un décalage entre la réalité visible et la réaction officielle.

    Ces trous dans la chronologie ne sont pas anodins. Ils empêchent de reconstituer précisément la séquence des événements. Et dans une enquête de cette importance, chaque minute compte.

    Vers une remise en question systémique ?

    L’incendie de Notre-Dame révèle les limites de notre dépendance technologique. Nous confions la protection de nos trésors les plus précieux à des systèmes informatiques faillibles, opérés par du personnel parfois insuffisamment formé.

    La question n’est pas de rejeter la technologie, mais de comprendre ses limites. Un système de détection, aussi sophistiqué soit-il, ne remplace pas la vigilance humaine. Un protocole de sécurité, aussi détaillé soit-il, ne vaut que par son application rigoureuse.

    Ce qui s’est passé à Notre-Dame devrait servir de signal d’alarme – sans mauvais jeu de mots. Combien d’autres monuments, d’autres bâtiments critiques, reposent sur des systèmes similaires ? Combien de bugs attendent leur heure pour transformer une alerte en catastrophe ?

    Bref. On nous parle de bug informatique pour éviter de parler de responsabilités humaines. On cherche des causes techniques pour ne pas regarder les défaillances organisationnelles. Et pendant ce temps, Notre-Dame n’est plus qu’un squelette de pierre noirci.

    La vraie question n’est pas de savoir si un bug peut causer un incendie. C’est de comprendre pourquoi, en 2019, avec tous nos moyens technologiques, nous n’avons pas su protéger un joyau vieux de 850 ans. Et surtout, pourquoi certains semblent si pressés d’enterrer les vraies questions sous une montagne de jargon informatique.

    L’enquête continue, nous dit-on. Mais avec un rapport secret défense et des témoins qui évoquent déjà l’impossibilité de connaître la vérité, permettez-moi de douter qu’on nous raconte un jour toute l’histoire. Le bug informatique restera sans doute le coupable idéal : impossible à interroger, facile à blâmer, et surtout, qui ne parlera jamais.

    Pour aller plus loin

    Photo : Nivenn Lanos / Unsplash

  • Les angles morts de la chimie moderne, entre toxicité cachée et détection impossible
    Les angles morts de la chimie moderne, entre toxicité cachée et détection impossible
    La sécurité chimique repose sur des études souvent biaisées et des méthodes de détection limitées. Nous sous-estimons systématiquement les risques des produits du quotidien tout en étant incapables de détecter des substances que nous ne cherchons pas spécifiquement.

    Nous vivons dans un monde chimique. Chaque jour, nous inhalons, ingérons et touchons des milliers de molécules dont nous ignorons tout ou presque. Cette réalité me frappe particulièrement quand je vois passer certaines études scientifiques qui prétendent rassurer sur la sécurité de tel ou tel produit.

    Le problème ? Ces études partent souvent du mauvais postulat. Au lieu de se demander « ce produit chimique est-il dangereux ? », elles cherchent à démontrer qu’il ne l’est pas. Nuance capitale qui change tout.

    La fausse science des études rassurantes

    Je tombe régulièrement sur des études qui me font bondir. Prenez n’importe quelle recherche sur la sécurité d’un additif alimentaire ou d’un composé industriel. Le protocole est souvent le même : on teste à faible dose, sur une durée limitée, avec des critères d’évaluation restrictifs.

    Résultat ? « Aucun effet néfaste observé dans les conditions de l’étude. » Belle formule qui ne dit absolument rien sur la réalité du risque. C’est comme chercher ses clés uniquement sous le réverbère parce que c’est là qu’il y a de la lumière.

    La vraie question scientifique devrait être : « Dans quelles conditions ce produit devient-il problématique ? » Au lieu de cela, on nous sert des études conçues pour ne rien trouver. Pratique pour l’industrie, catastrophique pour la santé publique.

    L’exemple révélateur des arômes alimentaires

    Prenons la chimie des arômes, un secteur que je connais bien. Les industriels utilisent des centaines de molécules pour reconstituer le goût « naturel » de nos aliments. Glycérine, propylène glycol, et une kyrielle d’autres composés aux noms imprononçables.

    Ces substances sont généralement reconnues comme sûres – le fameux statut GRAS (Generally Recognized As Safe) américain. Mais sûres dans quelles conditions ? À quelle dose ? En combinaison avec quoi ? Sur quelle durée d’exposition ?

    La glycérine, par exemple, est considérée comme inoffensive. Pourtant, des études montrent qu’elle peut provoquer des irritations respiratoires quand elle est chauffée et inhalée. Le propylène glycol ? Même combat. Irritant pour les voies respiratoires, potentiellement problématique pour certaines personnes sensibles.

    Mais ces effets n’apparaissent que dans des conditions spécifiques, rarement testées dans les études réglementaires. On se retrouve avec des produits « sûrs » sur le papier, potentiellement toxiques dans la réalité.

    Le piège de la détection chimique

    Il y a un autre angle mort, encore plus préoccupant : notre incapacité à détecter ce que nous ne cherchons pas. Cette réalité me frappe particulièrement dans le domaine de la toxicologie.

    Quelles que soient nos méthodes de dépistage, qualitatives ou quantitatives, il est strictement impossible de découvrir la présence d’une substance qu’on ne recherche pas spécifiquement. Cette information est capitale pour comprendre les limites de notre système de surveillance.

    Concrètement ? Si une nouvelle molécule psychoactive apparaît sur le marché – disons une variante du captagon ou n’importe quelle « research chemical » – elle restera invisible tant qu’on n’aura pas développé un test spécifique. Entre-temps, elle peut circuler librement, causer des dégâts, sans qu’aucun laboratoire ne puisse la détecter.

    Les nouvelles armes chimiques du quotidien

    Cette réalité prend une dimension particulièrement inquiétante quand on observe certains phénomènes actuels. Des substances apparaissent, disparaissent, réapparaissent sous d’autres formes. Elles échappent à toute classification, à tout contrôle.

    C’est une sorte d’attaque chimique diffuse, invisible, non revendiquée. Pas besoin d’un laboratoire militaire sophistiqué. Il suffit d’un chimiste créatif et de quelques précurseurs légaux pour créer des molécules inédites aux effets imprévisibles.

    Le terme « drogue » devient même obsolète. Nous parlons de biotechnologies, de nootropiques, de « research chemicals ». Des mots propres qui masquent une réalité crue : nous sommes devenus les cobayes d’une expérimentation chimique à grande échelle.

    L’aveuglement volontaire des autorités

    Face à cette complexité, les autorités sanitaires adoptent une approche qui confine à l’aveuglement volontaire. Elles se contentent d’études standardisées, de protocoles figés, de listes de substances connues.

    Résultat ? Elles courent toujours derrière l’innovation chimique. Quand elles identifient une substance problématique, dix autres ont déjà pris sa place. C’est le jeu du chat et de la souris, mais avec des enjeux de santé publique.

    Cette approche réactive plutôt que proactive nous expose à des risques considérables. Combien de générations de consommateurs servent-elles de test grandeur nature avant qu’on identifie un problème ?

    Vers une nouvelle approche du risque chimique

    Il faut changer de paradigme. Au lieu de chercher à prouver l’innocuité, nous devrions systématiquement évaluer la toxicité potentielle. Au lieu de tester des molécules isolées, nous devrions étudier leurs interactions.

    Cela implique de développer des méthodes de détection plus larges, capables d’identifier des familles de composés plutôt que des substances spécifiques. Cela nécessite aussi une surveillance continue des effets à long terme, pas seulement des tests ponctuels.

    Surtout, cela exige de la transparence. Les industriels doivent publier la composition exacte de leurs produits, pas se contenter de listes d’ingrédients génériques. Comment peut-on évaluer un risque qu’on ne peut pas identifier ?

    Nous naviguons à l’aveugle dans un océan chimique de plus en plus complexe. Il est temps d’allumer quelques phares avant que le naufrage ne soit inévitable. La question n’est plus de savoir si nous découvrirons des problèmes, mais combien de temps il nous faudra pour les voir.

    Pour aller plus loin

    Photo : Ousa Chea / Unsplash

  • Ecotaxe : et si on transformait ces portiques en outils d’innovation citoyenne ?
    Ecotaxe : et si on transformait ces portiques en outils d’innovation citoyenne ?
    L’écotaxe fait débat, mais ses portiques représentent un investissement technologique considérable. Au lieu de les abandonner, transformons-les en outils d’innovation : détection de véhicules volés, récompense des conducteurs écologiques, création d’un véritable service public intelligent.

    Je viens de plonger dans les détails du montage Ecomouv et je dois avouer que je suis perplexe. Ce qu’on nous présente comme une mesure écologique ressemble furieusement à une machine à cash déguisée en politique environnementale. Mais au-delà de la polémique, une question me taraude : que faire de cette infrastructure technologique massive déjà en place ?

    L’écotaxe : business juteux ou vraie mesure écologique ?

    Commençons par les faits. L’écotaxe, c’est d’abord un contrat de partenariat public-privé signé avec Ecomouv, un consortium mené par l’italien Autostrade. Le montage financier est pour le moins… créatif. L’État garantit un revenu minimum à l’opérateur privé, que l’écotaxe rapporte ou non. En clair, pile l’entreprise gagne, face le contribuable perd.

    Le système repose sur 173 portiques fixes et 600 portiques de contrôle mobiles, équipés de technologies de pointe : caméras haute définition, lecteurs RFID, systèmes de géolocalisation. Un investissement de 800 millions d’euros, sans compter les coûts de fonctionnement estimés à 250 millions par an. Pour quel résultat écologique réel ? La question mérite d’être posée.

    Ce qui me frappe, c’est le décalage entre le discours écologique et la réalité économique. On nous vend une taxe pour réduire le transport routier et favoriser le report modal. Mais quand on regarde de près, on découvre que les recettes prévues (1,2 milliard d’euros par an) sont déjà fléchées vers le financement des infrastructures routières. Où est la cohérence ?

    Des portiques high-tech sous-exploités

    Mais voilà, ces portiques existent. Ils sont là, plantés sur nos routes, bourrés de technologie dernier cri. Chaque portique est capable de :

    • Identifier un véhicule en mouvement jusqu’à 130 km/h
    • Lire une plaque d’immatriculation avec 98% de fiabilité
    • Détecter le gabarit et la classe du véhicule
    • Communiquer en temps réel avec des bases de données centralisées

    C’est un réseau de surveillance routière unique en Europe. Et on envisage de tout démanteler à cause des Bonnets Rouges ? Permettez-moi de trouver ça absurde. Cette infrastructure représente un potentiel technologique énorme, largement sous-exploité si on se limite à taxer les camions.

    Transformer la contrainte en opportunité

    Plutôt que de jeter le bébé avec l’eau du bain, réfléchissons autrement. Ces portiques pourraient devenir les piliers d’un système intelligent au service des citoyens. Première idée : la détection de véhicules volés.

    Imaginez : chaque portique devient un point de contrôle automatique. Un véhicule signalé volé passe sous un portique ? Alerte immédiate aux forces de l’ordre avec localisation précise. Selon les chiffres du ministère de l’Intérieur, 120 000 véhicules sont volés chaque année en France. Seuls 40% sont retrouvés. Avec un tel système, on pourrait doubler ce taux.

    Les bénéfices seraient multiples :

    • Réduction du trafic de véhicules volés
    • Diminution des primes d’assurance
    • Amélioration de la sécurité routière
    • Valorisation de l’investissement public

    Récompenser plutôt que punir : le bonus écologique intelligent

    Deuxième proposition, plus ambitieuse : transformer ces portiques en système de récompense pour les conducteurs vertueux. Au lieu de taxer tout le monde, pourquoi ne pas bonifier ceux qui font des efforts ?

    Le principe serait simple. Les portiques détecteraient :

    • Les véhicules électriques ou hybrides
    • Les véhicules respectant les limitations de vitesse
    • Le covoiturage (détection du nombre de passagers)
    • Les horaires de circulation (éviter les heures de pointe)

    Chaque passage « vertueux » génèrerait des points convertibles en avantages : réductions sur les péages, bons d’achat pour des produits écologiques, accès prioritaire à certains parkings. On passerait d’une logique punitive à une logique incitative.

    Les obstacles à surmonter

    Bien sûr, ces propositions soulèvent des questions. La première concerne la vie privée. Un tel système de surveillance pose des problèmes éthiques évidents. Il faudrait encadrer strictement l’usage des données, avec une autorité indépendante de contrôle et des garde-fous législatifs solides.

    La question du financement se pose aussi. Qui paierait pour la transformation du système ? Une solution pourrait être un partenariat avec les assureurs pour la détection de véhicules volés, et avec les collectivités locales pour le système de bonus écologique.

    Enfin, il y a l’acceptabilité sociale. Les Français sont échaudés par l’écotaxe. Il faudrait une vraie concertation, transparente, pour construire un projet qui serve vraiment l’intérêt général.

    Une vision pour demain

    Ce que je propose, c’est de sortir du débat stérile pour ou contre l’écotaxe. Nous avons investi des centaines de millions dans une infrastructure. Utilisons-la intelligemment. Transformons ces portiques en outils d’innovation sociale et environnementale.

    Imaginez un réseau routier intelligent qui :

    • Protège les citoyens contre le vol
    • Récompense les comportements vertueux
    • Améliore la fluidité du trafic
    • Contribue vraiment à la transition écologique

    C’est techniquement faisable. C’est économiquement viable. Il ne manque que la volonté politique. Alors, messieurs les ministres, qu’attendez-vous pour transformer cette controverse en opportunité ?

    Bref. L’écotaxe dans sa forme actuelle est morte. Mais de ses cendres peut naître quelque chose de bien plus intéressant. À condition de penser innovation plutôt que taxation, service public plutôt que rente privée, intelligence collective plutôt que surveillance aveugle. Les portiques sont là. À nous d’en faire bon usage.

    Pour aller plus loin

    • Rapport de la Cour des Comptes sur les partenariats public-privé – Analyse critique des montages financiers type Ecomouv
    • « La France des radars » de Laurent Mucchielli – Réflexion sur la surveillance routière et ses dérives
    • Site de l’ADEME – Données sur l’impact environnemental du transport routier
    • « Smart Cities » de Anthony Townsend – Vision des villes intelligentes et de leurs infrastructures

    Sources et références

    • Ministère de l’Écologie – Dossier technique Écotaxe poids lourds (octobre 2013)
    • Ministère de l’Intérieur – Statistiques 2012 sur les vols de véhicules
    • Commission européenne – Directive Eurovignette 2011/76/UE
    • Sénat – Rapport d’information sur l’écotaxe (juillet 2013)

    Photo : Korng Sok / Unsplash

  • Ecotaxe : et si on transformait ces portiques en outils vraiment utiles ?
    Ecotaxe : et si on transformait ces portiques en outils vraiment utiles ?
    L’écotaxe fait débat, mais au-delà de la polémique, les milliers de portiques installés représentent un investissement considérable. Plutôt que de les abandonner, transformons-les en outils utiles : détection de véhicules volés, bonus pour les conducteurs écologiques, les possibilités sont vastes.

    Je viens de plonger dans les entrailles du dossier Ecomouv et de l’écotaxe. Ce que j’y ai découvert me laisse perplexe. Derrière les grands discours écologiques se cache une mécanique économique bien huilée qui ressemble davantage à une machine à cash qu’à un projet environnemental. Mais plutôt que de jeter le bébé avec l’eau du bain, j’ai quelques idées pour transformer ce fiasco annoncé en opportunité.

    Le business caché derrière l’écologie

    L’écotaxe, c’est d’abord l’histoire d’Ecomouv, un consortium mené par la société italienne Autostrade et regroupant Thales, SNCF, SFR et Steria. Le contrat ? Un partenariat public-privé de 13 ans pour un montant estimé à 2,3 milliards d’euros. Oui, vous avez bien lu.

    Ce qui me frappe, c’est le décalage entre les objectifs affichés – réduire le transport routier de marchandises au profit du ferroviaire et du fluvial – et la réalité du montage. Ecomouv touche une commission de 20% sur chaque euro collecté. Plus il y a de camions sur les routes, plus l’entreprise gagne de l’argent. Où est la logique écologique là-dedans ?

    Les 173 portiques déjà installés (sur les 4 000 prévus) ont coûté une fortune. Chaque portique représente un investissement de plusieurs centaines de milliers d’euros. Sans compter les 800 bornes de contrôle et tout le système informatique derrière. On parle d’une infrastructure technologique massive, capable de scanner en temps réel tous les véhicules qui passent.

    Les Bonnets Rouges et la colère bretonne

    La fronde des Bonnets Rouges en Bretagne n’est pas qu’une simple contestation fiscale. C’est le symptôme d’un ras-le-bol plus profond. Les transporteurs bretons, déjà étranglés par la crise, voient dans cette taxe le coup de grâce pour leur activité.

    Un transporteur breton qui fait la navette entre Brest et Rungis devrait payer environ 8 000 euros par an et par camion. Pour des entreprises aux marges déjà réduites, c’est la goutte d’eau qui fait déborder le vase. D’autant que la Bretagne, péninsule excentrée, est particulièrement pénalisée par cette taxe au kilomètre.

    Mais au-delà de l’aspect économique, c’est toute la méthode qui pose problème. Imposer une taxe sans proposer d’alternative crédible au transport routier, c’est mettre la charrue avant les bœufs. Où sont les investissements massifs dans le fret ferroviaire ? Où sont les infrastructures fluviales promises ?

    Des portiques à 200 millions d’euros qui dorment

    Voilà où nous en sommes : des centaines de millions d’euros investis dans des portiques qui risquent de ne jamais servir. C’est du gâchis à l’état pur. Ces structures high-tech équipées de caméras, de lasers et de systèmes de communication sophistiqués vont-elles rester là, inutiles, comme des totems d’un projet avorté ?

    Chaque portique est équipé de :

    • Caméras haute définition capables de lire les plaques d’immatriculation
    • Systèmes de détection laser pour classifier les véhicules
    • Connexion en temps réel aux bases de données centrales
    • Capacité de traitement de milliers de véhicules par heure

    C’est une infrastructure technologique de pointe qui pourrait servir à bien d’autres choses que taxer les camions.

    Première idée : un réseau anti-vol national

    Plutôt que de démanteler ces portiques, transformons-les en système de détection des véhicules volés. Imaginez : un maillage national capable d’identifier en temps réel tout véhicule signalé comme volé.

    En France, c’est plus de 100 000 véhicules qui sont volés chaque année. Les voitures finissent souvent à l’étranger, transitant par nos autoroutes. Avec un système de portiques connectés aux fichiers des véhicules volés, on pourrait créer un filet de sécurité redoutable.

    Le système pourrait fonctionner ainsi :

    • Connexion en temps réel avec le fichier des véhicules volés
    • Alerte immédiate aux forces de l’ordre en cas de détection
    • Traçage du parcours pour faciliter l’interception
    • Extension possible aux véhicules impliqués dans des délits de fuite

    Les assureurs seraient certainement prêts à participer au financement d’un tel système qui pourrait leur faire économiser des millions en indemnisations.

    Deuxième idée : récompenser les conducteurs vertueux

    Et si, au lieu de punir, on récompensait ? Les portiques pourraient identifier les véhicules écologiques et leurs conducteurs responsables pour leur verser un bonus.

    Concrètement, voici comment cela pourrait marcher :

    • Détection automatique des véhicules électriques, hybrides ou roulant au gaz
    • Calcul du nombre de passages pour établir un « score écologique »
    • Attribution de points convertibles en réductions (péages, carburant, assurance)
    • Partenariats avec les constructeurs pour offrir des avantages aux conducteurs verts

    On inverserait complètement la logique : au lieu d’une écologie punitive, on passerait à une écologie incitative. Les entreprises de transport qui investissent dans des flottes propres seraient récompensées, pas pénalisées.

    D’autres pistes à explorer

    Les possibilités sont infinies avec une telle infrastructure. On pourrait imaginer :

    Un système d’alerte enlèvements : en cas d’alerte enlèvement, tous les portiques pourraient rechercher le véhicule suspect en temps réel.

    Une aide à la gestion du trafic : les données collectées permettraient d’optimiser les flux, de prévoir les embouteillages et de proposer des itinéraires alternatifs.

    Un outil de lutte contre la délinquance routière : détection des véhicules non assurés, sans contrôle technique ou impliqués dans des infractions graves.

    Un observatoire des mobilités : comprendre les flux de transport pour mieux aménager le territoire et développer des alternatives crédibles au tout-routier.

    Le courage politique de transformer l’échec en opportunité

    Rachida Dati a soulevé des questions intéressantes sur le montage financier d’Ecomouv. Jean-Louis Borloo et Nathalie Kosciusko-Morizet, architectes du Grenelle de l’environnement, pourraient nous éclairer sur la genèse de ce projet. Mais au-delà du débat sur qui a fait quoi, l’urgence est de trouver une solution.

    Il faut du courage politique pour transformer un échec annoncé en opportunité. Reconnaître que l’écotaxe dans sa forme actuelle est mort-née, mais que l’infrastructure peut servir l’intérêt général différemment.

    Les contribuables ont déjà payé. Les portiques sont là. Plutôt que de les laisser rouiller ou de payer des pénalités astronomiques pour rupture de contrat, mettons-les au service de vraies causes d’utilité publique.

    L’innovation au service du bien commun

    Ce dont nous avons besoin, c’est d’innovation dans l’usage de ces outils, pas dans la création de nouvelles taxes. Les Bonnets Rouges ont raison de contester une taxe injuste et contre-productive. Mais leur colère pourrait être le catalyseur d’une transformation positive.

    Transformons ces portiques de la discorde en outils du consensus. Faisons-en des instruments de sécurité, de récompense des comportements vertueux, d’intelligence collective sur nos mobilités.

    L’écologie ne doit pas être punitive. Elle doit être incitative, intelligente, au service des citoyens et des entreprises. Ces portiques peuvent devenir le symbole de cette nouvelle approche.

    Alors, qu’attendons-nous ? Le choix est simple : soit on s’entête dans une logique de taxe rejetée par tous, soit on innove pour transformer un fiasco en success story. Je sais ce que je choisis. Et vous ?

    Pour aller plus loin

    Sources et références

    • Données sur les vols de véhicules : Ministère de l’Intérieur, 2012
    • Coût des portiques écotaxe : Rapport parlementaire sur l’écotaxe, octobre 2013
    • Montant du contrat Ecomouv : Documents publics du consortium, 2011
    • Impact économique sur les transporteurs : Fédération Nationale des Transports Routiers, 2013

    Photo : Nopparuj Lamaikul / Unsplash

  • Fukushima. Le scénario du pire.

    Quel mauvais coup du sort. En japonais, « fukushima » se traduit par « l’ile du bonheur » (ou « l’ile de la bonne fortune »). L’histoire humaine retiendra hélas une toute autre signification.

    Face à la catastrophe nucléaire japonaise, peut-on continuer à se voiler la face longtemps? Déconseillé aux âmes sensibles.

    En préambule.

    Nous sommes honteux. Nous profitons tous de l’énergie électrique tirée du nucléaire. Nous savons tous, depuis qu’on a compris en quoi consiste vraiment la technologie nucléaire, qu’on allait probablement vivre une « ultime catastrophe nucléaire » un jour ou l’autre. Soyons honnêtes, on se le disait tous, c’est ancré dans l’inconscient collectif, mais on fermait les yeux en n’osant finalement pas y croire. On nous disait « on a pensé au pire, mais ça n’arrivera pas, le nucléaire, c’est vraiment sûr ». D’ailleurs on nous le dit encore. On trouve encore des scientifiques, des politiciens, et même des dirigeants de pays occidentaux venir à la télévision dire « le nucléaire, malgré le Japon, ça reste vraiment sûr, on va augmenter la sécurité, mais on va continuer à exploiter le nucléaire », et c’est vrai : on va continuer à exploiter la technologie nucléaire, car trop stratégique. Aucun pays du monde moderne ne peut s’en passer sans alternative crédible solide (à moins de décroître, ce qui n’est pas au programme).

    Tchernobyl était pourtant, pour les européens, une sorte de signal d’alarme « sans frais » (avec ses 40 morts officiels, ou ses 600000 morts officieux, selon le rapport qu’on veut bien prendre en compte, et qui ne comptabilise pas les morts à venir dans les 100 prochaines années au moins).

    Le véritable impact de Tchernobyl en Europe, c’est probablement des dizaines de millions de gens « plus ou moins contaminés » à un moment, avec un impact « plus ou moins visible » sur leur santé (qui restera à jamais indémontrable), qui vivront « plus ou moins bien » et « plus ou moins longtemps » avec leurs pathologies (cancers de la thyroïde, mais aussi d’autres formes de cancers probablement, et également pathologies cardiaques, diabètes sucré, sinusites dégénérescentes, abcès du cerveau, malformations à la naissance, etc.).

    Du coup, officiellement on ne peut pas dire la vérité sur les conséquences probables de la catastrophe japonaise. Alors évoquons officieusement l’improbable. Chacun retournera à ses occupations ensuite, ou pas, n’est-ce pas.

    Les faits.

    À la date du 23 mars 2011, ce ne sont pas seulement 3 réacteurs de la centrale de Fukushima Dai-ichi qui présentent un risque nucléaire majeur critique (ce qui est déjà impensable, et ingérable), mais bien 7 réacteurs en situation d’urgence nucléaire, avec ceux des centrales de Tokaï et de Onagawa. C’est un scénario rarement envisagé même dans les pires publications apocalyptiques de science-fiction. Sur place, ils sont entrés dans une phase dite « procédure ultime », c’est un peu le « sauve-qui-peut » en matière de gestion de crise nucléaire : faire tout ce qui est imaginable immédiatement pour préserver au maximum les retombées sur les populations et sur l’environnement.

    Dans ce type de problématique, ce n’est pas tant l’explosion des enceintes autour des réacteurs qui pose problème, mais c’est en réalité l’instabilité des « piscines à combustibles » qui contiennent plus de 100 tonnes de matériel nucléaire hautement toxique, souvent usagé, stocké « en attente de retraitement ». Certains de ces matériaux sont du MOX (« Mélange d’Oxydes »), un combustible nucléaire parmi les plus toxiques. L’ironie de l’histoire c’est que la centrale de Fukushima venait de démarrer l’exploitation de ce combustible un mois avant la catastrophe.

    La prospective.

    Fukushima, c’est évidemment plus grave que Three Mile Island, c’est aussi bien plus grave que Tchernobyl. Qui peut croire le contraire? Je peux faire simple. En matière de catastrophe, on ne connait pas pire risque que les potentiels ravages du nucléaire sur notre planète, et on a pas connu pire catastrophe sur terre dans l’histoire humaine récente. Mais la population du monde ne le voit pas encore sous cet angle. C’est voulu bien sûr. Sinon la panique serait de nature à constituer la prochaine catastrophe à gérer. D’ailleurs, il suffit de regarder les choses en face. On ne parle déjà plus du tremblement de terre de magnitude 9. On ne parle même plus du tsunami produisant une vague géante de 10m, déferlant à 300km/h sur une centaine de km de côtes japonaises et noyant tout sur une bande de 5km de large dans les terres. On ne parle que de la catastrophe nucléaire. On a clairement franchi un nouveau « gap ».

    Que peut-on dire aux japonais? Savent-ils que dans les mois qui viennent, une zone d’exclusion permanente autour de la centrale de Fukushima, d’un rayon de 20 à 80km va peut-être couper le pays en deux, à jamais? Savent-ils que le Japon est probablement condamné à un destin sombre, par l’irradiation continue qui va durer encore des semaines, des mois, des années… probablement des siècles? Les japonais savent-ils qu’ils vont être considérés « indésirables » dans tous les aéroports du monde, et que tout ce qu’ils produiront ne pourra quasiment plus être exporté, faute de clients craignant de s’approvisionner en produits contaminés? Savent-ils que toutes leurs cultures végétales seront suspectes pour des dizaines et des dizaines d’années? Que leurs poissons seront probablement impropres à la consommation humaine? Savent-ils que même leurs technologies électroniques ne les sauveront probablement pas cette fois? Nul ne peut prédire quel sera l’avenir du peuple japonais, mais on est à peu près certain qu’ils traverseront des moments très dramatiques. Leur gouvernement aura bien du mal à relever le défi de l’après Fukushima, car Fukushima n’est pas Hiroshima, c’est une autre histoire.

    Pire. Si par malheur le japon était à nouveau frappé par une réplique sismique suffisamment sérieuse pour endommager davantage les infrastructures des réacteurs, les conséquences pourraient précipiter la population humaine dans un processus d’extinction. Et la terre bouge là bas en permanence, il ne se passe quasiment pas un jour sans qu’une secousse magnitude 5 au moins ne soit enregistrée depuis le 11 mars 2011.

    Alors, maintenant, que peut-on dire aux populations humaines partout sur la planète?

    Fukushima, ce sont plusieurs réacteurs nucléaires, probablement entrés en fusion, ou en situation d’entrer en fusion. Aucune technologie humaine ne peut interrompre ou atténuer sérieusement ce phénomène physique « incontrôlable », sûrement pas une technologie consistant à refroidir les combustibles avec de l’eau de mer. Concrètement, ça ne va pas exploser. On ne va probablement pas voir un champignon nucléaire. On va assister à la fusion du combustible, à une température de 2000°, qui va se transformer en lave, le corium. Ce matériel en fusion va probablement transpercer la cuve en acier et traverser les fondations en béton avant de se refroidir un peu plus en profondeur. Ensuite, pendant plusieurs centaines d’années, l’endroit sera une « source radioactive », la plus nocive sur terre.

    De toute évidence, de cette source radioactive (et je parle bien de source « active ») vont se dégager en permanence des éléments radioactifs, dégagés dans l’air au dessus des réacteurs qui auront fondu, à partir de ce « cimetière nucléaire ».

    À noter là une différence avec la catastrophe de Tchernobyl. Là bas, le coeur a explosé pendant qu’il était en activité. D’un coup, tout le combustible s’est dispersé instantanément dans un rayon proche du coeur (et a été ramassé et rassemblé par ceux qu’on appelait les « liquidateurs »). À Fukushima, les coeurs n’ont pas (encore) explosé, ils sont arrêtés techniquement depuis le tremblement de terre, mais les combustibles ne sont plus refroidis, et c’est le processus de fusion, puis de lave active qu’on redoute le plus (car comme évoqué plus haut, aucune technologie humaine ne permet d’en venir à bout à ce jour).

    On craint donc que les coeurs de la centrale de Fukushima deviennent (ou ne soient déjà) chacun une source radioactive incontrôlable, « à l’air libre ». Impensable, incroyable, mais vrai.

    Objectivement, la radioactivité qui va se répandre immédiatement dans l’environnement au Japon, puis par les vents des hautes altitudes (courant-jet ou « jet stream » d’ouest en est) vont inévitablement contaminer toute la planète.

    Depuis le Japon, les courants aériens susceptibles de transporter les rejets hautement toxiques traversent le Pacifique, puis le territoire des États-Unis, puis l’Atlantique pour atteindre l’Europe et la Russie en moins d’une dizaine de jours seulement, et continuellement.

    Durant tout ce trajet, les particules radioactives vont se diluer dans les masses d’air, puis retomber progressivement pour contaminer l’immense majorité de l’environnement. Je préfère être clair à ce sujet : quand je parle de dilution, je ne parle pas de diminution du risque radioactif, ou de réduction de l’intensité de la toxicité. Les particules radioactives, bien que diluées dans la masse, ne perdent en aucun cas leur potentiel hautement radioactif, pour des dizaines, voire des centaines d’années.

    Les scientifiques le savent mieux que nous, d’infimes particules radioactives suffisent pour contaminer un homme, un animal ou leur nourriture. Personne ne dit rien, car il n’y a rien à dire, on a déjà tout compris. Si l’environnement est contaminé localement, même « en infime quantité avec un risque nul pour les populations » (dixit les autorités), on sait aussi qu’une infime quantité suffirait à nous contaminer.

    Pour conclure.

    On ne va pas arrêter rapidement le processus nucléaire en cours à la centrale de Fukushima (que ce soit concernant la fusion éventuelle des réacteurs, ou des combustibles stockés en piscine), pendant encore longtemps des éléments radioactifs vont se répandre massivement dans l’environnement, et continuellement des « nuages radioactifs » traverseront des zones habitées par des humains, des animaux et leur nourriture.

    On a pas fini d’en parler. Bien que le nucléaire semblait magique sur le papier il y a encore quelques dizaines d’années, plus tôt nous aurons imaginé et développé une technologie alternative, plus tôt nous éviterons encore pire situation que ce que nous sommes en train de subir.

    S’il fallait un signe pour comprendre que nous metions l’humanité en danger, cette fois nous l’avons.

  • Le réchauffement climatique est-il réellement causé principalement par les activités humaines?

    Beaucoup d’entre-nous ont été surpris d’apprendre que le prix Nobel de la Paix a été décerné cette année indistinctement à Albert Arnold Gore, Jr. plus connu sous le nom de Al Gore ainsi qu’au GIEC (groupe intergouvernemental d’experts sur l’évolution du climat ou Intergouvernemental Panel on Climate Change, IPCC en anglais).

    On peut immédiatement se demander en quoi le travail médiatique de Al Gore à propos du réchauffement climatique, ou les rapports du GIEC on servi en quoi que ce soit à améliorer la paix dans le monde.

    Al Gore est un homme politique du parti démocrate et homme d’affaires américain, opposant du républicain George Bush, et qui est l’acteur et l’orateur du documentaire “Une Vérité Qui Dérange”, plutôt bien réussi, réalisé par David Guggenheim. Un film sur les causes du réchauffement climatique, et leurs conséquences pour l’humanité, diffusé à l’échelle planétaire.

    Le GIEC est une organisation créée en 1988 à la demande du G7, financée par l’ONU, censée regrouper 2000 à 2500 des meilleurs scientifiques mondiaux dans le but de produire des consensus sur les causes et les conséquences du réchauffement climatique.

    Selon ce que nous présentent Al Gore et le GIEC, la cause principale du réchauffement climatique est d’origine humaine, liée à l’hyper-industrialisation du monde, et notamment par la production massive de CO2, un gaz à effet de serre, qui augmente ainsi inéluctablement la température dans l’atmosphère terrestre.

    Le GIEC arrive exactement au même résultat synthétique, à partir de divers consensus scientifiques qu’il publie dans ses rapports depuis 1990.

    Seulement il y a un autre véritable problème.

    Le GIEC est de plus en plus critiqué par nombre de scientifiques, les langues se délient, et Al Gore ne fait pas l’unanimité. En réalité, c’est la théorie toute entière du réchauffement climatique trouvant son origine dans l’augmentation du CO2 produit par l’activité humaine qui est contestée par les spécialistes indépendants.

    Quand on observe la composition des membres du GIEC, on s’étonne d’abord de constater qu’il n’y a pas que des scientifiques, et sûrement pas les 2500 meilleurs mondiaux, puis que les scientifiques indépendants et objectifs (appelés encore “hérétiques”) n’y figurent pas, certains même ont fini par démissionner lorsqu’ils étaient préalablement intégrés au GIEC.

    C’est ainsi que l’une des figures emblématiques du GIEC, Christopher Landsea, claquait la porte du groupement en janvier 2005 ou que Roger A. Pielke écrivait un peu plus tard “Nier que les facteurs politiques étaient plus que présents dans les négociations est un manque d’attention.”

    Le film d’Al Gore qui a fait le tour du monde et qui a remporté un vif succès dans l’opinion publique repose sur une information hautement contestée désormais par les climatologues et les scientifiques spécialistes du climat. Il s’agit de la corrélation entre le taux de CO2 dans l’atmosphère et les températures terrestres.

    Selon Al Gore, les analyses et les études réalisées à l’époque à partir de l’étude des carottes de glace démontraient que lorsque l’air contenait beaucoup de CO2, la température était élevée, et lorsque l’air contenait moins de CO2, la température était plus basse.

    Toute la théorie du réchauffement climatique telle qu’elle est connue aujourd’hui, plébiscitée par les associations écologiques et les gouvernements politiques de presque tous les pays dans le monde repose sur cet élément: il existerait un lien déterminant entre la production de CO2 et la hausse des températures.

    Hélas, les meilleurs scientifiques du climat, qui ne sont pas membres du GIEC et qui hésitent toujours à s’exposer ou à s’exprimer en public ont désormais démontré le contraire si l’on en croit leurs propres analyses, beaucoup plus complexes, et beaucoup moins médiatisées que dans le film “Une Vérité Qui Dérange”.

    Selon ces climatologues, les données connues en matière de climat (déterminées notamment par l’analyse des carottes de forages des glaces) démontrent que la Terre a régulièrement connu des périodes glacières et des périodes très chaudes, depuis au moins 10000 ans, et probablement depuis toujours.

    Pour être concret, il a déjà régulièrement fait plus chaud qu’actuellement dans les pôles, ou déjà régulièrement fait plus froid dans la zone occidentale par exemple, ceci bien avant l’ère industrielle, et sans que ça n’ait eu d’incidence sur le développement de l’humanité.

    Ces mêmes scientifiques ont également “corrigé” les données présentées par Al Gore en les contredisant totalement, notamment en expliquant qu’à aucun moment il était possible de juxtaposer les courbes de la hausse du CO2 dans l’atmosphère avec la hausse de la température terrestre, mais que celles-ci devaient être au moins espacées de 800 ans dans l’échelle du temps, et mieux encore, la hausse de température précédait la hausse du CO2 dans l’air!

    Ces résultats sont obtenus par les dernières connaissances en matière d’analyse chimique et isotopique de la glace, confirmées par le Professeur Ian Clark, paléoclimatologue de l’Arctique de premier rang.

    Je me souviens d’un jour de 2006 où j’avais entendu, sur une radio française, que le Professeur Claude Allègre (également ancien ministre du gouvernement Jospin) dont je connaissais le formidable cursus scientifique, émettait ouvertement des doutes sur les origines humaines du réchauffement climatique. C’était alors à ma connaissance le premier homme public qui osait aller à l’encontre de l’ordre établi.

    Je dois dire que c’est ce qui m’a mis en éveil sur le sujet, je me demandais comment un homme de son rang pouvait contester une théorie qui apparaissait comme indiscutable s’il n’avait pas lui même ses propres informations ou ses propres certitudes. Par la suite, j’ai voulu savoir si d’autres scientifiques tels que lui doutaient également de la théorie d’Al Gore et du GIEC.

    En approfondissant, je n’ai pas été déçu. J’ai constaté qu’ils étaient nombreux, ces hérétiques, et qu’il existait une autre théorie expliquant le réchauffement climatique.

    Elle était défendue par des scientifiques inconnus du grand public, qui n’étaient pas relayés dans les médias, mais qui étaient des cadors dans leurs domaines scientifiques respectifs, que ce soit aux USA, en Europe, en Asie ou même en Israël.

    Cette théorie, qui reposait sur des démonstrations complexes qui semblent incontestables tant elles recoupent d’informations de sources variées et d’études approfondies de divers domaines de la science moderne, explique qu’il existe une extraordinaire corrélation entre l’activité du soleil et la température terrestre. Ces démonstrations ont été faites par l’équipe du Professeur Eigil Friis-Christensen du Centre Spatial National Danois en examinant 400 ans d’enregistrements astronomiques.

    Dans des termes plus simples, plus l’activité solaire est intense à certains moments, plus il fera chaud sur Terre, et moins le soleil est actif, moins il fera chaud sur Terre. Et ceci, depuis toujours, c’est à dire depuis aussi loin que la Terre et le soleil existent conjointement.

    C’est le physicien solaire Piers Corbyn qui a été le premier dès la fin du XXème siècle a avoir entamé des recherches dans ce sens. C’était le premier scientifique à vouloir utiliser l’étude de l’activité solaire pour prévoir le climat sur Terre.

    Le soleil est un magma en activité permanente, il faut imaginer qu’à sa surface il se produit des explosions solaires à tout moment (appelées “tâches solaires” et qui sont d’immenses explosions magnétiques), de plus ou moins forte intensité, de manière à priori aléatoire et pour des durées plus ou moins longues. Les rayonnements sont dirigés vers l’extérieur du soleil, bon nombre se dirigent vers la Terre, et sur leur parcours, des vents solaires aléatoires perturbent leur trajectoire, pouvant les conduire plus ou moins intensivement ou rapidement vers la Terre. Arrivés dans l’atmosphère, ils sont ensuite plus ou moins filtrés par les nuages.

    Ce sont les océans impactés par les rayonnements solaires, couvrant plus de 70% de la surface du globe, qui réagissent avec plus ou moins de latence et d’inertie à ces rayonnements solaires. Les océans sont donc directement réchauffés ou refroidis en fonction des activités solaires.

    Certains océanographes, comme le Professeur Carl Wunsch du MIT, affirment que les océans peuvent avoir une mémoire de 10000 ans avant de restituer la hausse ou la baisse de la température dans l’atmosphère, conditionnant ainsi le climat sur Terre.

    Par ailleurs, plus les océans sont chauds, plus ils émettent du CO2, et inversement plus ils sont refroidis, plus ils ont tendance à absorber du CO2.

    Il a en outre été démontré que pendant le XXème siècle, l’activité du soleil a doublé en terme d’évènements solaires.

    Saviez-vous que depuis des siècles, des astronomes à travers le monde avaient observé que plus il y avait de tâches solaires à la surface du soleil, plus il faisait chaud sur Terre, et inversement?

    En 1893, l’astronome britannique Edward Maunder observa que durant le petit âge glaciaire, il y avait à peine quelques tâches solaires visibles, pendant une période d’inactivité solaire appelée “Minimum de Maunder”.

    Et si c’était le soleil, et non le CO2, qui serait à l’origine du réchauffement climatique que nous connaissons et qui nous est présenté comme catastrophique?

    Si c’est le cas, il faudrait d’urgence réorienter toutes les politiques, partout dans le monde, car les conséquences sociales et économiques sont très différentes dans un cas comme dans l’autre.

    Pour être pragmatique, je dirais que si la théorie du réchauffement climatique par le CO2 causé par les activités de l’homme reste privilégiée, les peuples du sud, en Afrique principalement, seront sacrifiés, car leur développement ne pourra jamais se faire (ils n’auront jamais accès à l’industrialisation, et même plus simplement à l’électricité massive), et les peuples du nord, occidentaux principalement, paieront le prix fort de la modernisation de leur production énergétique “écologique” lié au “nouveau business climatique”.

    Reste à savoir ce que nous ferons des centaines de millions d’humains du sud, probablement quelques milliards, qui auront tendance à vouloir se déployer vers le nord.

  • Grippe aviaire : que va-t-il se passer?

    L’Organisation Mondiale de la Santé est très claire et se fait insistante : une pandémie humaine de grippe aviaire est hautement probable, la question est désormais plus de savoir quand elle aura lieu que de savoir si elle aura bien lieu. L’O.M.S. exhorte tous les pays à prendre toutes les dispositions nécessaires et les mesures de précaution, en urgence.

    L’enjeu est majeur, puisqu’en cas d’épidémie humaine, les estimations les plus basses en pertes humaines font état de dizaines de millions de morts, alors que les spécialistes raisonnent plutôt en centaines de millions.

    La dernière épidémie aviaire (également appelée « grippe espagnole ») avait fait 20 millions de morts à la fin de la première guerre mondiale. Le virus de l’époque était moins « nocif » et moins violent que le H5N1 actuel, la population humaine était moins importante, moins dense et beaucoup moins mobile, et le contexte était nettement moins favorable qu’aujourd’hui à une pandémie majeure.

    La grippe aviaire A (H5N1) est une maladie virale plutôt bien connue, très ancienne, qui ne concerne en principe que les volailles. En janvier 2004, l’O.M.S. indique avoir détecté la présence du virus grippal aviaire H5N1 chez trois patients décédés d’une affection respiratoire aiguë en décembre 2003 et début janvier 2004 au Viet Nam. Tous les gènes séquencés étaient d’origine aviaire, ce qui suppose que le virus responsable du décès des trois cas confirmés n’avait pas encore acquis de gènes du virus grippal humain, mais que sa forme aviaire était transmissible à l’homme. Le virus H5N1 est hautement pathogène, ce qui signifie qu’il se transmet sans difficultés, lorsqu’il est présent dans l’air, ou lorsque l’on est en contact avec des entités contaminées.

    Entre fin 2003 et novembre 2005, l’O.M.S. compte officiellement 66 décès, tous dûs au virus grippal aviaire H5N1.

    Toute la question d’une pandémie de grippe aviaire repose sur l’hypothèse hautement probable d’une mutation du virus grippal H5N1 dans une forme humaine, offrant alors des possibilités de contamination interhumaine, en plus de ses capacités interanimales.

    Une contamination animale mondiale est malheureusement très réaliste du fait des mouvements migratoires (les oiseaux migrateurs sont les parfaits vecteurs transcontinentaux et transnationaux de grippe aviaire).

    En clair et pour faire simple, le virus grippal aviaire A (H5N1) est hautement pathogène, il se propage sous cette forme aux animaux prioritairement (volailles, porcs, etc. ce qui nécessite malheureusement des décontaminations massives lorsque des foyers sont détectés), mais depuis peu se transmet également aux hommes provoquant pour le moment de rares décès. Si comme le pressentent les spécialistes, le virus grippal aviaire H5N1 persiste à muter en devenant un virus grippal combinant des gènes aviaires et humains, nous serons alors dans le scénario le plus critique, puisque les animaux et les humains seront concernés et les décès par affections respiratoires aiguës se compteront nécessairement par millions au mieux, du fait des contaminations interhumaines. Faut-il ajouter ici que les scientifiques n’ont presque plus aucun doute sur le fait que ce virus soit en mesure de muter dans sa forme la plus critique, c’est à dire humaine, en quelques mois.

    Nous ne savons pas très bien combien de temps il faudra pour trouver et produire un vaccin efficace dans le cas d’une éventuelle contamination humaine, probablement plusieurs mois. On parle beaucoup du Tamiflu, un antiviral connu comme très efficace dans le cas des grippes humaines « classiques ». Le monde entier se jette sur ce médicament, à tel point que le laboratoire Roche, seul agréé par le propriétaire de la molécule (la société Gilead aux USA), ne parvient pas à répondre à la demande sur le plan quantitatif.

    En octobre 2005, on apprend que le virus aviaire H5N1 résisterait au Tamiflu, puis début novembre 2005, on nous explique qu’un laboratoire américain (le Adventist Medical Center de Portland, en Oregon par la voix du Dr Joseph Howton) a mis en évidence que le Tamiflu, combiné à un autre médicament (le Probénécide, connu sous les marques Benuryl et Benemid) doublerait l’efficacité d’une dose de l’antiviral, ce qui serait utile en cas de rupture de stock de Tamiflu.

    On pourrait encore palabrer des heures sur le H5N1, on pourrait retracer son histoire, se demander comment tout cela a pu arriver, et pourquoi subitement toute la planète est concernée. Je vais même jusqu’à évoquer des pistes crédibles, mais impossible à vérifier, bien au delà des pistes naturelles. Le virus H5N1 était-il développé par les militaires? Des terroristes sont-ils à l’origine de l’épidémie de grippe aviaire qui trouve naissance en Asie? Comme l’évoquait un rapport de l’institut Pasteur sur l’utilisation des armes biologiques, l’impact terroriste n’est pas nécessairement lié au nombre de victimes. Un tout petit nombre de cas signalés et confirmés, amplifié par la rumeur, peut déclencher une grande inquiétude et un climat anxiogène dans la population humaine. Et que dire de l’implication inattendue du très controversé Donald Rumsfled, qui se trouve être un des dirigeants de la société Gilead, propriétaire de la molécule du Tamiflu, présenté comme l’unique remède à l’épidémie de grippe aviaire? Nous pourrions polémiquer des jours entiers, nous ne parviendrions probablement pas à éclairer tous les points obscurs de ce dossier si complexe. Restons simplement concentrés sur les faits avérés et les probabilités de faits à venir.

    De mon point de vue, et compte tenu de l’analyse objective que j’ai pu faire de la situation connue, une épidémie de grippe aviaire H5N1 qui aura muté dans une forme interhumaine me semble inévitable à une échéance rapprochée. On ne doit donc pas reprocher aux gouvernements d’utiliser le principe de précaution pour prévenir le risque, toute mesure jugée utile doit être prise. Néanmoins, ce qui est autant curieux qu’inquiétant, c’est que les stocks de vaccins sont principalement destinés aux pays riches et puissants en Europe, ainsi qu’aux USA, au Canada, au Japon, en Israël, etc. Les populations de ces pays sont potentiellement mieux sécurisées.

    Qui se préoccupe de la Russie, de l’Amérique du Sud, de l’Asie du Sud et encore du continent africain? J’ai appris qu’en Chine, la molécule du Tamiflu était reproduite illégalement, plus ou moins à l’identique qualitativement, une contrefaçon en quelque sorte, pour subvenir à l’immense besoin du pays. La société Gilead et le laboratoire Roche n’apprécieraient pas.

    Une fois la contamination interhumaine avérée, les conséquences seront absolument catastrophiques, puisqu’il y aura probablement effectivement des millions de décès avant qu’un vaccin opérationnel puisse être déployé dans toutes les populations. Tous les pays seront potentiellement touchés, y compris et surtout sur les continents européen, asiatique et américain, même si c’est là qu’on pourra le mieux faire face.

    Les difficultés auxquelles nous seront exposés seront inextricables. L’économie globale sera anéantie, ou au moins profondément altérée. Les marchandises et les hommes ne circuleront plus. L’accès à la nourriture sera rendu très compliqué et très réglementé.

    Les conséquences économiques d’une pandémie humaine sont impossibles à évaluer tant elles paraîtront surréalistes et hors de portée, même aux meilleurs économistes.

    L’activité économique des pays atteindra des niveaux dramatiquement bas du fait de l’angoisse des gens, ne serait-ce que pour se rendre à leur travail, quand leur entreprise ne sera pas purement et simplement fermée. Le système financier ne pourra pas résister longtemps à un phénomène d’une ampleur aussi gigantesque, un phénomène qui peut s’installer pendant plusieurs mois, peut-être même 2 ou 3 ans avant d’être à peu près stabilisé sur le plan médical.

    L’impact social sera intéressant à observer. On pourrait penser qu’une pandémie séparerait les peuples durablement en les laissant à l’écart les uns des autres, sans contact, mais les technologies de communication, avec l’internet en tête, pourraient bien atténuer la distance, au moins virtuellement. Les gens continueront à communiquer et resteront probablement liés, du fait de leur dépendance aux technologies. Ces technologies qui pourraient bien constituer un socle de base à un nouveau départ, même si un retour « aux sources » est aussi très probable.

    Mon but n’est pas de dramatiser davantage une situation qui est déjà très tendue et très discutée partout, ni de chercher à faire peur. En matière de prospective, je tente de rester objectif et réaliste en tenant compte d’une très grande quantité de paramètres et d’informations décryptées, j’aimerai pouvoir écrire ici que « tout le monde il est beau, tout le monde il est gentil », et que nous vivons dans le meilleur des mondes. Je ne peux pas écrire cela, simplement parce que ce n’est pas la vérité. Ce ne serait pas vrai non plus d’écrire qu’une pandémie de grippe aviaire aurait un impact limité sur les populations, et que cela ne troublerait pas profondément notre quotidien, et notre manière de vivre.

    Nous pourrions diminuer le risque d’une pandémie de grippe d’origine aviaire en limitant immédiatement nos déplacements locaux et internationaux et en portant des masques filtrants lors de nos déplacements habituels, en privilégiant une nourriture à base d’aliments sécurisés, en évitant le contact animal et surtout en limitant nos échanges avec l’Asie pour un temps.

    Nous ne devons surtout pas sombrer dans une psychose terrifiante, mais il faut que nous soyons tous vigilants et prêts.

    Pour finir, et si vous êtes assez large d’esprit, vous pourriez alors vous permettre de lire ce qui suit.

    En effet, une nouvelle question terrible et troublante me vient à l’esprit. Une dépopulation massive, rapide et sélective de la planète, n’est-ce pas ce qui pourrait sauvegarder à coup sûr l’espèce humaine? Je préfère me forcer à croire que l’épidémie qui s’annonce est naturelle, elle trouvera alors une solution naturelle.

  • Plus il fait chaud, plus les éléments se déchaînent, et plus les éléments se déchaînent plus il fera chaud.

    L’Europe connaît une « arrière saison » pour le moins étonnante. 26° à Bordeaux dans le sud-ouest de la France un 29 octobre, 22° dans le nord-est à Metz, 25° à Milan dans le nord de l’Italie, 22° à Paris à l’aube du mois de novembre. Au menu des réjouissances : ciel bleu, soleil presque partout. L’écart avec les températures habituelles à ce moment de l’année est très important, parfois plus de 13° au dessus des normales saisonnières. Chaque soir à la télévision, les prévisionnistes annonçaient que les températures allaient baisser dans les jours suivants, mais cela ne s’est pas produit pendant tout le mois d’octobre, bien au contraire. La météo semble complètement en dehors de son modèle habituel.

    Cependant, personne ne semble s’en émouvoir, et on entend même des personnalités politiques souligner que « le beau temps sur la France donne le moral aux français, c’est positif ». Les gens sentent bien pourtant qu’il se passe quelque chose. Comment expliquer un temps aussi chaud à ce moment de l’année?

    En même temps, on nous annonce que le mois de septembre 2005 a été le plus chaud de toute l’histoire de la météorologie moderne (donc au moins depuis que les institutions enregistrent et analysent les températures).

    L’Europe est plongée dans une phase de grande sécheresse, elle sort d’un été très rude, où il n’a pas plu, et les réserves en eau sont vraiment mal en point. Le temps chaud et sec n’arrange rien, d’autant qu’il perdure très anormalement. Les pluies attendues ne sont pas au rendez-vous, et personne ne nous dit comment nous allons pouvoir réapprovisionner les réserves naturelles. L’année 2006 risque d’être très critique sur ce point.

    Depuis un certain temps déjà, on nous explique que le phénomène du réchauffement climatique est inéluctable. On nous a d’ailleurs donné des chiffres, peut-être deux degrés sur une période d’une centaine d’année à venir. Ce que nous constatons tous, c’est que la température a monté subitement ces deux dernières années, partout dans le monde, et que nous nous installons parfois dans des niveaux qui atteignent plus de dix degrés aux dessus des normales de saison.

    Tout ceci a forcément un impact immédiat et à court terme sur l’environnement. Quoi qu’on en dise. Il y a des choses qu’on sait évaluer, et probablement d’innombrables conséquences qu’on ne parvient pas à anticiper.

    Que dire de la sécheresse et de l’impact sur les cultures et sur l’économie agro-alimentaire? Que dire du manque d’eau pour les populations et les installations industrielles qui en nécessitent d’immenses quantités? Que dire de la fonte des glaciers, de l’absence de neige en montage? Plus loin de nous, que penser du réchauffement inévitable des océans? Comment vivre avec un gigantesque cyclone qui se formerait toutes les deux semaines en balayant des zones géographiques aussi vastes que l’europe? Plus grave, qui peut nous dire les conséquences probablement irrémédiables pour l’humanité ou pour les espèces vivantes de la fonte du permafrost sibérien?

    Le nombre d’événements climatiques dramatiques ne cesse de s’accroître autant en puissance qu’en fréquence. Tout ceci est probablement lié par ou à quelque chose. Certaines personnes disent que les événements que nous connaissons sont les conséquences de l’effet de serre, d’autres évoquent les manipulations climatiques d’origine humaine (pour la première fois en 2005, on parle de l’existence probable d’armes climatiques entre les mains des américains, des russes, des japonais, et même de terroristes non identifiés). Moi je ne sais pas. Tout est possible, y compris le pire.

    Ce qui semble évident, c’est que plus il fait chaud, plus les événements se déchaînent, et plus les événements se déchaînent, plus ils produisent de la chaleur. Nous sommes entrés dans un cycle exponentiel catastrophique. On ne voit pas ce qui pourrait l’arrêter.

    Qui peut croire une seconde qu’en roulant 20 km/h moins vite, qu’en payant le pétrole 30% plus cher, qu’en consommant un peu moins d’électricité en éteignant les télévisions au lieu de les laisser en veille, on va parvenir à résoudre le moindre problème sur un plan local, et encore plus largement global?

    Avons-nous la moindre idée de ce qu’il faut faire immédiatement pour espérer maintenir l’environnement terrestre à un niveau viable pour l’espèce humaine, ne serait-ce que progressivement?

    Oui nous le savons, certains le savent, je vais oser le rappeler, assurez-vous d’être bien assis sur votre siège et d’avoir l’esprit très large pour accepter ce qui suit, il faut être bien préparé.

    Les dizaines de millions d’installations industrielles polluantes doivent cesser de rejeter dans l’air des éléments nocifs et surtout caloriques, importante source de réchauffement, les quelques centaines de millions de climatiseurs doivent être débranchés définitivement, Les quelques centaines de millions de téléphones mobiles doivent cesser d’émettre électromagnétiquement, les dizaines de millions de bornes téléphoniques GSM doivent être coupées, les moyens aériens doivent être bannis, les centaines de millions de véhicules motorisés doivent être bannis.

    C’était un extrait suffisamment hallucinant des mesures draconiennes les plus exceptionnelles qui doivent être prises immédiatement. Vous ne me croirez pas si je vous explique que la liste est bien plus longue. Bien sûr, ces mesures sont insupportables, et utopiques tant elles sont impossible à mettre en œuvre. D’après moi, 90% des gens seraient bien incapables ne serait-ce que d’imaginer pouvoir en surmonter une seule d’entre elles. Pourtant, c’est ce qu’il faut envisager pour rééquilibrer la viabilité sur terre, oui il est bien question de viabilité, au sens le plus primordial du terme.

    Nous devrons donc nous contenter d’être spectateur de notre déchéance partielle, au pire totale, dans les 10, 20 ou peut-être avec un peu de chance 30 années à venir. Nous ne pourrons bien entendu pas continuer ainsi.

    Les solutions alternatives envisagées? On parle secrètement de diminuer dramatiquement la population humaine sans expliquer comment, d’imaginer des solutions énergétiques propres et alternatives sans nous dire lesquelles, ni quand elles seront déployées très largement partout sur le globe, de faire vivre les gens sous terre au frais, sans nous dire qui, où, à quel prix, et dans quelles conditions, etc.

    Le pire n’est pas derrière nous. Soyons simplement préparés à notre destin, nous le vivrons mieux.