Catégorie : TECHNOLOGIES

  • « L’intelligence artificielle » n’existe pas, pourquoi je refuse cette imposture technologique
    « L’intelligence artificielle » n’existe pas, pourquoi je refuse cette imposture technologique
    L’intelligence artificielle telle qu’on nous la présente aujourd’hui n’existe pas. Ce ne sont que des algorithmes, parfois sophistiqués, mais toujours dépourvus de la moindre intelligence réelle. Un développeur qui a créé son premier système conversationnel en 1986 décrypte l’imposture.

    Je suis un gros nul en intelligence artificielle.

    Voilà, c’est dit. Après 37 ans à développer des systèmes conversationnels, des moteurs d’inférence et ce qu’on appelle aujourd’hui pompeusement des « IA », je peux enfin l’avouer : je n’ai jamais créé la moindre intelligence. Juste des algorithmes. Des lignes de code qui simulent, qui imitent, qui donnent l’illusion. Mais jamais qui pensent.

    Cette confession n’est pas un aveu de faiblesse. C’est un cri d’alarme face à l’imposture technologique la plus massive de notre époque.

    Mon premier « ChatGPT » tournait sur Amstrad en 1986

    Laissez-moi vous raconter une anecdote. En 1986, j’ai développé mon premier logiciel conversationnel. Un programme qui tournait sur Amstrad CPC, avec ses 64 Ko de mémoire vive. Ce système était déjà capable de tenir une conversation, de répondre à des questions, d’apprendre de ses interactions. On appelait ça un « système expert » à l’époque.

    Deux ans plus tard, en 1988, je créais un logiciel d’aide au diagnostic médical d’urgence. Il posait des questions, analysait les symptômes, proposait des diagnostics probables. Les médecins étaient bluffés. « C’est magique ! » disaient-ils. Non, c’était juste un arbre de décision sophistiqué avec une base de connaissances médicales.

    Vous savez quoi ? Fondamentalement, ChatGPT ne fait rien de plus. Oh bien sûr, il a accès à des milliards de paramètres au lieu de mes quelques milliers. Il tourne sur des serveurs surpuissants au lieu d’un ordinateur 8 bits. Mais le principe reste le même : pattern matching, statistiques, probabilités. Pas d’intelligence.

    La seule vraie différence ? Le marketing.

    L’affaire du petit Grégory ou comment l’IA déshumanise

    Fin avril 2023, une vidéo fait le buzz. On y voit le petit Grégory Villemin, assassiné en 1984, « ressuscité » par l’IA pour raconter son histoire. Les médias s’extasient devant cette prouesse technologique. Moi, j’ai envie de vomir.

    Ce n’est pas « l’IA » qui fait parler cet enfant mort. C’est un algorithme d’animation faciale couplé à une synthèse vocale. Des effets spéciaux qu’on trouve dans n’importe quel jeu vidéo moderne. Mais surtout, c’est l’œuvre de codeurs sans cœur, sans humanité, sans éthique.

    Parce que voilà le vrai problème de ce qu’on appelle l’IA : elle nous déshumanise. Elle nous fait oublier qu’il y a des limites morales à ne pas franchir. Elle transforme la tragédie humaine en spectacle technologique.

    Et le pire ? On applaudit.

    La technologie n’est jamais neutre

    Chaque ligne de code porte en elle les biais de son créateur. Chaque algorithme reflète une vision du monde. Quand un développeur programme un système, il y injecte forcément ses propres préjugés, ses propres limitations, sa propre idéologie.

    C’est mathématique : un algorithme ne peut pas être plus intelligent que celui qui l’a conçu. Il peut être plus rapide, traiter plus de données, mais il restera toujours prisonnier de la logique qu’on lui a imposée.

    La grande arnaque du GAI (General Artificial Intelligence)

    Aujourd’hui, on ne parle plus simplement d’IA mais de GAI – General Artificial Intelligence. Cette nouvelle appellation désigne tout système informatique qui effectue ou « apprend » n’importe quelle tâche cognitive. En gros, on a élargi la définition pour y inclure tout et n’importe quoi.

    Un correcteur orthographique ? C’est de l’IA. Un filtre Instagram ? De l’IA. Un tableau Excel avec des formules ? Bientôt de l’IA aussi, pourquoi pas.

    Cette inflation sémantique n’est pas innocente. Elle sert à justifier des investissements colossaux, à créer une bulle spéculative, à vendre du rêve aux investisseurs et du cauchemar aux travailleurs.

    Le vrai objectif : remplacer l’humain

    Parlons franchement. L’IA intéresse les entreprises pour une seule raison : se débarrasser des employés. Oh, on vous dira que c’est pour « augmenter la productivité » ou « libérer l’humain des tâches répétitives ». Foutaises.

    Dans moins de 9 ans, des logiciels d’automatisation gavés de pseudo-IA produiront en quelques minutes autant de travail administratif ou commercial qu’un employé en une journée. Et ils ne demanderont ni augmentation, ni congés, ni respect.

    Prenez les agences de voyage. Aujourd’hui déjà, une IA peut concevoir un voyage sur mesure : dates, budget, préférences, tout y passe. Le résultat ? Des milliers d’emplois qui vont disparaître. Et on ose appeler ça du progrès.

    La monnaie algorithmique : le prochain cauchemar

    Mais attendez, le meilleur reste à venir. La prochaine étape, c’est la monnaie numérique programmable. J’appelle ça la « monnaie algorithmique ». Une monnaie qui ne sera pas simplement digitale, mais « intelligente ».

    Imaginez : votre argent qui décide lui-même comment il peut être dépensé. Des euros qui refusent d’acheter de l’alcool après 22h. Des dollars qui s’autodétruisent si vous ne les dépensez pas dans le mois. Une monnaie qui vous surveille, vous juge, vous contrôle.

    Science-fiction ? Non, c’est en développement. Les banques centrales du monde entier planchent dessus. Et devinez quoi ? Elles appellent ça une innovation.

    Mon IA qui vous surveille au travail

    Puisqu’on en est aux confessions, laissez-moi vous parler de ma dernière création. La nuit dernière, j’ai terminé l’implémentation d’une intelligence artificielle qui apprend et supervise la manière dont un opérateur humain organise son travail.

    Cette IA « amicale » observe vos actions, analyse vos pauses, mesure votre productivité. Elle apprend vos habitudes, détecte vos faiblesses, optimise votre rendement. Big Brother en version corporate.

    Pourquoi je développe ça ? Parce que si je ne le fais pas, d’autres le feront. Et au moins, moi, j’ai encore assez de conscience pour vous prévenir : méfiez-vous de ces outils. Ils ne sont pas vos amis.

    L’IA, technologie rêvée des comploteurs

    On me demande parfois : « Peut-on comploter avec de l’IA ? » Ma réponse est toujours la même : « L’IA est la technologie rêvée des comploteurs. »

    Création de fausses preuves, manipulation de masse, surveillance généralisée, contrôle social… Tout devient possible et automatisable. Les complotistes ont encore de beaux jours devant eux. La chasse aux comploteurs vient à peine de commencer.

    Alors, c’est quoi la vraie intelligence ?

    Marie-Estelle Dupont l’a parfaitement résumé : la vraie intelligence, c’est la capacité à ressentir, à compatir, à créer du sens. C’est ce qui nous rend humains. Et ça, aucun algorithme ne pourra jamais le reproduire.

    Un algorithme peut simuler l’empathie en analysant des patterns émotionnels. Il peut générer des réponses qui semblent compatissantes. Mais il ne ressent rien. Il ne comprend pas la souffrance, la joie, l’amour. Il calcule.

    L’intelligence humaine, c’est cette étincelle inexplicable qui nous fait pleurer devant un coucher de soleil, rire d’une absurdité, nous indigner d’une injustice. C’est notre capacité à transcender la logique pure pour toucher à quelque chose de plus grand.

    Bref.

    Je continuerai à développer des systèmes algorithmiques. C’est mon métier, ma passion même. Mais je refuserai toujours de les appeler « intelligents ». Ce ne sont que des outils, potentiellement dangereux, toujours limités.

    La vraie question n’est pas de savoir si l’IA va nous remplacer. C’est de savoir si nous allons accepter de nous laisser déshumaniser par des machines qui ne comprennent rien à ce que nous sommes.

    Alors la prochaine fois qu’on vous vendra de l’IA miraculeuse, souvenez-vous : derrière chaque « intelligence artificielle » se cache un algorithme bête et discipliné, écrit par un humain faillible, au service d’intérêts qui ne sont probablement pas les vôtres.

    Et ça, c’est la seule vérité intelligente dans toute cette affaire.

    Pour aller plus loin

    Sources et références

    Photo : A Chosen Soul / Unsplash

  • Réformons les retraites, avec nos amis les robots!

    Je dois expliquer ma position sur le sujet de la réforme des #Retraites de Président #Macron car on me demande souvent pourquoi « je suis contre » au pretexte que « je ne devrais pas me sentir concerné, étant privilégié ».

    En ma qualité de (petit) acteur économique et de (petit) syndicaliste patronal #MEDEF, je critique ouvertement la réforme #Macron #Borne car je la trouve ridiculeusement simpliste, naïve, pauvre, dénuée d’intelligence, bâclée, non concertée, vite expédiée, pas du tout à la hauteur des enjeux.

    Clairement ce projet est tiré d’un travail de branquignoles « petits faiseux ».

    Les raisons de mon engagement contre cette réforme là sont multiples, déjà parce que je considère que mes ancêtres ont beaucoup œuvré pour des acquis sociaux qui inspirent partout sur la planète, parce que « tout est politique » et que « la politique est au centre de tout », parce que j’ai beaucoup d’empathie pour mes semblables qui vivent dans la même communauté que moi, parce que je sais ce qu’apporte une communauté apaisée et parce que je me considère comme un « patron social », la vie des salariés et des retraités en général m’importe beaucoup, une communauté de gens qui ont une vie stable, apaisée, libérée des tensions financières quotidiennes, équilibrée n’a pas de prix, et finalement tout le monde en profite (bien-être au quotidien, prospérité, sécurité).

    Réformer le système de retraite, je suis bien sûr d’accord et je l’appelle de mes vœux, il faut effectivement vite « repenser l’algorithme » car de nos jours les fonds destinés au paiement des retraites, générés par les travailleurs actifs, ne vont probablement pas suffire à couvrir les besoins pour des retraités qui sont toujours plus nombreux à vivre toujours plus longtemps. N’importe qui peut comprendre ça.Je vois les dirigeants politiques qui se succèdent, je vois leur incompétence, je vois leurs échecs qui s’accumulent et surtout les conséquences de ces échecs.Une bonne réforme des retraites doit prendre en compte deux choses à mes yeux, d’une part « la pénibilité au travail humain » et d’autre part « la productivité technologique ».

    J’estime en effet qu’il est absolument essentiel de mesurer la pénibilité au travail (et du travail), de la quantifier, de la catégoriser, de la mesurer et de la considérer. Qui peut penser qu’un homme qui travaille au fond d’un trou depuis l’âge de 16 ans puisse partir à la retraite dans le même état et quasiment au même âge qu’une femme qui a été secrétaire depuis ses 23 ans?

    Surtout, ma casquette de technologue me fait dire que les technologies d’industrialisation mécanisée et automatisée, l’automatisation industrielle, l’automatisation logicielle, la robotique industrielle, la robotique logicielle, et surtout l’intelligence artificielle d’une manière générale détruisent et remplacent indiscutablement des emplois en très grand nombre, et donc réduisent considérablement les revenus des caisses de retraite, il me paraît évident qu’il faut maintenant considérer que tous les systèmes de production automatisés doivent « contribuer » d’une manière ou d’une autre au paiement d’un revenu aux humains dans leur ensemble.

    Une communauté dans laquelle « le travail » est très automatisé (par des machines ou des logiciels) doit pouvoir en vivre de façon générale, donc oui Monsieur Elon #Musk (qui vient, honte à lui, de se prononcer en faveur de la réforme française) il faut que « les robots paient », non pas seulement les actionnaires des entreprises qui font des profits à partir de l’automatisation, mais surtout les humains de toute la communauté globalement doivent pouvoir en profiter.

    Je sais parfaitement de quoi je parle, je conçois à mon humble niveau des machines automatiques et de la robotique logicielle, clairement ces systèmes remplacent des travailleurs et des opérateurs humains, clairement avec beaucoup moins de gens on peut produire beaucoup plus de richesses. Le discours qui consiste à dire « les nouveaux métiers tirés des nouvelles technologies ouvrent de nouvelles perspectives d’emplois » est un discours très hypocrite, car la réalité c’est que les systèmes de traitement automatisés détruisent des emplois humains dans une proportion nettement supérieure aux emplois nouveaux créés dans les nouvelles branches « digitales » et installent un écosystème pyramidal où les quelques personnes qui contrôlent les technologies tout en haut, profitent de toutes les richesses quand tout en bas de plus en plus de pauvres s’apauvrissent.

    D’autant que nous savons tous qu’à partir de 50 ans il est vraiment très difficile de trouver du #travail (surtout en #France) et donc si on prolonge l’âge de départ à la retraite à 64, 67 ou 68 ans dans les faits, d’innombrables personnes vont se trouver en situation très compliquée sur les 10 ou 15 dernières années avant leur retraite officielle, c’est inacceptable et honteux.

    Une bonne réforme des retraites pour l’avenir de notre #civilisation moderne et technologique « à la française » c’est donc une réforme qui prendra en compte d’une part la #pénibilité au travail et d’autre part la #productivité automatisée.

  • L’expérience secrète Twitter.
    L’expérience secrète Twitter.

    En septembre 2011, j’ai décidé de microbloguer en 140 caractères.

    Ceci correspondait à une envie d’exprimer des idées et des points de vue, de les exposer au public, mais aussi à mes possibilités pratiques. Je voulais écrire mais je n’avais pas de temps pour ça. Twitter apportait une solution à ma problématique.

    Très vite, en quelques semaines, j’ai compris est cerné le potentiel politique réel de cet outil de communication instantanée, que je regardais du coin de l’œil depuis quelques années.

    J’ai pu constater la puissance d’un outil d’influence inégalé. J’ai rapidement vu l’emprise psychologique de certaines personnalités, les leaders (d’opinion) et j’ai vu les réactions provoquées sur les suiveurs.

    Le fonctionnement logique (simpliste) de Twitter m’a immédiatement beaucoup intrigué, je l’ai examiné en détail, j’ai compris l’algorithmie (notamment le fonctionnement chronologique des liens entre les comptes d’utilisateurs, les messages publiés, les « Like » et les « RT ») et j’ai eu une incroyable idée.

    Je me suis mis en tête de suivre « intelligemment » des comptes d’utilisateurs, toujours plus nombreux, et de regarder « intelligemment » ce qu’ils publient et ce qui se passe ensuite sur le réseau Twitter, notamment les interactions (très visibles ou peu visibles) et les évènements sur les comptes d’utilisateurs liés.

    Twitter fournit directement et indirectement d’innombrables données pour peu qu’on sache les identifier, les exploiter et les interpréter. Je sais identifier, exploiter et interpréter ces données. J’ai donc construit en quelques années une technologie de supervision globale pour mon propre compte, en amateur, qui m’a permis de déterminer les tendances, les groupes d’utilisateurs en fonction de certaines idées précises, d’identifier les leaders, de les catégoriser, de savoir qui connait qui et qui influence qui, avec quelles idées, dans à peu près tous les domaines intellectuels.

    En presque 10 ans, avec beaucoup d’automatisation, de robotique logicielle, d’intelligence artificielle, je suis parvenu à dessiner toutes les tendances, dans tous les domaines d’intérêts, et d’être en mesure de catégoriser n’importe quel compte d’utilisateur en fonction de ses connaissances, de ses idées et des liens logiques qui existent.

    Je peux profiler en quelques secondes n’importe quel compte d’utilisateur, et donc profiler l’utilisateur, souvent anonyme, qui se cache derrière.

    Évidemment, l’utilisation d’un système perfectionné d’analyse syntaxique est l’une des clés mais j’ai poussé le vice jusqu’à internationaliser l’outil en analysant d’autres langues que le français, comme l’anglais bien sûr mais aussi l’arabe et le russe.

    J’ai secrètement et opportunément accumulé des quantités de données disponibles dans le domaine public, toutes de sources ouvertes. L’interprétation de ces données m’a appris énormément sur la sociologie et sur les logiques communautaires, sur les idées qui se dégagent et sur leur force.

    Pendant de nombreuses années j’ai pu tester des idées très fortes et très pointues sur Twitter, en explorant la sociologie humaine, et constater les réactions et les interactions. J’ai été l’un des leaders d’opinion les plus controversés sur Twitter, j’ai provoqué de très nombreux débats sur de très nombreux sujets, généralement très sensibles.

    Pour ce qui concerne la France, je pense avoir globalement identifié tous les thèmes centraux, les zones de crispation, les limites, les problématiques communautaires, leurs acteurs, leurs leaders. Les amis et les ennemis de chaque groupe.

    J’estime que rien ne m’a échappé.

    Je n’aime pas du tout ce que j’ai découvert, j’ai toutes les informations nécessaires pour me faire une idée très précise des problématiques qui concernent la France, des résistances, des limites, des anomalies, des injustices et de la façon dont les choses évoluent, en temps réel.

    Les réseaux d’influences, les groupuscules, les corporations, les lobbies, les communautés, notamment en matière politique, puisque c’est le plus intéressant, et puisque tout est politique, n’ont plus vraiment de secrets pour moi.

    Je suis inquiet car j’ai pu observer que l’évolution de la législation sur la liberté d’expression en France est très dangereuse, sous la pression de certaines petites communautés très bien identifiées, très puissantes.

    J’ai cessé l’expérience secrète Twitter sous la forme que je lui avais donnée le 4 septembre 2020, très exactement 9 ans plus tard.

    Précisément le jour du 150ème anniversaire de la République.

  • Amazon, la guerre économique révèle notre impréparation stratégique
    Amazon, la guerre économique révèle notre impréparation stratégique
    Amazon vient de suspendre des milliers de vendeurs européens dans les secteurs essentiels, révélant notre dépendance totale à cette plateforme. La réaction française, entre précipitation et improvisation, démontre notre manque cruel de stratèges face à cette guerre économique numérique.

    C’est un truc de dingue. Vraiment. Amazon Europe vient de suspendre une quantité phénoménale de marchands fournisseurs dans les domaines de l’alimentation sèche, l’hygiène et les produits médicaux. Tous mes comptes vendeurs dans tous les pays européens sont tombés. Et je ne suis pas le seul. Des milliers d’entreprises françaises qui survivaient encore grâce à cette plateforme viennent de perdre leur dernier canal de distribution en pleine crise sanitaire.

    Il y a quelque chose de profondément troublant dans cette séquence. Quelque chose qui dépasse la simple décision commerciale d’une entreprise américaine. Nous assistons en direct à une démonstration de force qui devrait nous glacer le sang.

    La dissuasion numérique : une arme plus redoutable que l’atome

    Un expert en stratégie me confiait récemment : « La dissuasion numérique est aussi forte que la dissuasion nucléaire. » Sur le moment, j’ai trouvé la comparaison excessive. Aujourd’hui, je mesure à quel point il avait raison.

    Pensez-y deux secondes. Amazon peut, d’un simple clic, mettre à genoux des milliers d’entreprises européennes. Pas besoin de missiles, pas besoin de tanks. Juste une décision algorithmique prise quelque part entre Seattle et Luxembourg. Et nous voilà, impuissants, à regarder nos entreprises s’effondrer.

    Cette suspension massive n’est pas anodine. Elle touche spécifiquement trois secteurs critiques en période de crise :

    • L’alimentation sèche : les produits de première nécessité non périssables
    • L’hygiène : tout ce qui permet de maintenir des conditions sanitaires acceptables
    • Les produits médicaux : du matériel essentiel en pleine pandémie

    Coïncidence ? Permettez-moi d’en douter.

    L’ubérisation finale : quand le prédateur dévore ses proies

    Pendant des années, on nous a vendu l’ubérisation comme une opportunité. « Rejoignez la marketplace », « développez votre business », « accédez à des millions de clients ». Les entreprises françaises ont mordu à l’hameçon. Normal, c’était la seule façon de survivre face à la concurrence déloyale d’un géant qui ne paie pas d’impôts en France.

    Résultat ? Une dépendance totale. Des milliers d’entreprises qui avaient restructuré toute leur logistique autour d’Amazon. Des PME qui avaient investi dans des stocks, adapté leurs packagings, formé leurs équipes. Pour quoi ? Pour se faire jeter comme des malpropres au pire moment possible.

    C’est ça, l’ubérisation. On vous fait miroiter la liberté entrepreneuriale, mais en réalité, vous devenez un serf numérique. Corvéable à merci. Jetable sur simple notification.

    Les chiffres qui font mal

    En France, ce sont plus de 10 000 entreprises qui vendent sur Amazon. Pour beaucoup, la plateforme représente entre 30% et 80% de leur chiffre d’affaires. Certaines PME ont même abandonné leur site e-commerce propre, jugeant la bataille perdue d’avance.

    Maintenant, imaginez. Du jour au lendemain, votre principal canal de vente disparaît. Vos stocks sont bloqués dans les entrepôts Amazon. Vos clients n’ont plus accès à vos produits. Et tout ça en pleine crise sanitaire, alors que les magasins physiques sont fermés.

    C’est un massacre économique en règle.

    La riposte française : l’improvisation totale

    Face à cette situation, quelle est la réponse de nos dirigeants ? On ferme Amazon France. Comme ça, sans préparation, sans alternative, sans stratégie.

    Je vais peut-être vous surprendre, mais j’estime que c’est la pire façon de faire. On ferme Amazon au pire moment et dans la pire impréparation. C’est du grand n’importe quoi stratégique.

    Regardons les faits :

    • Pas de plateforme alternative française opérationnelle
    • Pas de plan B pour les entreprises dépendantes
    • Pas de coordination européenne
    • Pas de vision à long terme

    En France, il manque cruellement des stratèges et des tacticiens. On réagit à l’émotion, on légifère dans la précipitation, on ferme sans construire d’alternative. C’est de l’amateurisme pur et simple.

    Ce qu’il aurait fallu faire

    Une vraie stratégie aurait consisté à :

    1. Construire avant de détruire
    Créer une véritable alternative européenne à Amazon. Pas un énième site marchand, mais une infrastructure logistique et technologique capable de rivaliser.

    2. Imposer la réciprocité
    Si Amazon peut suspendre nos entreprises, nous devrions pouvoir suspendre Amazon. Mais pour ça, il faut des leviers. Des vrais.

    3. Réguler intelligemment
    Pas interdire, mais encadrer. Obliger à la transparence algorithmique. Imposer des garanties pour les vendeurs. Créer un statut juridique protecteur.

    4. Coordonner à l’échelle européenne
    Seuls, nous ne pesons rien. À 27, nous représentons le premier marché mondial. Mais ça demande de la vision et du courage politique.

    La souveraineté numérique : le grand absent du débat

    Cette crise révèle notre nudité stratégique. Nous n’avons aucune souveraineté numérique. Zéro. Nada. Nos entreprises dépendent de plateformes américaines, nos données sont stockées outre-Atlantique, nos citoyens communiquent via des messageries californiennes.

    Et pendant ce temps, que font nos « élites » ? Elles parlent de « French Tech », organisent des concours de startups, distribuent des subventions saupoudrées. Mais sur le fond, sur la vraie bataille – celle des infrastructures, celle de l’indépendance technologique – rien.

    La suspension massive d’Amazon devrait être notre électrochoc. Notre Pearl Harbor numérique. Le moment où on réalise qu’on est en guerre économique et qu’on n’a même pas commencé à s’armer.

    Les leçons de l’histoire

    Souvenez-vous du plan Calcul dans les années 60. De Gaulle avait compris que l’informatique serait stratégique. Il a lancé un plan massif pour créer une industrie informatique française. Ça n’a pas totalement marché, mais au moins, il y avait une vision.

    Aujourd’hui ? Rien. On laisse les GAFAM coloniser notre économie, on applaudit quand ils ouvrent un centre de recherche à Paris, on est content quand ils embauchent nos ingénieurs. C’est pathétique.

    Que faire maintenant ?

    Pour les entreprises touchées, l’urgence est de survivre. Quelques pistes :

    Diversifier en catastrophe
    Réactivez vos anciens canaux de distribution. Contactez directement vos clients. Utilisez les réseaux sociaux. Bricolez, mais vendez.

    Se regrouper
    Créez des collectifs de vendeurs. Mutualisez les ressources. La force du nombre peut créer des opportunités.

    Explorer les alternatives
    Cdiscount, Fnac, Darty… Ce n’est pas Amazon, mais c’est mieux que rien. Les marketplaces françaises existent, même si elles sont moins performantes.

    Reprendre le contrôle
    C’est le moment ou jamais de reconstruire votre indépendance commerciale. Site propre, base clients directe, logistique internalisée. Ça coûte cher, mais c’est le prix de la liberté.

    L’avenir se joue maintenant

    Cette crise Amazon n’est qu’un avant-goût. Demain, ce sera peut-être Google qui coupera nos accès publicitaires. Ou Facebook qui bloquera nos pages. Ou Microsoft qui suspendra nos licences Office 365.

    Nous sommes dans une guerre économique totale. Une guerre où les armes sont numériques, où les territoires sont virtuels, mais où les morts sont bien réels. Des entreprises qui ferment, des emplois qui disparaissent, une économie qui s’effondre.

    Face à ça, nous avons deux choix. Continuer à subir, en espérant que les maîtres américains seront cléments. Ou nous réveiller, nous organiser, et construire notre propre destin numérique.

    Je ne sais pas vous, mais moi, j’ai fait mon choix. Il est temps de se battre. Vraiment.

    Parce que là, clairement, il y a un truc pas clair du tout qui se passe. Et si on ne réagit pas maintenant, dans dix ans, il sera trop tard.

    Bref. La balle est dans notre camp. Qu’est-ce qu’on fait ?

    Pour aller plus loin

    Sources et références

    Photo : JESHOOTS.COM / Unsplash

  • Transports publics et pandémie, l’erreur stratégique française de mars 2020
    Transports publics et pandémie, l’erreur stratégique française de mars 2020
    Alors que l’épidémie de Covid-19 s’intensifie, la France maintient ses transports publics en fonctionnement normal, créant un paradoxe sanitaire majeur. Cette analyse examine les incohérences des mesures prises face à la pandémie naissante.

    Nous sommes le 12 mars 2020. L’Organisation mondiale de la santé vient de déclarer l’état de pandémie pour le Covid-19. L’Italie du Nord est bouclée depuis le 8 mars. Pourtant, en France, une situation paradoxale se dessine : d’un côté, on ferme les écoles et on limite les rassemblements, de l’autre, on maintient ouverts les transports de masse les plus fréquentés d’Europe.

    Cette contradiction révèle-t-elle une stratégie sanitaire cohérente ou une série d’erreurs d’appréciation qui pourraient coûter cher ?

    Le métro parisien : un laboratoire viral à ciel ouvert

    Chaque matin, près de 5 millions de voyageurs empruntent les transports franciliens. Dans les rames bondées de la ligne 1, 4, 6 ou 14, la distanciation sociale relève de la pure fiction. Les surfaces de contact se comptent par milliers : barres, sièges, portillons, boutons d’ouverture.

    Ce que nous savons déjà du virus à cette date est préoccupant. Il se transmet principalement par gouttelettes respiratoires et peut survivre plusieurs heures sur les surfaces. Les espaces confinés et mal ventilés constituent des environnements de propagation idéaux.

    Le métro parisien cumule tous ces facteurs de risque. Pourtant, aucune mesure spécifique n’a été prise pour adapter son fonctionnement à la situation sanitaire. Pas de limitation de fréquentation, pas de renforcement du nettoyage, pas d’obligation de port du masque.

    Cette inaction devient d’autant plus incompréhensible quand on observe ce qui se passe ailleurs. À Wuhan, le métro a été fermé dès le 23 janvier. En Corée du Sud, des mesures drastiques de désinfection ont été mises en place dans tous les transports publics.

    L’axe Paris-Strasbourg : une autoroute virale

    La situation devient encore plus préoccupante quand on analyse les flux de transport entre Paris et l’Est de la France. Le Haut-Rhin connaît depuis fin février une explosion de cas de Covid-19, notamment autour du rassemblement évangélique de Mulhouse qui a eu lieu du 17 au 21 février.

    Cette zone, devenue l’un des principaux foyers épidémiques français, reste pourtant parfaitement connectée à la capitale. Le TGV Est relie quotidiennement Strasbourg à Paris en 1h45, transportant des centaines de passagers dans chaque sens. Aucun contrôle sanitaire n’est effectué à bord ou dans les gares.

    Les chiffres sont éloquents : selon les données de la SNCF, près de 50 000 voyageurs empruntent chaque jour cette liaison. Combien parmi eux sont porteurs du virus sans le savoir ? Combien vont contribuer à essaimer l’épidémie dans la capitale ?

    Cette libre circulation entre foyer épidémique et métropole nationale interroge sur la cohérence de la stratégie sanitaire. Comment peut-on simultanément fermer les écoles pour limiter la propagation et maintenir ouvertes les liaisons ferroviaires à grande vitesse ?

    L’aéroport de Roissy : la porte ouverte

    Autre incohérence majeure : la gestion des flux aériens internationaux. Alors que l’épidémie fait rage en Chine depuis janvier et que l’Italie du Nord est bouclée, l’aéroport Charles-de-Gaulle continue d’accueillir des vols en provenance de ces zones sans contrôle sanitaire renforcé.

    Cette situation crée un paradoxe social troublant. Les voyageurs fortunés peuvent encore quitter les zones contaminées par avion, tandis que les populations locales subissent les mesures de confinement. À Milan Malpensa, les vols internationaux continuent de décoller, permettant aux plus aisés d’échapper aux restrictions.

    Cette différence de traitement entre classes sociales dans la gestion de crise révèle une réalité dérangeante : la pandémie ne touche pas tout le monde de la même manière, et les mesures prises semblent parfois tenir compte de ces inégalités.

    Les transports publics : vecteurs oubliés de la pandémie

    L’histoire des épidémies nous enseigne pourtant l’importance cruciale des transports dans la propagation des maladies infectieuses. La grippe de 1918 s’est propagée le long des voies ferrées. Le SRAS de 2003 a utilisé les réseaux aériens internationaux pour se répandre.

    Les autorités sanitaires françaises semblent avoir oublié ces leçons. Aucune étude d’impact n’a été rendue publique sur le rôle des transports dans la propagation du Covid-19. Aucune modélisation n’a été présentée sur l’effet d’une fermeture partielle ou totale des réseaux de transport.

    Cette absence de réflexion stratégique sur les transports contraste avec l’attention portée à d’autres secteurs. On ferme les restaurants et les cinémas, mais on maintient ouverts les espaces où la densité humaine est la plus forte et la ventilation la plus défaillante.

    Les syndicats de transport commencent d’ailleurs à s’inquiéter. Les conducteurs de bus et de métro, en première ligne face au public, n’ont reçu aucune consigne spécifique de protection. Aucun équipement de protection individuelle ne leur a été fourni.

    Une stratégie à géométrie variable

    Cette gestion paradoxale révèle les limites de la stratégie française face à l’épidémie. D’un côté, on prend des mesures spectaculaires comme la fermeture des écoles. De l’autre, on maintient en fonctionnement normal les infrastructures les plus à risque.

    Cette approche à géométrie variable soulève des questions sur la cohérence scientifique des décisions prises. Sur quelles études épidémiologiques se basent ces choix ? Quelle évaluation comparative a été faite entre les risques liés aux différents types d’activités ?

    Le gouvernement semble naviguer à vue, privilégiant les mesures les moins coûteuses économiquement. Fermer les écoles ne coûte rien à l’État. Arrêter les transports publics paralyserait l’économie francilienne.

    Cette logique économique prime-t-elle sur les considérations sanitaires ? Les prochains jours nous le diront. Mais une chose est certaine : maintenir en fonctionnement normal des espaces de promiscuité maximale en pleine pandémie constitue un pari risqué.

    Vers une remise en cause nécessaire

    Les décisions prises aujourd’hui en matière de transports publics pourraient bien être jugées demain par l’histoire. Elles révèlent notre capacité collective à anticiper, à prendre des décisions difficiles, à privilégier la santé publique sur les considérations économiques à court terme.

    D’autres pays ont fait des choix plus radicaux. La Chine a paralysé des villes entières. L’Italie a bouclé le Nord du pays. Ces mesures drastiques s’avéreront-elles plus efficaces que notre approche progressive ?

    Une chose est certaine : la gestion des transports publics en temps de pandémie nécessite une réflexion stratégique globale. On ne peut pas traiter le métro parisien comme un service public ordinaire quand 5 millions de personnes s’y croisent quotidiennement en pleine crise sanitaire mondiale.

    Les prochains jours seront cruciaux. Soit les autorités prennent conscience de l’urgence et adaptent enfin la politique de transport à la réalité épidémiologique, soit nous continuerons à naviguer dans cette incohérence qui pourrait coûter cher en vies humaines.

    Car au final, la question n’est pas de savoir si nous devons fermer les transports publics, mais plutôt de comprendre pourquoi nous ne l’avons pas encore fait.

    Pour aller plus loin

    Sources et références

  • Notre-Dame, un bug informatique désigne le mauvais coupable
    Notre-Dame, un bug informatique désigne le mauvais coupable
    Un mystérieux bug informatique aurait envoyé les agents de sécurité au mauvais endroit lors de la première alerte incendie à Notre-Dame, retardant de 38 minutes l’intervention des pompiers. Cette défaillance technique soulève des questions troublantes sur la vulnérabilité de nos systèmes de protection du patrimoine.

    18h20, lundi 15 avril. Une alarme retentit dans la cathédrale Notre-Dame. Un agent de sécurité se dirige vers le lieu indiqué par le système informatique. Il ne trouve rien. 23 minutes plus tard, une seconde alerte. Cette fois, c’est trop tard. La charpente huit fois centenaire part en fumée.

    Ce qui me frappe dans cette affaire, c’est l’incroyable enchaînement de défaillances. Un système de détection ultramoderne qui dysfonctionne au moment crucial. Des agents de sécurité envoyés au mauvais endroit. Et surtout, ce silence assourdissant sur les vraies causes de ce bug.

    La chronologie qui ne colle pas

    Reprenons les faits établis. Le système de détection enregistre une anomalie à 18h15. Cinq minutes plus tard, à 18h20, la première alerte incendie se déclenche. Pour moi, cette alerte correspond clairement à une détection positive. Le feu est là, quelque part dans la cathédrale.

    Mais voilà où ça se complique. Un « bug informatique » – ces guillemets ne sont pas anodins – envoie l’agent de sécurité au mauvais endroit. Il effectue sa levée de doute, ne voit rien, et repart. Le système a menti, ou plutôt, le système a été induit en erreur.

    La deuxième alerte survient à 18h43. Cette fois, impossible d’ignorer la réalité : la charpente est en feu. Les pompiers arrivent à 18h58, soit 38 minutes après le premier signal d’alarme. 38 minutes pendant lesquelles un incendie peut transformer une intervention simple en catastrophe nationale.

    Ce délai pose question. Dans n’importe quel bâtiment moderne, et a fortiori dans un monument historique de cette importance, la procédure est claire : alerte = vérification immédiate + appel aux secours si le moindre doute subsiste. Pourquoi cette procédure n’a-t-elle pas été suivie ?

    Le bug qui arrange bien des gens

    Patrick Chauvet, recteur de la cathédrale, évoque « sérieusement » l’hypothèse d’un bug informatique à l’origine de l’incendie. Permettez-moi d’être sceptique. Un bug peut expliquer une mauvaise localisation. Un bug peut retarder une intervention. Mais un bug qui déclenche un incendie ? C’est pousser la responsabilité technologique un peu loin.

    Ce qui me dérange profondément, c’est cette tendance à tout mettre sur le dos de l’informatique. C’est pratique : pas de responsable humain, pas de négligence, juste une machine qui dysfonctionne. Circulez, il n’y a rien à voir.

    Sauf que les systèmes informatiques, ce sont des humains qui les conçoivent, les installent, les maintiennent. Un bug, ce n’est jamais un acte de Dieu. C’est soit une erreur de programmation, soit un défaut de maintenance, soit – et c’est plus inquiétant – une vulnérabilité exploitée.

    Les zones d’ombre de l’enquête

    Plusieurs éléments troublants émergent de mes sources. D’abord, on cherche obstinément une cause extérieure : l’échafaudage, l’ascenseur, un point chaud quelconque. Pourtant, d’après mes informations, l’incendie a bel et bien démarré à l’intérieur, dans la charpente sous la flèche. Un endroit décrit comme « hermétique », difficilement accessible.

    Ensuite, il y a ce rapport du CNRS, classé secret défense. Un document qui détaille non seulement la vulnérabilité au feu des combles et de la charpente, mais aussi – et c’est là que ça devient intéressant – les « scénarios possibles » pour, je cite mes sources, « tout faire cramer ». Un manuel d’instruction pour pyromane, en quelque sorte.

    Pourquoi ce rapport est-il classifié ? Quelles informations contient-il de si sensible qu’on ne puisse les rendre publiques ? La sécurité nationale est-elle en jeu, ou cherche-t-on simplement à éviter l’embarras ?

    Une source proche de l’enquête m’a confié : « Il est possible que l’on ne sache jamais qui est à l’origine de cet incendie. » Cette phrase, lâchée dès le lendemain du drame, sonne comme un aveu d’impuissance. Ou pire, comme une volonté de ne pas savoir.

    L’informatique, bouc émissaire idéal

    Dans notre société hyper-connectée, le bug informatique est devenu l’excuse parfaite. Panne de réseau, erreur système, défaillance logicielle… Ces termes techniques masquent souvent des réalités plus prosaïques : manque de formation, négligence, économies sur la maintenance.

    Les systèmes de détection incendie modernes sont conçus avec de multiples redondances. Un capteur défaillant ? Les autres prennent le relais. Une erreur de localisation ? Le système affiche plusieurs zones possibles. Pour qu’un bug envoie quelqu’un complètement au mauvais endroit, il faut soit une défaillance majeure du système, soit… autre chose.

    Ce « bug » soulève des questions techniques précises :

    • Quelle était la nature exacte de la défaillance ?
    • Le système a-t-il été audité après l’incident ?
    • Y avait-il des signes avant-coureurs de dysfonctionnement ?
    • Les logs du système ont-ils été préservés et analysés ?

    Sans réponses à ces questions, parler de bug reste de la spéculation.

    Les questions qui dérangent

    Deux informations cruciales manquent toujours au dossier. Premièrement, l’heure exacte à laquelle de la fumée était visible de l’extérieur. Cette donnée permettrait de recouper avec les alertes système et de vérifier la cohérence du récit officiel.

    Deuxièmement, l’heure du premier appel aux pompiers. Qui a appelé ? Un passant voyant de la fumée ? Le personnel de la cathédrale après la deuxième alerte ? Ce détail n’est pas anodin : il pourrait révéler un décalage entre la réalité visible et la réaction officielle.

    Ces trous dans la chronologie ne sont pas anodins. Ils empêchent de reconstituer précisément la séquence des événements. Et dans une enquête de cette importance, chaque minute compte.

    Vers une remise en question systémique ?

    L’incendie de Notre-Dame révèle les limites de notre dépendance technologique. Nous confions la protection de nos trésors les plus précieux à des systèmes informatiques faillibles, opérés par du personnel parfois insuffisamment formé.

    La question n’est pas de rejeter la technologie, mais de comprendre ses limites. Un système de détection, aussi sophistiqué soit-il, ne remplace pas la vigilance humaine. Un protocole de sécurité, aussi détaillé soit-il, ne vaut que par son application rigoureuse.

    Ce qui s’est passé à Notre-Dame devrait servir de signal d’alarme – sans mauvais jeu de mots. Combien d’autres monuments, d’autres bâtiments critiques, reposent sur des systèmes similaires ? Combien de bugs attendent leur heure pour transformer une alerte en catastrophe ?

    Bref. On nous parle de bug informatique pour éviter de parler de responsabilités humaines. On cherche des causes techniques pour ne pas regarder les défaillances organisationnelles. Et pendant ce temps, Notre-Dame n’est plus qu’un squelette de pierre noirci.

    La vraie question n’est pas de savoir si un bug peut causer un incendie. C’est de comprendre pourquoi, en 2019, avec tous nos moyens technologiques, nous n’avons pas su protéger un joyau vieux de 850 ans. Et surtout, pourquoi certains semblent si pressés d’enterrer les vraies questions sous une montagne de jargon informatique.

    L’enquête continue, nous dit-on. Mais avec un rapport secret défense et des témoins qui évoquent déjà l’impossibilité de connaître la vérité, permettez-moi de douter qu’on nous raconte un jour toute l’histoire. Le bug informatique restera sans doute le coupable idéal : impossible à interroger, facile à blâmer, et surtout, qui ne parlera jamais.

    Pour aller plus loin

    Photo : Nivenn Lanos / Unsplash

  • Christchurch : quand la haine s’arme de technologie
    Christchurch : quand la haine s’arme de technologie
    Un terroriste d’extrême droite a tué des dizaines de fidèles musulmans dans deux mosquées de Christchurch, en Nouvelle-Zélande, tout en diffusant son attaque en direct sur internet. Cette tuerie marque l’émergence d’une nouvelle forme de terrorisme suprémaciste blanc, nourri par la haine en ligne et les théories du « grand remplacement ».

    Il est 13h40 ce vendredi 15 mars à Christchurch. L’heure de la prière du vendredi, moment sacré où les musulmans se rassemblent. Plus de 300 fidèles sont réunis dans la mosquée Al-Noor. C’est là qu’un homme armé fait irruption et ouvre le feu. Le bilan provisoire fait état de dizaines de morts et de blessés dans deux mosquées de la ville. Mais au-delà de l’horreur du massacre, c’est la méthode qui sidère : pour la première fois dans l’histoire du terrorisme d’extrême droite, l’attaque est diffusée en direct sur internet.

    Le terrorisme 2.0 : quand la haine devient spectacle

    Ce qui frappe d’emblée dans cette attaque, c’est sa dimension technologique. Le tueur a utilisé une caméra GoPro fixée sur son casque pour filmer son massacre en direct via une plateforme de streaming populaire. Pendant 17 minutes, il a diffusé en temps réel sa progression meurtrière dans la mosquée Al-Noor.

    Cette utilisation du live streaming marque une rupture dans l’histoire du terrorisme. Si les groupes djihadistes avaient déjà largement investi les réseaux sociaux pour leur propagande, jamais un attentat n’avait été diffusé en direct par son auteur lui-même. Le terroriste a transformé son massacre en spectacle, cherchant délibérément à maximiser l’impact médiatique et la viralité de son acte.

    La vidéo, filmée à la première personne comme dans un jeu vidéo de type « first-person shooter », révèle une mise en scène macabre et calculée. Le tueur a même diffusé de la musique pendant son trajet vers la mosquée, créant une ambiance surréaliste qui rappelle effectivement l’univers des jeux de guerre.

    Les symboles de la haine : décryptage d’un arsenal idéologique

    Au-delà de la technologie, c’est tout un arsenal symbolique que le terroriste a déployé. Sur l’un de ses fusils d’assaut, on pouvait lire l’inscription « KEBAB REMOVER » – une référence directe aux mèmes racistes qui circulent dans les forums d’extrême droite où les musulmans sont déshumanisés par ce terme péjoratif.

    Cette inscription n’est pas anodine. Elle révèle l’ancrage du tueur dans la culture des forums extrémistes en ligne, où la haine anti-musulmane se nourrit de « blagues » racistes et de références codées. Le terme « kebab » est utilisé de manière systématique pour désigner les musulmans dans ces espaces, participant à leur déshumanisation progressive.

    Les armes du terroriste portaient également d’autres inscriptions : des dates de batailles historiques entre chrétiens et musulmans, des noms de victimes d’attentats islamistes en Europe, des références à Charles Martel et aux croisades. Chaque inscription transformait l’arme en manifeste idéologique, inscrivant l’attaque dans une prétendue « guerre de civilisation ».

    La radicalisation en ligne : du jeu vidéo à la réalité meurtrière

    L’influence des jeux vidéo de guerre dans la préparation et l’exécution de l’attaque pose question. Le terroriste semble avoir appliqué des techniques d’assaut militaire apprises virtuellement. Sa progression méthodique dans la mosquée, sa gestion des rechargements, son positionnement tactique – tout rappelle les mécaniques des jeux de tir à la première personne.

    Mais attention à ne pas tomber dans le piège simpliste qui consisterait à blâmer les jeux vidéo. Des millions de personnes jouent à ces jeux sans jamais passer à l’acte. Ce qui est en cause, c’est plutôt l’écosystème toxique de certains forums de joueurs où se mélangent culture du gaming et idéologie d’extrême droite.

    Dans ces espaces, la violence virtuelle devient progressivement un exutoire à la haine réelle. Les « blagues » racistes se multiplient, la déshumanisation de l’ »ennemi » devient systématique, et certains finissent par franchir la ligne rouge entre le virtuel et le réel.

    Les connexions internationales : un terrorisme globalisé

    Des informations préliminaires suggèrent que le terroriste aurait voyagé en France et aurait été potentiellement influencé par certaines figures de la droite identitaire française. Sans pouvoir confirmer ces éléments à ce stade, ils soulèvent la question de la circulation internationale des idées suprémacistes.

    La théorie du « grand remplacement », popularisée en France, semble avoir joué un rôle central dans la radicalisation du tueur. Cette théorie conspirationniste, qui prétend que les populations européennes seraient progressivement « remplacées » par l’immigration musulmane, constitue le socle idéologique de nombreux groupes d’extrême droite à travers le monde.

    Ce qui frappe, c’est la globalisation de cette idéologie haineuse. Un Australien commet un attentat en Nouvelle-Zélande, potentiellement inspiré par des idées françaises, en utilisant des références américaines et européennes. Le terrorisme suprémaciste blanc est devenu transnational, unifié par internet et une vision apocalyptique commune.

    L’échec des plateformes : quand la technologie facilite la haine

    La diffusion en direct du massacre pose des questions cruciales sur la responsabilité des plateformes technologiques. Comment un tel contenu a-t-il pu être diffusé pendant 17 minutes sans intervention ? Pourquoi les mécanismes de modération ont-ils échoué ?

    Les grandes plateformes de streaming et de réseaux sociaux se trouvent face à leurs contradictions. D’un côté, elles prônent la liberté d’expression et l’ouverture. De l’autre, elles deviennent les vecteurs involontaires de la propagande terroriste. Le live streaming, conçu pour partager des moments de vie, devient un outil de mort.

    La vitesse de propagation de la vidéo après l’attaque révèle également les limites de la modération. Malgré les efforts pour supprimer le contenu, des copies continuent de circuler, re-téléchargées en boucle par des sympathisants. La technologie qui devait nous rapprocher devient l’outil de diffusion de la haine la plus extrême.

    Comprendre pour combattre : les leçons d’une tragédie

    Cette attaque marque un tournant dans l’histoire du terrorisme. Elle révèle l’émergence d’une nouvelle génération de terroristes d’extrême droite, nourris par la culture internet, radicalisés dans les forums, et capables d’utiliser la technologie pour maximiser l’impact de leurs actes.

    Face à cette menace, plusieurs réponses s’imposent. D’abord, prendre au sérieux la radicalisation en ligne. Les forums extrémistes ne sont pas des espaces de « liberté d’expression » mais des incubateurs de haine. Ensuite, responsabiliser les plateformes technologiques. Elles ne peuvent plus se cacher derrière leur statut d’ »hébergeur neutre » quand leurs outils servent à diffuser des massacres.

    Enfin, et c’est peut-être le plus important, il faut combattre les idéologies qui nourrissent cette violence. La théorie du « grand remplacement » et autres fantasmes suprémacistes ne sont pas des « opinions » mais des appels à la haine qui préparent le passage à l’acte. Quand des politiciens mainstream reprennent ces rhétoriques, ils participent à la légitimation de la violence.

    Les musulmans de Christchurch priaient en paix ce vendredi. Ils ont été fauchés par la haine armée de technologie. Leur mort nous oblige. Elle nous oblige à regarder en face la montée du terrorisme suprémaciste blanc, à comprendre ses mécanismes, et à le combattre avec la même détermination que toute autre forme de terrorisme.

    Car ne nous y trompons pas : ce qui s’est passé à Christchurch n’est pas un acte isolé d’un « loup solitaire ». C’est le produit d’un écosystème de haine qui prospère en ligne et hors ligne. Un écosystème que nous avons trop longtemps laissé se développer. Il est temps d’agir.

    Pour aller plus loin

    Sources et références

    Photo : Jeremy Matteo / Unsplash

  • Boeing 737 MAX, son logiciel fait vaciller un géant de l’aviation
    Boeing 737 MAX, son logiciel fait vaciller un géant de l’aviation
    Le nouveau Boeing 737 MAX connaît une crise sans précédent avec deux crashs mortels en quatre mois, forçant l’immobilisation mondiale de la flotte. Au cœur du problème : le système MCAS, un logiciel censé améliorer la sécurité mais qui pourrait signer l’arrêt de mort du programme phare de Boeing.

    Je n’aurais jamais imaginé écrire ces mots : Boeing, le géant américain de l’aviation, pourrait disparaître à cause d’un « petit logiciel de merde planqué dans l’avionique ». Pourtant, c’est exactement ce qui se profile à l’horizon en ce mois de mars 2019. Deux crashs mortels en quatre mois, des centaines d’avions cloués au sol, et un système automatique qui semble avoir pris le contrôle sur les pilotes. Bienvenue dans le cauchemar du Boeing 737 MAX.

    Le début de la fin : Ethiopian Airlines et la spirale infernale

    Le 10 mars 2019, le vol ET302 d’Ethiopian Airlines s’écrase peu après son décollage d’Addis-Abeba. L’appareil ? Un Boeing 737 MAX 8 flambant neuf, âgé de seulement quatre mois. Les dernières données disponibles suggèrent une perte de contrôle à 8 600 pieds d’altitude. Pour ceux qui suivent l’aviation de près, ce scénario rappelle étrangement le crash du vol Lion Air 610 en octobre 2018, impliquant le même modèle d’avion.

    Ce qui me frappe, c’est la rapidité avec laquelle les compagnies aériennes ont réagi. Ethiopian Airlines a immédiatement cloué au sol ses trois autres 737 MAX 8. La Chine a suivi dans la foulée, interdisant tous les vols de ce modèle sur son territoire. En quelques heures, c’est un effet domino mondial qui s’est déclenché.

    J’ai personnellement volé plusieurs fois sur des 737 MAX 8, notamment avec FlyDubai au départ de Dubaï. C’est un avion confortable, mais on sent qu’il évolue verticalement de façon prononcée quand il le fait. Une sensation inhabituelle qui, avec le recul, prend une dimension inquiétante.

    MCAS : Le logiciel tueur caché dans les entrailles du MAX

    Au cœur de cette crise se trouve un acronyme qui va hanter Boeing : MCAS (Maneuvering Characteristics Augmentation System). Ce « petit logiciel » a été développé spécifiquement pour le 737 MAX afin de gérer une problématique d’inclinaison liée à la position des nouveaux moteurs, plus gros et placés différemment que sur les versions précédentes du 737.

    Le problème ? Ce système peut prendre le contrôle de l’avion et pousser le nez vers le bas si ses capteurs détectent un angle d’attaque trop élevé. Sauf que si ces capteurs donnent de mauvaises informations, le MCAS peut littéralement forcer l’avion vers le sol, contre la volonté des pilotes.

    Ce qui est particulièrement troublant, c’est que Boeing n’a pas jugé nécessaire d’informer en détail les pilotes de l’existence de ce système lors du lancement du MAX. La formation de transition depuis les anciens 737 était minimale, basée sur l’idée que le MAX était essentiellement le même avion. Une décision qui s’avère aujourd’hui catastrophique.

    L’effet domino : Quand le monde entier cloue Boeing au sol

    La liste des compagnies suspendant leurs 737 MAX s’allonge d’heure en heure :

    • Ethiopian Airlines (évidemment)
    • Toutes les compagnies chinoises : Air China, China Southern, China Eastern, et une dizaine d’autres
    • Royal Air Maroc
    • Comair
    • Mongolian Airlines
    • Lion Air et Garuda en Indonésie
    • Et la liste continue de s’allonger…

    Ce qui est sans précédent, c’est la vitesse et l’ampleur de cette mise au sol. Avec 270 appareils déjà livrés et plus de 4 800 en commande, c’est tout le carnet de commandes de Boeing qui est menacé. La compagnie a d’ailleurs annulé tous ses événements médiatiques prévus pour la présentation de son nouveau 777X. Le message est clair : c’est la panique à Seattle.

    Les implications financières et industrielles

    Chaque jour d’immobilisation coûte des millions aux compagnies aériennes. Les annulations de vols, les compensations aux passagers, la location d’appareils de remplacement… La facture s’alourdit. Pour Boeing, c’est encore pire : arrêt des livraisons, possibles annulations de commandes, et surtout, une réputation en miettes.

    Le 26 mars, un nouvel incident vient enfoncer le clou : un 737 MAX 8 de Southwest Airlines, heureusement sans passagers, doit effectuer un atterrissage d’urgence suite à un problème moteur. Même en transit vers son lieu de stockage, ces avions semblent maudits.

    Airbus, le grand gagnant par défaut

    Pendant que Boeing s’enfonce dans la crise, son rival européen Airbus se frotte les mains. La Chine vient d’annoncer une commande massive de 300 Airbus, principalement des A320. Mais attention, ces appareils ne seront pas fabriqués en France par des travailleurs français payés au salaire français. Non, ils seront assemblés sur le site d’Airbus à Tianjin, au nord de Pékin.

    Cette commande chinoise n’est pas anodine. Elle envoie un message clair : la Chine, premier marché aéronautique mondial en devenir, peut se passer de Boeing. Et quand on sait que le 737 MAX était censé être la réponse de Boeing à l’A320neo d’Airbus, on mesure l’ampleur du désastre.

    Une industrie en mutation

    Cette crise révèle les failles d’un système où la course à la performance et aux économies peut primer sur la sécurité. Le 737 MAX était censé être plus économe en carburant, plus performant, tout en restant suffisamment proche de l’ancien 737 pour minimiser les coûts de formation des pilotes. Cette quadrature du cercle a mené à des compromis techniques, dont le MCAS est l’exemple le plus tragique.

    Les leçons d’une tragédie annoncée

    Ce qui me frappe dans cette affaire, c’est à quel point elle était prévisible. Quand on confie la sécurité de centaines de vies à un logiciel dont les pilotes ignorent l’existence ou le fonctionnement exact, on joue avec le feu. L’affaire du 737 MAX nous rappelle brutalement que la technologie n’est pas infaillible, surtout quand elle est conçue pour masquer des défauts de conception plutôt que pour véritablement améliorer la sécurité.

    Cette crise marque selon moi un tournant historique dans l’aviation. Pour la première fois, un modèle d’avion moderne est cloué au sol mondialement non pas pour un défaut mécanique visible, mais pour un problème logiciel. C’est le symbole d’une industrie où le software prend de plus en plus le pas sur le hardware, avec tous les risques que cela comporte.

    L’humain face à la machine

    Les pilotes du vol Ethiopian Airlines, comme ceux du vol Lion Air avant eux, se sont retrouvés dans un combat perdu d’avance contre leur propre avion. Imaginez-vous aux commandes, tirant sur le manche pour redresser l’appareil, pendant qu’un système invisible pousse obstinément le nez vers le sol. C’est le cauchemar de tout pilote : perdre le contrôle de sa machine.

    Cette tragédie nous rappelle aussi l’affaire du vol MH370 de Malaysia Airlines, disparu en 2014. Là aussi, la technologie censée nous protéger s’est révélée impuissante. Les systèmes de communication et de localisation ultra-sophistiqués n’ont pas empêché un Boeing 777 de disparaître sans laisser de traces. Le pilote de ce vol était d’ailleurs connu pour connaître tous les secrets des Boeing 777, ce qui rend sa disparition encore plus troublante.

    Vers un avenir incertain pour Boeing

    En ce mois de mars 2019, l’avenir de Boeing semble suspendu aux conclusions des enquêtes en cours. Si le MCAS est confirmé comme la cause des deux crashs, c’est tout le programme 737 MAX qui pourrait être remis en question. Avec plus de 4 800 commandes en carnet, l’enjeu financier est colossal.

    Mais au-delà de l’aspect financier, c’est la confiance qui est brisée. Comment convaincre les passagers de remonter dans un 737 MAX ? Comment persuader les compagnies aériennes que le problème est résolu ? Boeing va devoir non seulement corriger le problème technique, mais aussi reconstruire sa réputation.

    Un autre accident sur un 737 MAX dans les prochains mois signerait probablement l’arrêt de mort du programme, avec des conséquences catastrophiques pour Boeing. L’entreprise centenaire pourrait-elle vraiment disparaître à cause d’un logiciel ? Il y a encore quelques mois, l’idée aurait paru absurde. Aujourd’hui, elle ne l’est plus.

    Pour aller plus loin

    Sources et références

    Photo : David Syphers / Unsplash

  • Grand Débat National, la démocratie participative numérique se plante en beauté
    Grand Débat National, la démocratie participative numérique se plante en beauté
    Le portail officiel du Grand Débat National accumule les dysfonctionnements : inscriptions impossibles, ergonomie défaillante et absence totale d’espaces de discussion. Une occasion manquée pour la démocratie participative numérique française.

    Nous sommes le 21 janvier 2019. Le Grand Débat National, cette grande consultation citoyenne promise par Emmanuel Macron en réponse à la crise des Gilets Jaunes, devait démarrer aujourd’hui. J’avais préparé mes 1001 sujets, j’étais prêt à animer des débats jour et nuit. Mais voilà : impossible de participer.

    Pas d’email d’invitation reçu. Pas de portail fonctionnel. Pas d’espace de débat visible.

    Bienvenue dans la démocratie participative à la française, version 2019.

    Un lancement raté qui en dit long

    Depuis le 15 janvier, j’essaie de m’inscrire sur granddebat.fr. Résultat ? Aucun email de validation ne parvient, malgré plusieurs tentatives avec différentes adresses. Le site semble fonctionner au ralenti, quand il ne plante pas carrément.

    Cette défaillance technique n’est pas anodine. Elle révèle une approche complètement déconnectée de ce qu’attendent les citoyens en matière de participation numérique. Quand on lance un « grand débat national », on s’attend à pouvoir… débattre. Pas à remplir des formulaires dans le vide.

    Le calendrier lui-même illustre cette improvisation. Annoncé pour le 21 janvier, le lancement a été repoussé au 22. Puis les fonctionnalités promises n’apparaissent toujours pas. Cap Collectif, l’entreprise en charge du développement technique, semble dépassée par l’ampleur du défi.

    Les attentes d’un entrepreneur tech

    En tant qu’entrepreneur dans la tech depuis 1992, j’avais des attentes précises. Je m’attendais à trouver des forums publics ouverts, des groupes de discussion thématiques, la possibilité de créer et d’animer des débats sur des questions précises. Bref, les outils de base de la démocratie participative numérique.

    À la place, on nous sert un outil qui ressemble plus à un sondage géant qu’à un véritable espace d’échange. C’est d’autant plus frustrant que les solutions techniques existent depuis des années.

    Une ergonomie qui décourage la participation

    Quand j’ai finalement réussi à accéder au site, la déception a été à la hauteur de mes attentes. Pour chaque nouvelle proposition, il faut remplir un formulaire avec des dizaines de questions. L’expérience utilisateur est si laborieuse que j’ai fini par renoncer.

    Cette approche par formulaires révèle une méconnaissance totale des mécaniques de l’engagement en ligne. Les citoyens qui prennent le temps de participer veulent échanger, débattre, confronter leurs idées. Pas subir un interrogatoire administratif.

    Le résultat ? Des contributions publiées sans catégorisation claire, sans hiérarchisation, sans possibilité de réaction ou de discussion. On accumule les avis isolés au lieu de créer une dynamique collective.

    L’exemple à ne pas suivre

    Après une semaine de test, le constat est sans appel : granddebat.fr est l’exemple parfait de ce qu’il ne faut pas faire en matière de démocratie participative numérique. L’outil officiel du Grand Débat National ressemble plus à une enquête de satisfaction qu’à un véritable espace démocratique.

    Cette approche technocratique passe à côté de l’essentiel. La démocratie participative, c’est avant tout créer du lien, permettre l’échange d’arguments, favoriser l’émergence d’un consensus. Pas collecter des opinions dans des cases prédéfinies.

    Les leçons d’un échec annoncé

    Cet échec technique révèle des problèmes plus profonds dans l’approche française de la participation citoyenne. Nous avons tendance à plaquer des solutions top-down sur des besoins bottom-up, sans vraiment comprendre les attentes des utilisateurs.

    La consultation des Gilets Jaunes s’est largement organisée sur Facebook, dans des groupes spontanés où les gens débattaient vraiment. Pourquoi ne pas s’inspirer de ces dynamiques naturelles plutôt que d’imposer un cadre rigide ?

    Les alternatives qui fonctionnent

    D’autres pays ont développé des outils de démocratie participative bien plus efficaces. L’Estonie avec sa plateforme e-Residency, Taiwan avec vTaiwan, ou encore Madrid avec Decide Madrid montrent qu’il est possible de créer de véritables espaces de débat numérique.

    Ces plateformes partagent des caractéristiques communes : interface intuitive, possibilité de débat contradictoire, modération transparente et restitution claire des résultats. Tout ce qui manque cruellement à notre Grand Débat National.

    Une opportunité gâchée pour la démocratie française

    Le Grand Débat National représentait une opportunité historique de réconcilier les Français avec la politique grâce au numérique. La crise des Gilets Jaunes avait montré l’appétit des citoyens pour s’exprimer et participer aux décisions qui les concernent.

    Mais au lieu de saisir cette chance, nous assistons à un gâchis monumental. Un outil mal conçu, des dysfonctionnements techniques à répétition, une ergonomie rebutante : tout concourt à décourager la participation citoyenne.

    C’est d’autant plus dommageable que les enjeux sont énormes. Transition écologique, fiscalité, organisation des territoires, démocratie : les quatre thèmes du Grand Débat touchent au cœur des préoccupations françaises. Nous méritons mieux qu’un formulaire en ligne bâclé.

    L’urgence d’une refonte

    Il est encore temps de corriger le tir. Mais cela nécessiterait de reconnaître l’échec actuel et de repartir sur des bases saines. Impliquer de vrais experts de la démocratie participative numérique, écouter les retours des premiers utilisateurs, s’inspirer des bonnes pratiques internationales.

    Surtout, il faudrait comprendre que la technologie n’est qu’un outil au service d’un objectif politique : redonner la parole aux citoyens. Si l’outil entrave cet objectif, il faut le changer.

    En attendant, nous voilà avec un Grand Débat National qui risque fort de tourner au petit débat confidentiel. Une occasion manquée de plus pour la démocratie française.

    Pour aller plus loin

    Photo : Jordan Bracco / Unsplash

  • Radars automatiques neutralisés : l’insurrection silencieuse des Gilets Jaunes
    Radars automatiques neutralisés : l’insurrection silencieuse des Gilets Jaunes
    Depuis le mouvement des Gilets Jaunes, 75% des radars automatiques français sont neutralisés sans impact notable sur la mortalité routière. Cette situation inédite remet en question l’efficacité réelle de ces dispositifs et force à repenser entièrement la politique de sécurité routière par l’automatisation.

    Je n’aurais jamais imaginé écrire ces lignes un jour. Pourtant, les faits sont là, têtus comme des radars vandalisés au bord de nos routes : depuis trois semaines, la France vit une expérience grandeur nature qui bouleverse vingt ans de politique de sécurité routière.

    75% des radars automatiques sont actuellement neutralisés sur le territoire français. Pas par une décision gouvernementale, pas par une panne technique généralisée, mais par l’action coordonnée et spontanée des Gilets Jaunes. Et contrairement à toutes les prédictions catastrophistes, le ciel ne nous est pas tombé sur la tête.

    Cette situation inédite soulève une question que personne n’osait poser : et si les radars automatiques n’étaient pas aussi indispensables qu’on nous l’a fait croire ?

    L’effondrement d’un système en trois semaines

    Tout a commencé le 17 novembre 2018. Les premiers rassemblements de Gilets Jaunes ciblaient initialement les taxes sur les carburants, mais très rapidement, les radars automatiques sont devenus des cibles privilégiées. Symboles d’un État perçu comme punitif et cupide, ces boîtiers gris ont cristallisé une colère qui couvait depuis des années.

    La méthode est simple, efficace et accessible à tous. Pas besoin d’explosifs ou d’outils sophistiqués. Un peu de peinture, de la mousse expansive, parfois simplement un sac plastique ou du scotch suffisent à aveugler définitivement ces dispositifs électroniques pourtant réputés indestructibles.

    Les Gilets Jaunes ont découvert qu’ils pouvaient neutraliser ces radars sans aucun risque pénal significatif et avec très peu de moyens. Face à l’ampleur du mouvement, les forces de l’ordre ne peuvent pas être partout. Le coût de surveillance permanente de chaque radar dépasserait largement les recettes qu’ils génèrent.

    Résultat : d’innombrables radars automatiques sont neutralisés sur tout le territoire français, et je ne vois pas comment la situation pourrait revenir à la normale rapidement. Qui croit sérieusement que les gens vont laisser rétablir tranquillement ces dispositifs ? Il faudra beaucoup de temps…

    L’expérience involontaire qui dérange

    Voici où l’histoire devient vraiment intéressante. Depuis trois semaines, la plupart des radars automatiques sont neutralisés, ce qui aurait dû conduire à une forte hausse des accidents de la route selon la doxa officielle. En vérité, ça n’a pas eu d’effet notable sur la mortalité routière.

    Cette réalité dérange profondément les partisans du « tout répressif » en matière de sécurité routière. Depuis 2003, date d’installation des premiers radars automatiques, nous entendons le même discours : ces dispositifs sauvent des vies, ils sont indispensables, les contester c’est accepter la mort sur nos routes.

    Les chiffres officiels de la Sécurité routière montrent pourtant une baisse continue de la mortalité depuis les années 1970, bien avant l’arrivée des radars automatiques. Cette diminution s’explique par l’amélioration de la sécurité des véhicules, l’évolution des infrastructures, les campagnes de prévention et, oui, aussi par les contrôles de vitesse. Mais dans quelle proportion ?

    L’expérience involontaire que nous vivons actuellement suggère que la part des radars automatiques dans cette amélioration pourrait être moins déterminante qu’annoncé. Les automobilistes français ne sont pas devenus subitement inconscients parce que les radars sont aveugles.

    Un modèle économique à bout de souffle

    Creusons un peu les chiffres. En 2017, les radars automatiques ont généré environ 700 millions d’euros de recettes pour l’État français. Un montant considérable qui explique peut-être pourquoi leur multiplication s’est accélérée ces dernières années, passant de 1 000 radars en 2007 à plus de 4 700 aujourd’hui.

    Cette progression exponentielle a progressivement transformé la perception publique de ces dispositifs. Initialement acceptés comme des outils de sécurité routière, ils sont de plus en plus perçus comme des instruments de taxation déguisée. Les « radars pièges », installés dans des zones de changement de limitation ou sur des portions parfaitement sécurisées, ont alimenté ce sentiment.

    L’arrivée des véhicules banalisés équipés de radars mobiles a encore aggravé cette perception. Ces « voitures radars » conduites par des prestataires privés parcourent les routes françaises dans un seul objectif : flasher un maximum de contrevenants. L’uberisation des radars automatiques, en quelque sorte.

    Cette dérive mercantile explique en partie pourquoi la neutralisation massive des radars rencontre si peu d’opposition dans l’opinion publique. Même les automobilistes les plus respectueux du code de la route admettent en privé avoir déjà rêvé de neutraliser un radar automatique.

    Les limites techniques d’un système obsolète

    Au-delà des questions de légitimité, les événements actuels révèlent les failles techniques béantes du système de contrôle automatisé français. Ces boîtiers, conçus dans les années 1990, n’ont pas été pensés pour résister à une contestation massive et organisée.

    Leur vulnérabilité est totale. Aucune protection physique efficace, aucun système d’auto-nettoyage, aucune redondance. Il suffit d’un individu déterminé et de quelques euros de matériel pour rendre définitivement inutile un équipement qui coûte plusieurs dizaines de milliers d’euros à installer et maintenir.

    Cette fragilité contraste avec la robustesse d’autres systèmes de contrôle routier. Les péages autoroutiers, par exemple, disposent de multiples sécurités et de surveillance humaine permanente. Mais ils génèrent aussi des revenus autrement plus importants que les radars automatiques.

    La question se pose donc : faut-il investir massivement dans la protection physique de ces dispositifs, au risque de transformer nos routes en camps retranchés ? Ou accepter que ce modèle technologique a atteint ses limites face à une contestation déterminée ?

    Vers une refonte complète du système

    Les Gilets Jaunes ont démontré une vérité que personne ne voulait entendre : le système actuel de contrôle automatisé n’est pas viable face à une opposition massive. Ces radars ne sont pas prêts d’être réutilisés normalement un jour, tant que la colère sociale perdurera.

    Cette situation force à repenser complètement la politique de sécurité routière française. Plusieurs pistes s’ouvrent, chacune avec ses avantages et ses inconvénients.

    D’abord, le renforcement des contrôles humains. Plus coûteux mais plus flexible, ce système permettrait de cibler réellement les comportements dangereux plutôt que de sanctionner automatiquement tout dépassement de vitesse, même minime. Les gendarmes et policiers peuvent adapter leur intervention aux circonstances, ce qu’un radar ne sait pas faire.

    Ensuite, l’évolution technologique vers des systèmes plus intelligents et moins contestables. Les nouvelles technologies permettent déjà de mesurer la vitesse moyenne sur un tronçon plutôt qu’à un point donné, ou de détecter les comportements réellement dangereux comme les changements de file brusques ou les distances de sécurité insuffisantes.

    Enfin, le retour à une approche plus préventive que répressive. Les campagnes de sensibilisation, l’amélioration des infrastructures, la formation continue des conducteurs ont prouvé leur efficacité sans générer la même hostilité que les amendes automatiques.

    L’après-radars se dessine déjà

    Quelle que soit l’issue du mouvement des Gilets Jaunes, une certitude s’impose : le système des amendes automatiques devra être repensé complètement pour qu’il soit accepté par les citoyens français. La confiance est rompue, et elle ne se reconstruira pas par la force.

    Cette crise révèle aussi les limites d’une approche purement technologique des problèmes de société. Pendant quinze ans, les pouvoirs publics ont cru pouvoir automatiser la sécurité routière, remplacer le jugement humain par des algorithmes, la pédagogie par la sanction. Les événements actuels démontrent l’échec de cette vision.

    L’avenir de la sécurité routière française se jouera probablement sur notre capacité à retrouver un équilibre entre efficacité et acceptabilité sociale. Les radars automatiques resteront peut-être un outil parmi d’autres, mais ils ne pourront plus prétendre être LA solution miracle qu’on nous vendait depuis 2003.

    En attendant, cette expérience grandeur nature continue. 75% des radars automatiques neutralisés, pas d’explosion de la mortalité routière, et une remise en question profonde d’un système que beaucoup croyaient indéboulonnable. Qui aurait parié sur un tel scénario il y a seulement un mois ?

    Les Gilets Jaunes auront au moins eu ce mérite : nous obliger à regarder la réalité en face, même quand elle dérange nos certitudes les mieux établies.

    Pour aller plus loin

    Sources et références

    Photo : Jametlene Reskp / Unsplash