Catégorie : Article

L’État doit-il mentir pour agir ?

Par Sarah Journée

Publié le 25 mai 2023 L’État doit-il mentir pour agir ? Renaud Meltz, Centre national de la recherche scientifique (CNRS) Mentir pour protéger, mentir pour servir, mentir par omission, mentir pour « le bien commun », mentir comme moyen de gouverner : les historiens Renaud Meltz et Yvonnick Denoël publient le premier inventaire du « mensonge d’État » sous la Ve République. Convoquant les travaux d’une vingtaine d’universitaires et journalistes, ils rassemblent plusieurs grandes thématiques soulignant les arrangements avec la vérité et la transparence par différents acteurs de l’État sous la Ve République : la vie privée des présidents, l’armée, le nucléaire, le terrorisme et l’islamisme, les lâchetés administratives, la santé publique, les affaires policières et judiciaires, la finance. Le livre distingue plus spécifiquement quatre cas de figure où le mensonge se conçoit respectivement en ennemi de la sincérité (il travestit des faits), de la publicité (il cache des informations), de la connaissance (il organise l’ignorance ou empêche la science de progresser) et de la conscience collective (il organise l’oubli et fictionnalise le passé national). Extraits choisis de l’introduction. « J’assume parfaitement de mentir pour protéger mon président. » Sibeth Ndiaye a le mérite de la franchise lorsqu’elle proclame qu’elle dénoue délibérément le pacte qui régit les rapports entre les gouvernants et les citoyens dans une démocratie libérale. Ce contrat repose sur la publicité des décisions et la sincérité de ses acteurs. Il est vrai que la condamnation du mensonge demeure implicite dans la Constitution de la Ve République. Elle proclame dès son article 3 que « la souveraineté nationale appartient au peuple qui l’exerce par ses représentants » ; les délibérations du Parlement qui « contrôle l’action du gouvernement » sont publiques et publiées au Journal officiel. La notion de publicité est partout, dans la Constitution ; celle de sincérité, nulle part, ou presque. À quoi bon délibérer et décider en pleine lumière si la sincérité n’est pas requise ? Seule exception : les comptes des administrations publiques qui doivent être « réguliers et sincères ». Comme si le mensonge, la dissimulation, le travestissement ne pouvaient se loger que dans les réalités chiffrées, qui seraient le seul horizon de la vérité. Comme si la sincérité était un devoir du citoyen, dans sa déclaration fiscale ou son témoignage, mais pas du gouvernement. Le mensonge sous serment constitue une infraction pénale. Le citoyen qui dépose devant les commissions parlementaires jure en levant la main droite de dire « la vérité, toute la vérité, rien que la vérité ». Un magistrat doit répondre de parjure. Mais un président, un ministre peut mentir dans l’exercice de ses fonctions sans risquer d’autre peine que celles délivrées par le tribunal médiatique. Or l’opinion est parfois tolérante au mensonge.   La raison d’État justifie-t-elle les écarts avec la vérité ? « Les Guignols de l’info », en représentant Jacques Chirac en « super-menteur » pendant la campagne de 2002, ne l’ont pas empêché d’être élu président de la République… Est-ce à dire que la notion de mensonge d’État se réduit à celle du secret, longtemps justifiée par la raison d’État ? Si le mensonge politique n’est pas l’envers parfait de la vérité (l’erreur, par exemple, ne relève pas de ce livre), les notions de sincérité, d’authenticité, d’exactitude, ne concernent pas seulement la morale privée ou la science, mais aussi la vie politique. Super menteur, les Guignols de l’info, 2002.   Suite à une décision du Conseil constitutionnel de 2005, entérinée six mois plus tard par le règlement de l’Assemblée nationale, le débat parlementaire obéit désormais au principe « de clarté et de sincérité ». Ces notions apparaissent moins souvent dans la France laïque que dans des nations plus imprégnées de religion, comme aux États-Unis, où l’injonction morale est ancrée dans la culture politique. Le mensonge sous serment de Bill Clinton sur une liaison extraconjugale a conduit le président à la lisière de l’impeachment. La question des fake news suscite une floraison de publications sur les conditions de leur régulation dans le régime médiatique actuel. La propagande en période de guerre, qui fait déroger les démocraties libérales à leur règle ordinaire, a intéressé les historiens. Mais un angle mort demeure : la vulnérabilité de notre vie sociale et politique à une large gamme de mensonges d’État qui profite du caractère trop implicite du pacte de publicité sincère au fondement de nos institutions. Faute de penser la vérité en matière politique, on s’est habitué au poison. Aucun ouvrage d’histoire ou de sciences politiques n’a récemment affronté la question du mensonge d’État afin de penser sa nature et de documenter ses effets. Ce livre veut réparer cette lacune pour la période la plus contemporaine : celle de notre Ve République.   Que peut-on et que doit-on savoir en démocratie ? Philosophes et politistes s’émeuvent non sans raison du relativisme du temps présent, qui voit fleurir l’expression « post-vérité ». La frontière entre « opinion » et « vérité de fait », pour reprendre l’expression de Hannah Arendt, distinction reprise à son compte par Myriam Revault d’Allonnes, pose question : qu’est-ce que la vérité, que peut-on savoir en dehors des sciences de la nature, en matière sociale et politique ? Quelles sont les conditions pour permettre d’approcher et de partager ce type de vérité ? Nous proposons de distinguer ce qui relève de la véracité en matière sociale de la vérité mathématique, et l’exigence de publicité de la soif de transparence. Il ne s’agit pas de fonder naïvement une science exacte de la politique comme en rêvaient les socialistes utopiques ou Auguste Comte mais de s’accorder sur un horizon de vérité dans le monde social, en admettant ses limites langagières. Ce livre n’a pas la naïveté de traquer des mensonges comme autant de fautes morales, équivalentes à des erreurs algébriques – nous ne croyons pas davantage, du reste, que les sciences exactes produisent une vérité « pure », le scientisme s’avérant comme une tentation perpétuelle du savoir scientifique d’affirmer un monopole sur la vérité. De fait, les sciences de la nature ne sont pas les mathématiques. Le philosophe et historien des sciences Thomas Kuhn a montré que les sciences n’échappent pas à l’histoire.   Une forme de relativité de la vérité Nous admettons une forme de relativité de la vérité pour…

Vers un microscope optique universel « tout-en-un » ?

Par Sarah Journée

Publié le 5 avril 2023 Vers un microscope optique universel « tout-en-un » ? Olivier Haeberlé, Université de Haute-Alsace (UHA); Matthieu Debailleul, Université de Haute-Alsace (UHA) et Nicolas Verrier, Université de Haute-Alsace (UHA) Le microscope optique est un outil clé de la recherche depuis le XVIe siècle, qui a permis d’innombrables découvertes en biologie (comme l’existence des cellules ou l’identification des premiers microbes). D’abord très rudimentaire, cet instrument a donné lieu à une intense émulation pour le perfectionner, et on cherche toujours encore à en améliorer les performances. Une technique suscite actuellement un intérêt croissant, la « microscopie tomographique diffractive », sur laquelle nous travaillons, et qui pourrait mener au développement d’un outil « tout-en-un », permettant même de visualiser directement en 3D des spécimens microscopiques. En termes de résolution, c’est-à-dire la capacité à distinguer de très petits détails, le microscope atteint un plafond dès la fin du XIXe siècle. C’est une surprise pour les fabricants de microscopes, bloqués dans leurs développements. Ernst Abbe y apportera une explication éclatante, avec sa loi définissant la résolution : En histoire des sciences, c’est un cas intéressant où la technologie a atteint les limites théoriques d’un système, avant même que celles-ci ne soient clairement établies par la physique. Chaque technique de microscopie présente ses limites Ceci explique que les recherches ont alors plutôt visé à corriger les défauts ou optimiser certains paramètres, par exemple supprimer les distorsions dans les images, agrandir le champ de vue, et surtout, augmenter le contraste. La technique la plus simple est l’utilisation de colorants, mais ceux-ci sont toxiques pour les spécimens biologiques, interdisant les études sur le vivant. La microscopie de fluorescence, au succès extraordinaire, est un cas à part, et ses spécificités ont même permis la réalisation de nanoscopes optiques à la résolution inégalée, qui permettent de visualiser l’architecture des cellules jusqu’à l’échelle moléculaire. Mais cette technique présente aussi des limites (obligation de marquage, phototoxicité induite). Ainsi, de nombreuses techniques pour visualiser, sans marquage, des spécimens translucides ont aussi été inventées, une des plus efficaces et esthétiques visuellement étant la microscopie à contraste de phase différentiel, qui fait apparaître des pseudo-reliefs, c’est-à-dire que les niveaux de gris visibles sont interprétés par le cerveau comme un relief, alors que le spécimen ne présente en fait pas de relief topographique. Ces différentes techniques se caractérisent par une certaine maîtrise des conditions d’illumination et/ou de détection de la lumière interagissant avec le spécimen. Elles sont parfaitement adaptées pour, par exemple, détecter la présence de bactéries dans l’eau, effectuer des mesures morphologiques, ou observer l’évolution temporelle de phénomènes comme la division cellulaire. Mais les images obtenues souffrent de restrictions qui en limitent encore l’exploitation : la résolution reste limitée à environ 200 nanomètres en pratique. Si la nanoscopie optique 3D est une réalité en fluorescence, sans marquage, elle représente toujours un rêve pour l’utilisateur, et un défi pour le physicien ; les contrastes observés restent qualitatifs, et ne peuvent être reliés à des grandeurs physiques autres que dimensionnelles. C’est une des grosses limitations de ces techniques qui enregistrent des images en intensité uniquement : on peut par exemple facilement mesurer des tailles, ou observer des changements de formes, qui sont des données dimensionnelles, mais les niveaux d’intensité observés ne sont pas directement reliés aux propriétés physiques du spécimen observé.   La microscopie tomographique diffractive pour des images en 3D Emil Wolf a proposé dès 1969 une approche pour dépasser ces limites : lorsqu’une onde plane monochromatique, comme produite par un laser, interagit avec un objet faiblement diffractant/absorbant, mesurer précisément et complètement l’onde résultante de l’interaction de l’illumination avec l’objet observé permet alors de calculer la distribution des indices optiques dans cet objet, c’est-à-dire calculer ses propriétés optiques (l’indice de réfraction et l’absorption), qui sont justement celles perdues dans les microscopes classiques. Cet article fondamental en imagerie optique est longtemps resté inexploité. On le comprend aisément avec les limitations techniques de l’époque : les lasers pour créer l’onde plane monochromatique illuminant le spécimen sont à peine développés, mais surtout, les capteurs numériques pour enregistrer les images n’existent pas, et les ordinateurs sont incapables, en quantité de mémoire comme en vitesse d’exécution, de traiter les données nécessaires au calcul des images en 3D. Après quelques premiers essais fructueux dans les années 1980-1990, le domaine a été relancé dans les années 2000, en grande partie via un article de Vincent Lauer, qui avait montré que des lasers abordables, des caméras performantes, et des ordinateurs courants enfin à même d’effectuer directement les reconstructions 3D, rendaient ce type d’imagerie abordable. La microscopie tomographique diffractive (aussi connue comme tomographie de phase, microscopie à synthèse d’ouverture, tomographie optique en diffraction…) a alors connu un regain d’intérêt spectaculaire, et est même maintenant disponible commercialement. Son principe général est relativement simple, et proche de celui des scanners (computerised tomography ou CT scan) en imagerie médicale : pour une illumination du spécimen, on enregistre l’amplitude et la phase de l’onde diffractée. Ceci se fait maintenant facilement par des techniques d’holographie numérique. L’hologramme enregistré contient une partie, mais une petite partie seulement, de l’information nécessaire pour recalculer en 3D l’objet observé. Il faut alors multiplier les mesures, puis les fusionner numériquement afin d’augmenter l’information 3D acquise et améliorer l’image finale. Pour varier l’information acquise par chaque hologramme, on change les conditions d’illumination, et on répète le processus. Avec un grand nombre d’illuminations, on accumule l’information pour obtenir un ensemble de mesures bien plus étendu et complet qu’en microscopie holographique avec une seule illumination. Cette étape est dite de synthèse d’ouverture, analogue à la synthèse d’ouverture utilisée en imagerie radar. Avec une caméra scientifique standard, l’acquisition des données dure d’une à quelques secondes selon la précision finale demandée (pour quelques dizaines à plusieurs centaines d’hologrammes). Au final, on obtient même deux images de l’objet, en réfraction (la capacité de cet objet à courber les rayons lumineux) et en absorption (la capacité de cet objet à absorber la lumière). Dans les microscopes optiques classiques, l’image obtenue est en fait un mélange de ces deux quantités. Les spécificités de ces images de microscopie tomographique diffractive sont une meilleure résolution, environ 100 nm,…

Imaginaires du nucléaire : le mythe d’un monde affranchi de toutes contraintes naturelles

Par Sarah Journée

Publié le 23 février 2023 Imaginaires du nucléaire : le mythe d’un monde affranchi de toutes contraintes naturelles Teva Meyer, Université de Haute-Alsace (UHA) En plein débat sur la relance de la filière du nucléaire civil en France, nous vous proposons de découvrir un extrait du récent ouvrage du géographe Teva Meyer (Université de Haute-Alsace), « Géopolitique du nucléaire », paru le 16 février 2023 aux éditions du Cavalier bleu. L’auteur y questionne et explore l’importance croissante du nucléaire dans les relations internationales. Dans le passage choisi ci-dessous, il est question des imaginaires qui soutiennent le développement des industries civile et militaire de l’atome. Aux racines géopolitiques du nucléaire se trouvent deux mythes, l’avènement de l’Humanité à l’âge de l’abondance et la soumission de la nature, fondés sur les propriétés physiques de l’uranium et du plutonium. Comprendre les fondamentaux géopolitiques du nucléaire demande de s’arrêter sur cette matérialité. Plus précisément, il faut prendre au sérieux la manière dont celle-ci a été convoquée par des acteurs scientifiques, politiques et économiques pour soutenir l’idée d’un nucléaire a-spatial par nature, d’une technologie permettant à l’Humanité de se défaire des contraintes que la géographie avait fait peser sur son développement. L’exploitation de la densité énergétique, c’est-à-dire la quantité d’énergie stockée dans une masse donnée, de l’uranium et du plutonium constitue une rupture technologique. Un kilogramme d’uranium préparé pour un réacteur commercial libère 3 900 000 mégajoules d’énergie, contre 55 mégajoules pour le gaz naturel, 50 pour le pétrole et moins de 25 pour la houille. Un réacteur standard, de la taille de ceux en fonction en France, consomme environ un mètre cube d’uranium enrichi par an, soit 20 tonnes de combustible. Pour le produire, il faut approximativement dix fois plus d’uranium naturel. La même énergie fournie par une centrale à charbon demanderait 3 millions de tonnes de houille. Les volumes sont si faibles que le combustible peut être expédié par avion, limitant les risques de rupture d’approvisionnement qu’imposeraient des conflits sur le chemin. Face aux restrictions de transports terrestres, la Russie a ainsi alimenté par les airs les centrales hongroises, tchèques et slovaques pendant les guerres en Ukraine de 2014 et 2022, chaque vol contenant presque deux années de combustibles d’une centrale. Du côté militaire, la rupture d’ordre de grandeur est tout aussi vertigineuse. La plus grande bombe conventionnelle larguée pendant la Seconde Guerre mondiale, la Grand Slam, avait une puissance équivalente à 10 tonnes de TNT, soit 1 500 fois moins que Little Boy lancée sur Hiroshima le 6 août 1945. Le nucléaire : outil de conquête de l’œkoumène Dès les années 1950, chercheurs et politiques s’enthousiasment. Grâce aux quantités dérisoires de combustibles nécessaires et la facilité à le transporter, le nucléaire s’affranchirait de la géographie des ressources. On pourrait, pensait-on, placer des réacteurs n’importe où, sans impératifs de proximité avec une mine ou des infrastructures de transports. Plus encore, l’énergie ne serait plus tributaire des gisements de main-d’œuvre. Seule reste la contrainte de l’eau, indispensable – sauf rupture technologique – pour refroidir les centrales, qu’elle vienne des fleuves, de l’océan ou des égouts des villes, comme c’est le cas à Palo Verde en Arizona. Les possibilités semblent sans limite. Le nucléaire devient un outil géopolitique servant à aménager les derniers espaces qui échappaient à la présence humaine, repoussant les frontières de l’œkoumène Les années 1950-1960 voient se multiplier dans les comics et dans la littérature nord-américaine des images de villes sous cloche, projets urbains nucléarisés protégés par des dômes. Ces utopies atomiques forment des habitats hermétiques, entièrement alimentés par l’énergie nucléaire, autorisant la conquête par l’humanité des derniers milieux extrêmes et la colonisation des déserts, des pôles, voire d’autres planètes. Ces productions sont promues, parfois même commandées, par l’administration états-unienne. Soft power avant l’heure, il faut prouver la supériorité du modèle américain face aux soviétiques. Les villes sous cloche doivent également laisser envisager au public américain que des solutions existent pour perpétuer la vie après une éventuelle attaque nucléaire. Cette stratégie répond aussi aux rumeurs venant de l’autre côté du rideau de fer qui prêtaient à Moscou le projet de construire des dômes nucléarisés comme socle de l’urbanisation de l’Arctique pour assurer son contrôle militaire et faciliter l’exploitation de ressources naturelles. De la fiction, ces utopies percolent dans les milieux scientifiques et militaires. Les appétits se portent sur l’Antarctique, terres hostiles que le nucléaire ouvrirait à une colonisation durable. Le déploiement d’un réacteur pour soutenir la présence permanente d’une station de recherche états-unienne à McMurdo sur l’île de Ross devait damer le pion aux ambitions soviétiques dans la région. Côté militaire, cette colonisation par l’uranium était vue comme l’occasion d’arrimer une tête de pont logistique et transformer l’Antarctique en terrain d’entraînement pour des combats futurs en Arctique. L’expérience est catastrophique. Installé en 1962, le réacteur subit 438 incidents avant sa mise à l’arrêt dix années plus tard. Au Groenland, l’expérience du réacteur PM-2A, acheminé par avion en 1960 pour alimenter la base militaro-scientifique de Camp Century à la pointe nord-ouest de l’île, est aussi un échec, ne fonctionnant que pendant deux ans. Les espoirs de colonisation nucléaire s’amenuisent. Les années 2010 voient cependant se raviver l’idée d’un nucléaire a-spatial avec le retour en grâce des petits réacteurs modulaires. Qu’ils soient publics ou privés, militaires ou civils, leurs promoteurs remobilisent l’image d’une technologie pilotable à distance capable d’atteindre les espaces les plus isolés et d’y soutenir la vie. Les projets ciblent les communautés arctiques, les déserts arides, les fronts pionniers des forêts tropicales, voire l’espace et les corps célestes. S’ils s’appuient sur un discours climatique, ils se nourrissent aussi d’ambitions géopolitiques. Ces réacteurs doivent assurer une présence permanente dans des territoires stratégiques, qu’il s’agisse de l’Arctique pour la Russie, ou des archipels contestés des Spratleys et Paracels pour Pékin en mer de Chine méridionale. L’atome redevient l’outil de la conquête de la géographie. Explosions atomiques et géo-ingénierie Dès le début des années 1950, on envisage l’utilisation d’explosions atomiques pour changer la topographie : construction de canaux, ouverture de mines, inversion de cours de rivière, fracturation d’icebergs pour produire de l’eau potable ou…

Les robots humanoïdes peuvent-ils nous faire croire qu’ils ressentent des émotions ?

Par Sarah Journée

Publié le 2 février 2023 Les robots humanoïdes peuvent-ils nous faire croire qu’ils ressentent des émotions ? Cécile Dolbeau-Bandin, Université de Caen Normandie et Carsten Wilhelm, Université de Haute-Alsace (UHA) Les robots dits sociaux (NAO, Cutii, PARO) investissent de plus en plus l’espace public médiatique et quelques-uns également les domiciles et/ou les établissements spécialisés (hôpitaux, Ehpad…), en particulier pour des publics spécifiques, tels que les enfants malades ou les personnes âgées avec des bénéfices variés (rompre l’isolement, atténuer le stress…). Comme les agents conversationnels de type chatbot, ils mobilisent l’intelligence artificielle, mais à la différence de ceux-ci, ils sont physiquement présents, face à nous. Ces robots dits sociaux seraient susceptibles de manifester certains états affectifs ou émotionnels par leurs expressions faciales, leur gestuelle et d’en susciter en réponse chez les humains avec lesquels ils interagissent. Ces robots soulèvent d’autres questions que leurs homologues industriels, le plus souvent dédiés à l’exécution de tâches répétitives et bien définies. Comment éduquer à l’interaction avec ces robots susceptibles d’influencer nos comportements, au même titre que les influenceuses et influenceurs virtuels qui rencontrent déjà un grand succès sur les médias sociaux ? L’influence robotique à visage – presque – humain peut-elle brouiller les pistes entre un humain et un être robotique ? Ce type de communication qui comporte à la fois une prise de parole scriptée et une intelligence artificielle induit un leurre technologique. À travers son discours publicitaire, l’industrie qui commercialise ces robots a pour objectif premier de les rendre accessibles (commercialisation à grande échelle mais Sophia rappelle qu’elle est un robot, voir le tweet ci-dessous) à tous dans un futur proche.   Le cas Sophia Alors que les influenceuses et influenceurs virtuels reproduisent les techniques marketing de leurs pendants humains, l’essentiel de la communication du robot Sophia vise un autre objectif. Cette humanoïde cherche en effet à nous familiariser avec la présence de robots dits sociaux dans notre quotidien et à nous convaincre de la réalité de son ressenti, de son identité et de l’authenticité de ses prises de position. Depuis 2017, Sophia est le robot humanoïde dit social le plus représenté ou présent dans les médias traditionnels et sociaux. Dévoilée officiellement en mars 2016 lors d’un salon de robotique à Austin par David Hanson, PDG de la Hanson Robotics Limited (HRL), Sophia est le robot de « représentation » de la HRL. Il s’agit d’un robot genré doté de l’apparence d’une femme. Sa peau, son regard, ses expressions faciales et sa gestuelle lui permettent d’être actuellement le robot le plus proche en apparence d’un être humain. Au moment de son lancement, ce robot était stationnaire mais depuis 2018, Sophia se déplace à l’aide d’un socle à roulettes. Il en existe un seul exemplaire. Sur Twitter et Instagram, Sophia se présente ainsi : « Je suis Sophia, le dernier robot humanoïde de @HansonRobotics. Ceci est mon compte officiel, géré en collaboration avec mon système de dialogue IA (intelligence artificielle) et mon équipe de médias sociaux humains ». On a affaire à un robot humanoïde dont la communication est un mélange d’intelligence artificielle (IA) et d’un service de communication spécialisé dans la communication numérique, en proportions inconnues. Mais comment caractériser cette forme inédite de communication ? Avec Sophia, le taux d’interactivité est relativement faible : peu de conversations se produisent. La plupart de ses contributions sont en réalité des prises de parole, dont moins de 8 % de réponses aux commentaires. De son côté, ChatGPT est en passe de parvenir à faire croire à sa sentience – évidemment illusoire –, alors que cette IA, qui n’est pas « incarnée », a un taux d’interactivité très impressionnant.   Vous avez dit sentience artificielle ? Le terme sentience, employé par l’utilitariste Bentham dès 1789, entre dans le dictionnaire Larousse en 2020 en lien avec l’éthique animale dont elle constitue une des preuves de la légitimité : « Sentience (du latin “sentiens”, ressentant) : pour un être vivant, capacité à ressentir les émotions, la douleur, le bien-être, etc. et à percevoir de façon subjective son environnement et ses expériences de vie. » Selon cette approche, les animaux posséderaient la capacité de ressentir subjectivement les expériences il serait légitime qu’ils bénéficient de droits proches ou égaux à ceux des humains. La littérature reconnaît la sentience animale et la distingue de la sentience complète, généralement attribuée aux êtres humains. En 2020, l’enseignant-chercheur en philosophie Sylvain Lavelle propose d’employer le terme de sentience artificielle dans le contexte de l’intelligence artificielle. Cet auteur évoque un « passage des performances de l’intelligence (raison, raisonnement, cognition, jugement) à celles de la sentience (expérience, sensation, émotion, conscience) » grâce à « l’exploration et [au] transfert des fonctions et des capacités de l’expérience et des sens humains à une machine » (NDLR : traduction des auteurs). La sentience artificielle correspondrait alors au résultat d’une communication « visant à créer les conditions de la croyance en la « sentience robotique », sinon complète, du moins « suffisante », fictionnelle mais incarnée ; mécanique, mais suffisamment « vivante » pour être un partenaire intrigant de conversation. La communication artificielle du robot Sophia cherche à nous faire croire que ce robot est un sujet autonome. En réalité, il s’agit essentiellement d’un nouvel objet communicant au service de la HRL. Le discours publicitaire ou commercial structure et orchestre cette communication artificielle en légitimant le rôle et la place des robots dits sociaux dans nos sociétés en vue d’une prochaine commercialisation massive, en insistant sur leur supposée sentience. Un post Facebook publié en 2019 l’illustre parfaitement : « Je veux que les gens me perçoivent comme le robot que je suis. Je ne veux pas faire croire aux gens que je suis humaine. Je veux simplement communiquer avec les humains de la meilleure façon possible, ce qui inclut le fait de leur ressembler. »   Le robot Sophia et sa mission commerciale Avec ce projet d’envergure, la HRL, qui n’a pas de concurrents sérieux à ce niveau de technologie, prépare le public grâce aux « performances politiques pour le marché de la robotique sociale ». La communication commerciale de la HRL capitalise ainsi sur l’engagement et la réputation de son ambassadrice robotique pour lancer la lignée de ses robots dits sociaux comme la…

Contre l’impuissance citoyenne, penser une démocratie de crise ?

Par Sarah Journée

Publié le 8 avril 2022 Contre l’impuissance citoyenne, penser une démocratie de crise ? Sébastien Claeys, Sorbonne Université; Nathanaël Wallenhorst, Université de Haute-Alsace (UHA) et Renaud Hétier, Université de Haute-Alsace (UHA) Cette campagne présidentielle s’est engagée dans les impasses propres aux démocraties contemporaines face aux crises multiples qui se succèdent : l’impossibilité de vrais débats contradictoires, la promotion de figures d’autorité et la valorisation de l’efficacité au détriment de la vitalité démocratique, à savoir une manière d’habiter, ensemble, le monde. Le seul échange entre Emmanuel Macron et Marine Le Pen entre les deux tours n’est que l’arbre qui cache la forêt, et il serait vain de ne critiquer ici que les candidats. Les médias, qui ont choisi avant le premier tour de ne pas faire dialoguer les candidats entre eux, ou même les partis politiques, qui proposent des solutions parfois trop simplistes et, pourtant, peinent à dessiner des options idéologiques claires, sont aussi en cause. L’abstention massive aux deux tours, la volatilité de l’électorat – susceptible de changer de candidat le jour de l’élection – le sentiment de distance vis-à-vis de la politique ou d’inutilité du vote, doivent être interrogés. Selon les sociologues Olivier Galland et Marc Lazar dans leur enquête « Une jeunesse plurielle » auprès des 18-24 ans : « 64 % des jeunes considèrent que la société doit être améliorée progressivement par des réformes », mais 64 % montrent aussi « des signes de désaffiliation politique (en ne se situant pas sur l’échelle gauche-droite ou en ne se sentant de proximité avec aucun parti) ». Et ce chiffre, franchement inquiétant : « seulement 51 % des jeunes se sentent très attachés à la démocratie, contre 59 % des parents et 71 % des baby-boomers ». Même ambiguïté dans les résultats du sondage Harris interactive de décembre 2021 sur le rapport des Français à la démocratie : si 83 % des Français se déclarent attachés au régime démocratique, 57 % pensent qu’un régime autoritaire peut être plus efficace qu’une démocratie pour faire face aux crises multiples qui se succèdent. C’est donc la forme démocratique elle-même qui est ici questionnée.   L’importance du débat Alors que ce moment central de la vie politique française condense les nombreux défis auxquels nous avons à faire face – changement climatique, crise sanitaire, guerre en Ukraine, accroissement des inégalités, transition de notre modèle énergétique… –, elle montre donc aussi notre incapacité collective à organiser des débats autour de ces sujets, pourtant cruciaux pour les cinq prochaines années. Si débattre, sur des sujets aussi complexes revient à s’exposer, on peut comprendre que le jeu politique du moment soit d’éviter habilement les débats et de monologuer à partir de principes explicatifs simples, sans aucune contradiction. Ces moments de crise, qui devraient être des occasions de débats nécessaires, de confrontation d’idées et de partages d’expertises, aboutissent à une crise du débat démocratique en lui-même. Seulement, la méthode de l’évitement du débat aboutit, chez les citoyens, à un sentiment d’incompétence des hommes et des femmes politiques, mais aussi, c’est ce qui est le plus inquiétant, à la mise en évidence d’une forme d’impuissance collective à proposer des solutions et à agir dans ce sens. Une démocratie qui ne débat plus, ou qui débat mal, est une démocratie impuissante. Or, toujours d’après l’enquête Harris interactive, ce sont les Français qui se sentent les plus impuissants qui, à la fois déplorent de ne pas être en démocratie et ne sont pas attachés au régime démocratique.   Le paradoxe de l’autorité Cet apparent paradoxe peut être expliqué par un autre : le paradoxe de l’autorité en temps de crise. Alors que plus de 1186 élus ont été menacés et agressés en 2021, selon le Ministère de l’intérieur, remettant en cause leur autorité et leur légitimité, certains citoyens attendent aussi un « maître », quelqu’un dont le savoir ou le pouvoir seraient providentiels – un maître qui ne devrait jamais se tromper et dont le savoir devrait être infalsifiable. C’est ainsi que face aux hésitations du gouvernement durant la crise sanitaire, Didier Raoult s’est imposé, pour certains, comme un « sachant » qui pouvait nous indiquer la voie à suivre, sans même avoir à prouver scientifiquement sa démarche. De tels « maîtres » ne manquent pas de s’imposer ailleurs et certains émergent ici, nous l’avons vu, qui peuvent prétendre à s’affranchir du réel lui-même : la vérité des faits, la science, l’histoire, leurs propres limites. C’est ainsi que l’aspiration démocratique et la remise en cause des autorités élues peut aboutir en une aspiration autoritaire. C’est ainsi que, selon Dominique Bourg, les déstabilisations liées au changement climatique pourraient aboutir à une forme de climato-fascisme, dont il voit les prémisses dans la guerre en Ukraine. Les idéologies politiques du XXIe siècle pourraient ainsi se reconfigurer autour de nouveaux récits politiques démocratiques ou autoritaires. Le sociologue Ulrich Beck soulignait déjà ce paradoxe d’une impuissance autoritaire durant la crise économique en 2008 dans Le Monde : « À lui seul, un gouvernement ne peut combattre ni le terrorisme global, ni le dérèglement climatique, ni parer la menace d’une catastrophe financière. […] La globalisation des risques financiers pourrait aussi engendrer des “États faibles” – même dans les pays occidentaux. La structure étatique qui émergerait de ce contexte aurait pour caractéristiques l’impuissance et l’autoritarisme postdémocratique ». L’impuissance est une fois encore pointée comme la source d’un risque de glissement vers un régime autoritaire. Autrement dit : impuissance et autoritarisme sont les deux faces d’une même médaille, l’autoritarisme véhiculant le fantasme d’une « toute-puissance » retrouvée.   Vers une citoyenneté-puissance ? Aussi, il serait contre-productif de s’arc-bouter sur une forme de citoyenneté qui produit de l’impuissance : une idée de la participation citoyenne reposant uniquement sur l’exercice du « pouvoir » (élire, être élu, et participer aux institutions) et qui exclut toutes les autres actions transformatrices possibles. Il s’agit, au contraire, de concevoir une forme de puissance citoyenne, une manière de proposer, de développer ses capacités politiques et d’agir qui ne soit pas ignorée par les institutions. C’est donc une dialectique subtile qui doit s’engager entre une « citoyenneté-pouvoir » et une « citoyenneté-puissance ». La formule alchimique est la suivante : la perpétuation de notre régime démocratique dépend de cette aptitude à transformer l’impuissance des citoyens en pouvoir d’action. Et ce n’est…

Bonnes feuilles : « Des bombes en Polynésie »

Par Sarah Journée

Publié le 6 avril 2022 Bonnes feuilles : « Des bombes en Polynésie » Renaud Meltz, Université de Haute-Alsace (UHA) De 1966 à 1996, à partir de la présidence du général de Gaulle et jusqu’à celle de Jacques Chirac, 193 essais nucléaires sont conduits en Polynésie française dans les atolls de Fangataufa et Moruroa. Des bombes bien plus puissantes que celle d’Hiroshima y seront tirées, bouleversant les vies des Polynésiens et des écosystèmes. Sous la direction de Renaud Meltz et d’Alexis Vrignon, l’ouvrage « Des bombes en Polynésie » réunit les contributions d’une quinzaine de chercheurs de différentes disciplines (historiens, géographes, anthropologues) pour revenir sur un épisode dramatique et longtemps gardé secret de notre histoire récente. L’ouvrage paraît ce jeudi 7 avril 2022 aux Éditions Vendémaire, nous en publions de bonnes feuilles extraites du premier chapitre.   Pourquoi la Polynésie ? Qui a choisi la Polynésie pour tester les engins nucléaires français et selon quels critères ? Le processus n’obéit pas à la logique linéaire qu’il est tentant de rationaliser a posteriori. D’autres possibilités ont été envisagées. Les décideurs invoquent plusieurs éléments déterminants, parfois contradictoires. La qualité des mesures, la sûreté sanitaire et la logique financière ne cohabitent pas harmonieusement : l’isolement et la décontamination ont un coût logistique, financier et temporel. La pondération de ces exigences reste une opération subjective, réalisée par quelques acteurs aux mobiles divers. La capacité à concevoir et à réaliser le meilleur site d’essais possible est contrainte par la limite des connaissances : les savoirs sur les conséquences sanitaires des essais évoluent rapidement ; leur diffusion oblige à des précautions qui retardent la mise au point de la bombe. Les intérêts ne sont pas toujours convergents entre les civils du CEA, qui conçoivent les engins, et les militaires, qui ont la main sur le choix et l’aménagement du site. Leur rationalité n’est pas absolue, enfin : mus par une volonté unanime mais diverse de servir les intérêts de l’État, ils sont traversés d’émotions et de représentations. Le charme de la vahiné parasite la rationalité de la décision, face à l’austérité des Kerguelen…   Qui sont ces décideurs, quels sont leurs critères ? L’armée publicise ces derniers deux ans après le choix de la Polynésie dans la Revue de défense nationale de l’été 1964. Ils combinent exigences de sûreté (maîtrise des aléas naturels et du risque technologique), de sécurité (capacité à prévenir des actions malveillantes) et de faisabilité logistique. Six mois avant la reconnaissance du général Thiry dans le Pacifique, le chef d’État-major général de la Défense nationale avait défini peu ou prou les mêmes attentes : sûreté, sécurité (« possibilité de définir des zones interdites ou réglementées à l’écart des grands courants de circulation ») et ressources logistiques : « proche support d’un port équipé et d’un pays disposant de ressources pour la base-vie ». Après sa reconnaissance, le général Thiry justifie sa préférence pour Moruroa suivant ces trois critères. Sûreté : « démographie du site et de ses environs », « météorologie ». Sécurité : « indépendance et sûreté des communications avec la métropole », « pas de voisinage étranger à moins de 330 milles ». Faisabilité logistique : « possibilité de construire une piste d’envol de 1800 mètres », « possibilité d’installer une base-vie ou de trouver des mouillages (lagon) ». Mais ces critères se divisent en exigences contradictoires selon les besoins politiques du moment : la nature de l’explosif (bombe A puis H), la puissance du tir (jusqu’à la mégatonne), l’acceptabilité des retombées, dans un contexte international mouvant. En 1957, la France cherche un site pour tirer des bombes A de faible puissance (moins de 100 kilotonnes), en aérien. Ce sera Reggane, en Algérie. Dès 1959, les militaires cherchent un nouveau polygone de tir pour des explosions souterraines, les autres puissances nucléaires ayant décidé en novembre 1958 un moratoire sur les tirs atmosphériques (en 1963 les signataires des accords de Moscou s’interdisent les essais aériens). Ce sera In Ecker, toujours en Algérie, pour des tirs en galeries horizontales, creusées dans le massif du Hoggar. Un an plus tard, en 1960, la volonté du général de Gaulle de réaliser au plus vite des essais de bombe à fusion oblige à chercher un troisième emplacement. Les incidents à répétition des essais en galerie, pour des explosions inférieures à 150 kilotonnes, conduisent les militaires à chercher un site aérien, aussi isolé que possible, pour des tirs mégatonniques. Cette instabilité des besoins explique que les militaires aient ciblé différentes régions : Landes, Massif central, Corse, massifs alpins, territoires ultramarins. Le nomadisme nucléaire participe de la difficulté à reconstituer les processus de décision ; il n’atteste pas une légèreté brouillonne. Au Conseil de défense qui décide des premières dépenses pour équiper Moruroa, de Gaulle pose solennellement la question : « En votre âme et conscience, est-ce que ce site vous paraît devoir être satisfaisant et sur quels éléments d’appréciation vous basez-vous ? » Puis : « Est-ce que l’atoll lui-même, la mer qui est autour, les distances des autres îles, répondent bien à tout ce qui est estimé nécessaire et aux besoins imprévus ? ».   À qui s’adresse de Gaulle ? Les décideurs sont peu nombreux, les acteurs innombrables. Trois membres du gouvernement et le président de la République ont choisi la Polynésie, à croire Messmer. Dans ses Mémoires, l’ancien ministre de la Défense s’attribue la décision, avec le ministre de tutelle du CEA et le Premier ministre : « Après une visite sur place avec Gaston Palewski, je fais approuver par le général de Gaulle et Georges Pompidou le choix de deux atolls, Mururoa [sic] et Fangataufa, dans l’archipel des Tuamotu. » Ces quatre hommes ne sont pas seuls. Le Parlement est saisi indirectement en votant le financement de la force de frappe ; l’opinion publique pèse et s’inquiète de la localisation des polygones de tir et des effets sanitaires des essais. Les Corses font obstacle au projet d’installations sur leur île, dont ils ont appris l’existence ; les élus calédoniens font tout pour éloigner le calice ; les élites polynésiennes, moins intégrées aux cercles du pouvoir parisien, n’anticipent pas la menace. Entre l’opinion et le décideur il faut aussi compter quelques grands commis de l’État : le directeur des Applications militaires du CEA, les diplomates qui s’inquiètent d’essais riverains de Madagascar…

Industrie nucléaire : le grand jeu géopolitique

Par Sarah Journée

Publié le 1 mars 2022 Industrie nucléaire : le grand jeu géopolitique Teva Meyer, Université de Haute-Alsace (UHA) L’invasion de l’Ukraine par la Russie et la prise rapide de Tchernobyl ont mis un coup de projecteur sur le secteur nucléaire ukrainien. Stratégiques pour Kiev, les 15 réacteurs en fonction fournissent encore la moitié de la production électrique ukrainienne. Tandis que le pays exploite ses ressources en uranium, il n’a pas les capacités industrielles pour les transformer en combustibles nécessaires pour alimenter ses centrales de technologie soviétique. Suite à la révolution de 2014, le gouvernement ukrainien a cherché à rompre sa dépendance à l’importation de combustible de Russie. Cette stratégie est partiellement couronnée de succès : en 2021, 6 des 15 réacteurs étaient fournis par des combustibles produits par l’Américain Westinghouse dans son usine suédoise de Västerås. Avant l’Ukraine, suite aux manifestations de janvier 2022 au Kazakhstan, la presse s’était fait l’écho de craintes concernant la sécurité d’approvisionnement en combustible de l’industrie nucléaire ; le Kazakhstan concentre 41 % de la production mondiale d’uranium. À l’inverse du pétrole ou du gaz, et en dehors des questions de prolifération, le nucléaire est fréquemment présenté comme épargné par les risques géopolitiques. La faible part de l’uranium dans le coût de l’électricité, de l’ordre de 5 % à 7 %, limiterait sa sensibilité aux aléas politiques. La répartition des réserves, identifiées dans 52 pays, préserverait de tout risque de dépendance. De plus, la densité énergétique de l’uranium permettrait de constituer des stocks de combustibles. Vidéo expliquant le cycle du combustible nucléaire. (IAEA/Youtube, 2022).   Le rôle clé de la Russie et de la Chine Les reconfigurations de la filière révèlent les limites de cette analyse, comme le souligne le rapport « Les stratégies nucléaires civiles de la Chine, des États-Unis et de la Russie » de l’Observatoire de la sécurité des flux et des matières énergétiques paru en septembre 2020. La croissance des publications par les think tanks français (IRIS, IFRI, FRS) et anglophones (CSIS, IISS, Carnegie) témoigne également de cette prise de conscience. Et tous s’attardent sur le rôle structurant de la Chine et de la Russie. L’industrie nucléaire russe a été réorganisée en 2007 par Vladimir Poutine dans une unique société, Rosatom. L’objectif était double : atteindre 45 % d’électricité nucléaire dans le mix national en 2050, mais surtout, créer un géant tourné vers l’export. Côté chinois, la filière s’est structurée autour de trois groupes – la China National Nuclear Corporation, la China General Nuclear Power Corporation et la State Power Investment Corporation. Cette organisation a nourri des rivalités à l’international, en dépit des tentatives d’apaisement du gouvernement : fondation d’une coentreprise pour déployer un réacteur commun, division du monde en zone d’intervention. Russes et Chinois ont rempli le vide laissé par le retrait des anciennes puissances industrielles, États-Unis en tête. Dans ce pays, l’effondrement du marché intérieur et le renforcement des réglementations sur la non-prolifération ont marqué le tissu industriel. Deux entreprises, Westinghouse et General Electrics-Hitachi, disposent de réacteurs à la vente.   Le Kazakhstan, cœur de l’industrie uranifère Les réserves mondiales d’uranium restent importantes, estimées à 8 millions de tonnes, soit 135 années de la consommation annuelle (sur la base de 2020). Toutefois, le recul des prix depuis 2011, tombant sous les 90 $/kg avant la crise du Covid, a recentré l’attention sur quelques pays disposant de ces ressources à faible coût. Cette dynamique a fait du Kazakhstan, qui détient 31 % des réserves mondiales exploitables à moins de 80 $, le cœur de l’industrie uranifère. Le secteur états-unien est la première victime de ces prix. Depuis 2014, la production d’uranium y a été divisée par 24, rendant le pays dépendant à 94 % des importations. Poussée par le lobbying des États uranifères républicains (Wyoming, Texas et Nebraska), l’administration Trump a publié en avril 2020 un plan pour contrer l’influence chinoise et russe en quatre points : création de réserves à partir des mines américaines, prolongement des quotas sur l’achat d’uranium russe à 20 % des importations, interdiction d’importation d’uranium transformé de Chine et de Russie, suppression des réglementations limitant l’ouverture de mines. La victoire des Démocrates en 2021 et les divergences sur le nucléaire au sein du parti ont stoppé son application.   L’Afrique au centre des convoitises Les réserves russes sont importantes (8 % des gisements mondiaux), mais seuls 6 % sont exploitables à moins de 80 dollars. De fait, la production (2846 t en 2021) ne permet ni de couvrir les besoins intérieurs (5000 t), ni de répondre aux ambitions d’exportations (20 000 t). La stratégie d’expansion russe repose donc sur le développement d’exploitations à l’étranger, via Uranium One, filiale de Rosatom. Si le Kazakhstan reste l’unique source, Uranium One a fait de l’Afrique, et particulièrement de la Tanzanie, une zone de développement prioritaire. Cette orientation pourrait créer des tensions avec la Chine, dont la consommation d’uranium représente 15 % du total mondial. L’approvisionnement chinois suit la stratégie des « trois tiers » visant à augmenter la production nationale, acquérir des ressources à l’étranger et acheter sur le marché. Mais la faiblesse de ses ressources ne lui permet que de couvrir 20 % des besoins. La filière conduit une stratégie de rachat de mines à l’étranger prioritairement en Afrique. Si la Chine s’est d’abord dirigée vers le Niger, les efforts se sont depuis portés sur la Namibie où l’industrie uranifère est entièrement contrôlée par les industriels chinois depuis 2019.   Comment Rosatom est devenu incontournable Pour rappel, les centrales ne s’alimentent pas d’uranium, mais de combustibles dont la production change selon la technologie des réacteurs. Ceux à eau légère, qui constituent 85 % du parc mondial, nécessitent trois étapes de fabrication : la conversion de l’uranium, l’enrichissement et la fabrication des assemblages. Cinq pays (France, Chine, Canada, Russie et États-Unis) contrôlent la conversion. Le risque de dépendance y est limité par les surcapacités structurelles, seuls 55 % des moyens étant mobilisés. Il en va de même pour l’enrichissement, réalisé dans 13 pays, et dont le taux d’utilisation n’était que de 86 % en 2020. Rosatom est devenu le principal acteur de la production de combustible, dominant la conversion (35 % des parts du marché) ainsi que l’enrichissement (36 %).…

Bonnes feuilles : « La grande résurrection du business de la mort »

Par Sarah Journée

Publié le 2 février 2022 Bonnes feuilles : « La grande résurrection du business de la mort » Faouzi Bensebaa, Université Paris Nanterre – Université Paris Lumières et Fabien Eymas, Université de Haute-Alsace (UHA) Comment un marché ankylosé en 1992 est-il devenu particulièrement dynamique en 2022 ? La mort serait-elle devenue tendance ? Ou est-ce dû à l’ingéniosité de nombreux acteurs qui, surfant sur les évolutions culturelles, législatives et technologiques, sont parvenus à presque faire « aimer » le trépas ? Ces acteurs, ce sont non seulement les pompes funèbres bien sûr, interlocuteurs inévitables des familles et de l’entourage du défunt, mais également les innombrables start-up qui cherchent à disrupter un à un les différents marchés mortuaires, comme Grantwill qui veut être le « premier réseau social post mortem », ou encore Testamento qui attaque les notaires avec son offre de testaments olographes sécurisés. Ce sont ces acteurs, leurs offres et leur manière d’opérer que Faouzi Bensebaa et Fabien Eymas analysent dans leur livre Le business de la mort (Éditions L’Harmattan), dont nous vous proposons ici les bonnes feuilles…   Des marchés (dé)réglementés La dynamisation du marché de la mort débute notamment avec la promulgation de la loi Sueur qui a sonné le glas du monopole communal sur les pompes funèbres. Cela a entraîné le développement d’un petit nombre d’acteurs privés qui, profitant de la structure oligopolistique du marché, ont pu faire croître les prix et augmenter ainsi leur chiffre d’affaires. Néanmoins, le marché des pompes funèbres et, de manière plus générale, les marchés liés à la mort apparaissent encore réglementés. Lorsqu’une personne décède, il est nécessaire de respecter la temporalité précisée par les textes de loi. Par exemple, le constat du décès doit être réalisé par un médecin sous 24h et la crémation ou l’inhumation doit intervenir dans une fourchette située entre 48h après le décès au plus tôt et 6 jours au plus tard. La réglementation joue également un rôle dans le développement de marchés liés à la mort. En la matière, la France apparaît frileuse et sa réglementation empêche – à tort ou à raison – le développement de marchés comme celui de la cryogénisation, de la dispersion des cendres ou du suicide assisté. En imposant la dispersion de l’ensemble des cendres du défunt au même endroit, la législation française réduit la possibilité, pour les familles, de recourir à certaines prestations créatives qui se développent à l’étranger. Pourtant, le développement de la crémation – 1 % des décès en 1980 contre près de 40 % aujourd’hui – accroît la demande potentielle de différenciation dans la dispersion des cendres. S’il est envisageable, en France, de faire disperser ses cendres en pleine nature (forêt, mer, etc.), leur transformation en diamant, leur envoi dans l’espace lointain ou le dépôt d’une partie d’entre elles dans un godemichet comme le propose un designer néerlandais n’apparaissent pas possibles. Faut-il le regretter ? Concernant le sujet plus sensible du suicide assisté, une législation à contre-courant permet à un pays, en l’occurrence la Suisse, de bénéficier d’un avantage concurrentiel vis-à-vis du reste du monde. Concrètement, ce marché ne pouvant exister qu’en Suisse, ce pays attire de nombreux ressortissants européens non suisses désirant mettre fin à leur jour, faisant de la Confédération helvétique la destination phare du « tourisme de la mort ». Même en matière d’obsèques animales, tout n’est pas possible. Si les bêtes de 40 kg au plus peuvent être inhumées sur la propriété familiale, c’est dans une fosse d’une profondeur d’au moins 1 mètre et à une distance de 35 mètres au minimum des habitations et des points d’eau. Mais les inhumations dans des cimetières pour animaux – celui d’Asnières-sur-Seine (92) date de 1899 ! – et, surtout, les crémations ont le vent en poupe. Aux États-Unis, ce sont plus de 500 000 animaux par an qui ont droit à des funérailles !   Une ubérisation en cours ? À défaut de pouvoir se lancer sur des marchés juridiquement inaccessibles, les start-up françaises attaquent les entreprises traditionnelles des pompes funèbres et… les notaires ! Les premières, accusées de pratiquer des prix opaques – et donc forcément abusifs – doivent faire face à l’émergence de pompes funèbres en ligne qui proposent des prestations comparables tout en promettant des prix cassés. Paradoxalement, l’arrivée de ces entreprises numériques dans les années 2010 n’a pas empêché – tant s’en faut – l’inflation des prix pratiqués par les pompes funèbres traditionnelles. Certainement profitent-elles ou ont-elles profité de la faible attirance de leurs clients – des personnes âgées en moyenne de 60 à 70 ans – pour le commerce en ligne. Certainement un simple répit qui appelle une évolution en profondeur d’acteurs qui bénéficient de la situation d’urgence à laquelle sont confrontées les familles. Un autre exemple de tentative d’ubérisation d’acteurs historiques est celui de la start-up Testamento s’attaquant au monopole de fait des notaires sur le marché des testaments. Mais, à y regarder de plus près, il nous semble qu’il ne s’agit pas d’une attaque frontale, mais bien plutôt d’une proposition complémentaire qui ne devrait pas – pour l’instant en tout cas – mettre les notaires en difficulté. En effet, il existe trois types de testaments : olographe, authentique et mystique. Le premier est rédigé et conservé par le testateur lui-même, alors que les deux autres nécessitent l’intervention d’un notaire : pour la rédaction et la conservation dans le cas du testament authentique et simplement pour la conservation dans le cas du testament mystique. Bien entendu, il est beaucoup plus difficile de contester un testament authentique qu’un testament olographe. C’est là qu’intervient Testamento qui, en fournissant des modèles, propose de sécuriser la rédaction d’un testament olographe. Il apparaît ainsi que, pour l’heure, Testamento cherche davantage à exploiter une pratique hors marché – la rédaction d’un testament olographe – qu’à concurrencer les notaires sur leur marché ô combien captif des testaments authentiques. Mais les marchés relatifs à la mort ne sont pas simplement affectés par une digitalisation que l’on retrouve dans la plupart des secteurs, les technologies les plus modernes sont aussi mobilisées afin de découvrir la clé de l’éternité et de ressusciter les morts.   La technologie pour ne pas mourir… La quête de l’éternité…

Vit-on vraiment le retour des années 1930 ?

Par Sarah Journée

Publié le 29 novembre 2021 Vit-on vraiment le retour des années 1930 ? Renaud Meltz, Université de Haute-Alsace (UHA) « Je mesure la droitisation des esprits, ce danger qui progresse depuis des années : on ne peut pas s’empêcher de penser à l’avant-guerre ». Annie Ernaux, dans cet entretien accordé au Nouvel Obs, croit reconnaître les années 1930, pour le pire, dans le visage incertain du monde qui se reconfigure 30 ans après l’espoir d’une « fin de l’histoire » marquée par le triomphe de la démocratie libérale sur le bloc soviétique. Les publicistes sont saisis par l’effroi de l’éternel retour. En 2014, l’universitaire Philippe Corcuff publie Les années 30 reviennent et la gauche est dans le brouillard. En 2017, Farid Abdelouahab et Pascal Blanchard s’inquiètent : Les Années 30. Et si l’histoire recommençait ? La quatrième de couverture assume la réduction du raisonnement analogique à la répétition : « Notre présent apparaît comme un fascinant écho de ces années 30 ».   La hantise de la répétition Le philosophe Michaël Foessel relit le passé à partir des préoccupations présentes, avec son Récidive. 1938, qui interroge plus subtilement la permanence des périls qui ont existé dans les années 1930 ; il se plonge dans la presse de 1938, pris « d’un doute sur la réalité du bégaiement de l’histoire ». D’autres titres versent dans le prophétisme, pour ne pas dire le simonisme (monnayer des prophéties) comme l’écrit François Langlet, dans Tout va basculer. La pandémie virale aiguise cette crainte qui prospère depuis le milieu des années 2010. Un diplomate essayiste voit se lever « l’ombre portée des années 1930 » qui « doit inspirer stupeur et humilité » en levant le regard sur l’avenir. Les hommes politiques ne sont pas immunisés contre cette hantise. L’analogie vient à Manuel Valls en 2014. Le ministre de l’Intérieur trouve à notre temps un « point commun avec les années 1930 » : « L’anti-républicanisme et la détestation violente dans les mots comme dans les actes » des valeurs et principes républicains (Le Journal du Dimanche, 2 février 2014). Emmanuel Macron, élu à la présidence de la République sur le refus du clivage bi-partisan, donne en novembre 2018 un entretien à Ouest-France titré : « Le moment que nous vivons ressemble à l’entre-deux-guerres ». Le ressort analogique conduit à comparer les difficultés de notre temps à celles des années 1930. La crise financière de 2008 rappelle celle de 1929, avec son lot de malheurs sociaux. L’affirmation de la Chine rappelle le passage de relais de l’entre-deux-guerre au profit des États-Unis.   Le retour des « égoïsmes nationaux » La pandémie mondiale et les réponses apportées, frontières closes, ruées rivales des États sur les moyens de lutte contre la propagation du virus, rappellent le retour des « égoïsmes nationaux » des années 30, lorsque les gouvernements choisissaient la hausse des tarifs douaniers et les dévaluations compétitives. La floraison de régimes illibéraux et populistes, enfin, fait craindre le retour des régimes totalitaires qui cernaient la France des années 1930. L’anticipation d’une catastrophe possible explique probablement notre fascination pour cette décennie qui se termine par la disparition de la démocratie, abîmée dans la défaite, liquidée le 10 juillet 1940 avec la IIIᵉ République.   Non, nous n’allons pas revivre les années 30, nous les avons déjà vécues En dehors de toute réflexion théorique sur la validité de la comparaison entre périodes, l’historien doit rappeler ce truisme que nous n’allons pas revivre les années 30. C’est bien pire : « nous » les avons vécues, nous sommes façonnés par elle et, par-là, nous les vivons encore. Reste à savoir comment ! Il n’est pas fatal de se laisser happer par cette angoisse mémorielle. Si la hantise de répéter l’expérience passée, et le mécanisme de reproduction compulsif a été identifié dès le début du XXe siècle par Sigmund Freud chez ses patients, il a fallu attendre l’aube du XXIe siècle pour que le philosophe Paul Ricœur suggère d’appliquer aux sociétés ce travail d’interprétation des évènements traumatiques, travail de deuil auquel Freud invitait ses patients pour échapper à la répétition pathologique après une perte qui n’a pas été regardée en face. Les historiens professionnels eux-mêmes, qui ont construit d’artificielles « périodes », ne s’arrachent jamais complètement à l’illusion d’un temps cyclique. Le péril n’est pas « qu’adviennent » à nouveau les années 1930, comme si notre condition historique était passive, mais que nous soyons à ce point traumatisés par le point d’aboutissement de la décennie 1930 que nous ne puissions pas nous réconcilier avec notre passé, pour qu’il ne pèse plus sur notre devenir comme une fatalité.   D’autres années 1930 Peut-on modestement appeler à une meilleure connaissance de ce passé, dans toute l’amplitude de ses potentialités, sans se polariser sur la catastrophe de 1940, pour se réconcilier avec lui – et ne pas subir ses effets ? Lorsqu’en janvier 2021 Marine Le Pen fustige « la politique du chien crevé au fil de l’eau » du gouvernement Castex, la presse y voit la reprise d’une attaque de François Fillon ciblant François Hollande huit ans plus tôt. Elle répète en réalité la pique d’André Tardieu, disciple de Georges Clemenceau, qui visait en 1921 la politique étrangère du président du conseil Aristide Briand formulée en 1921, suspect de détricoter le traité de Versailles. L’insulte revient sous la plume des journalistes d’extrême droite à l’aube des années 1930, lorsque Tardieu, devenu président du conseil à son tour, maintient Briand au Quai d’Orsay et se rallie à sa politique de conciliation avec l’Allemagne de Weimar. L’Action française fustige inlassablement Tardieu qui contribue au démantèlement du traité de Versailles. Au point que l’emploi de l’expression « chien crevé au fil de l’eau » se généralise dans les journaux de toutes tendances. En 1935, L’Humanité l’applique à Pierre Laval (L’Humanité, « Où nous conduit M. Laval ? Scandale diplomatique ! », le 8 novembre 1935, p. 3] dont la politique étrangère indécise hésite entre la volonté de séparer l’Italie de l’Allemagne nazie et l’exigence juridique de condamner le régime fasciste, agresseur de l’Ethiopie. Le 30 juin 1936, devant la Société des Nations à Genève, le négus Haïlé Sélassié plaide la cause de son pays, l’Éthiopie, envahi par l’armée de Mussolini. Cet exemple permet de rappeler les permanences – la réserve rhétorique de Marine Le Pen vient de l’extrême droite des années 1930 – et les discontinuités : Tardieu, inquiet de l’impuissance du parlementarisme, pressé par une partie de son camp de…

Le mouvement anti-Amazon de retour avec la crise de la Covid-19

Par Sarah Journée

Publié le 16 novembre 2020 Le mouvement anti-Amazon de retour avec la crise de la Covid-19 Hanene Oueslati, Université de Haute-Alsace (UHA) Depuis l’annonce du deuxième confinement et de la décision de fermeture des commerces jugés non essentiels, nous assistons à une vague de contestations plaçant le géant du e-commerce Amazon dans le viseur des responsables politiques, des enseignes de distribution et des consommateurs. Amazon, en particulier, devient le responsable des maux de cette société fragilisée par la crise sanitaire de la Covid-19. Cela prend plusieurs formes allant de l’appel à boycott d’Amazon par des politiciens, des associations consuméristes et des enseignes de la grande distribution, jusqu’à la création d’un plugin « Amazon Killer » recommandé aux consommateurs afin de chercher un livre sur Amazon et de l’acheter dans une librairie physique, ou de « Amazon Antidote » qui guide le consommateur vers d’autres sites proposant le même produit vendu par Amazon, à des prix plus bas. L’ampleur de la tendance de boycott d’Amazon en France est jugée sans précédent. Cédric O, Secrétaire d’État chargé de la transition numérique, l’assimile à « une psychose française sur Amazon qui n’a pas beaucoup de sens ». Il précise que « Amazon, c’est 20 % du e-commerce en France », représentant le pourcentage le plus faible dans les pays de l’Union européenne. Pour cela, deux questions se posent : pourquoi s’attaque-t-on à Amazon en particulier, malgré le fait qu’il ne soit pas seul sur le marché du e-commerce français ? Et pourquoi ce mouvement anti-Amazon est-il propre à ce deuxième confinement ? Pour répondre à ces questions, une étude qualitative, qui paraîtra en 2021, a été menée auprès de commerçants appartenant aux deux catégories : « commerces essentiels » et « commerces non essentiels » et de consultants en matière de RSE (responsabilité sociale des entreprises). Une étude ethnographique complémentaire a permis d’analyser une centaine de réactions clients à différentes publications écrites ou vidéo en relation avec l’appel au boycott d’Amazon. Cela nous a permis d’identifier les facteurs explicatifs du mouvement de boycott d’Amazon lié au deuxième confinement, ainsi que les limites de ce mouvement.   L’injustice cultivée par Amazon… Selon la théorie de la justice sociale de Rawls (1971), l’homme juste est celui qui soutient les organisations justes. Or, Amazon incarne pour certaines personnes interviewées l’image du capitalisme sauvage caractérisé par un engraissement qui ne profite qu’à un très petit nombre de bénéficiaires. Ainsi, il a été pendant plusieurs années attaqué pour ses valeurs sociales et sociétales. Il a souvent fait l’objet de mouvements de contestation à l’égard de sa politique sociale caractérisée par des conditions de travail jugées inhumaines, par une politique salariale injuste, par la suppression de postes et la robotisation de ses entrepôts, etc. Covid-19 : l’inquiétude des salariés d’Amazon.   De plus, Amazon a été pointé du doigt, à plusieurs reprises, à cause d’une mauvaise protection de ses salariés lors de la première vague de la Covid-19, en refusant de fermer ses entrepôts malgré les nombreux cas atteints signalés. Ses salariés se sont retrouvés dépourvus de moyens de protection, seuls face à la pandémie, contribuant ainsi, injustement, à l’enrichissement du géant du e-commerce. En France, on reproche à Amazon, l’opacité des informations au niveau de son chiffre d’affaires de la publicité en ligne, des places de marché et du cloud. Ces chiffres estimés à plus de 50 % du chiffre d’affaires total réalisé en France, ne sont pas taxés. Ainsi, Amazon ne contribue pas à l’économie française grâce aux avantages fiscaux dont il jouit, contrairement à d’autres géants du Web français tel que C-discount, dont les richesses générées profitent à l’économie française, et de manière indirecte aux Français. Amazon est perçu comme un opportuniste qui a énormément profité de la guerre contre la Covid-19, à travers la montée fulgurante de son chiffre d’affaires et de ses cours d’action en bourse. Les quelques initiatives du géant du e-commerce de mettre en avant les produits fabriqués en France et de soutenir les entreprises françaises sur son site Web, sont assimilées à de « la poudre de perlimpinpin ». Amazon est considéré, par certains, comme l’un des « riches de la guerre » avec tout ce que cela porte comme symboles négatifs d’opportunisme, d’égoïsme, d’individualisme et d’injustice. Les attentes de solidarité avec les Français, d’assistance aux petits commerçants et d’aide aux salariés non remplies par Amazon lors de la première vague ont contribué à ternir son image et à faire de lui une cible privilégiée lors de cette deuxième vague de la Covid-19.   L’injustice cultivée par les politiciens et relayée par les médias… L’appel au boycott d’Amazon par madame Roselyne Bachelot, ministre de la Culture, a fait l’effet de « la seringue hypodermique » sur certains consommateurs qui ont placé le géant du e-commerce dans l’agenda de leurs sujets de discussion. Ce discours a d’autant plus été considéré comme faisant appel au sentiment de culpabilité du consommateur et à son sens de la justice, tel qu’évoqué par le philosophe américain John Rawls (1971). Cela a été accentué par les communiqués des différentes fédérations du commerce, les publicités « solidaires » diffusées par certaines enseignes de distribution, ainsi que les discours politiques contradictoires au sujet d’Amazon. Or, au lieu d’aider à rétablir la justice sociale chez les Français, la médiatisation des différents discours politiques a davantage creusé le sentiment d’injustice sociale chez eux ; elle leur a donné l’impression qu’Amazon est plus fort que l’État français. Certains commerçants se lamentent en rappelant que : « lutter contre Amazon quand on fait partie du gouvernement doit se traduire par des lois et non pas par l’appel au boycott… ». Par ailleurs, lors du deuxième confinement, l’interdiction d’ouvrir les commerces jugés non essentiels, y compris les rayons concernés chez les supermarchés et les hypermarchés français, à l’exception des e-commerçants dont Amazon, a davantage éveillé le sentiment d’injustice sociale chez les consommateurs et les commerçants français. Cela a pris la forme de deux grandes polémiques. La première polémique concerne la catégorisation de ce qui est essentiel de ce qui ne l’est pas. La hiérarchie des biens retenue par le gouvernement ne reflète pas de manière juste et équitable celle des commerçants français qui trouvent que les…