Catégorie : Article

BD « Le laser à cristaux »

Par Sarah Journée

Publié le 14 octobre 2025 BD « Le laser à cristaux » Dans le projet de recherche international DUVNANO, les chercheuses et chercheurs n’utilisent pas de sabre de jedi, mais leur technologie peut y faire penser… Découvrez en BD les travaux de recherche mené par les laboratoires partenaires : l’Institut de Science des Matériaux de Mulhouse (IS2M) et le LINK (Laboratory for INnovative Key material and structures) à Tsukuba au Japon. Un voyage ludique non pas dans la science fiction, mais au cœur du quotidien de scientifiques… et de futurs objets et usages de votre quotidien !   Un projet de vulgarisation porté par la délégation Paris-Normandie du CNRS.   Equipe recherche : Fabien Grasset (LINK) ; Olivier Soppera et Dominique Berling (IS2M) Equipe artistique : Association Stimuli (scénario : Grégory Mardon ; dessin : Alice Varoquaux ; médiation scientifique : Laurence Bordenave)   IS2M – double tutelle du CNRS et de l’Université Haute Alsace LINK – triple tutelle du CNRS, du National Institute for Materials Science et de Saint-Gobain KG   Ces recherches ont été financées en tout ou partie par l’Agence nationale de la recherche (ANR) au titre du projet « Fabrication de couches minces fonctionnelle en combinant les procédés de nanolithographie UV profonds et la chimie colloïdale des nanocristaux – DUVNANO ». Cette communication est réalisée et financée dans le cadre de l’appel à projet Sciences Avec et Pour la Société – Culture Scientifique Technique et Industrielle pour les projets JCJC et PRC des appels à projets génériques 2018 et 2019.   Retrouvez l’article original sur Focus Sciences, un blog du réseau de communicant·es du CNRS. Olivier Soppera Directeur de recherche en photochimie et photophysique (IS2M) Dominique Berling Professeur (FST & IS2M) Sur le même thème Tous |Article |Non classé |Podcast |Question |Recherche participative |Vidéo BD « Sciences en bulles » : La poudre de Magnésium, un carburant propre et renouvelable pour nos voitures ? 6 octobre 2020/ Publié le 6 octobre 2020 BD « Sciences en bulles » : La poudre de Magnésium, un carburant propre et… Article Avis de Recherche N°5 – MatLight 4.0 19 décembre 2023/ Publié le 19 décembre 2023 Avis de Recherche N°5 – MatLight 4.0   >>> Avis de recherche est une émission… Podcast Des déchets de crevette pour une électronique plus écoresponsable ? 31 juillet 2025/ Publié le 31 juillet 2025 Des déchets de crevette pour une électronique plus écoresponsable ? Yann Chevolot, Centrale Lyon; Didier Léonard, Université… Article

Des déchets de crevette pour une électronique plus écoresponsable ?

Par Sarah Journée

Publié le 31 juillet 2025 Des déchets de crevette pour une électronique plus écoresponsable ? Yann Chevolot, Centrale Lyon; Didier Léonard, Université Claude Bernard Lyon 1; Isabelle Servin, Commissariat à l’énergie atomique et aux énergies alternatives (CEA); Jean-Louis Leclercq, Centrale Lyon; Olivier Soppera, Centre national de la recherche scientifique (CNRS); Université de Haute-Alsace (UHA) et Stéphane Trombotto, Université Claude Bernard Lyon 1 Avec l’explosion du numérique, des objets connectés et de l’intelligence artificielle, la production de composants électroniques poursuit sa croissance. La fabrication de ces composants recourt à des techniques de fabrication complexes qui ont pour objet de sculpter la matière à l’échelle de quelques micromètres à quelques nanomètres, soit environ l’équivalent du centième au millième du diamètre d’un cheveu. L’impact environnemental de ces procédés de fabrication est aujourd’hui estimé entre 360 et 600  mégatonnes équivalent CO2 par an dans le monde. Les chercheurs visent à réduire cet impact en s’attaquant aux différentes étapes de fabrication des produits électroniques.     Les procédés de fabrication en microélectronique requièrent l’emploi de matériaux et solvants pétrosourcés – c’est-à-dire issus de ressources fossiles comme le pétrole. Et certains de ces matériaux comportent des composés chimiques classés comme mutagènes, cancérigènes ou reprotoxiques. Pour des raisons économiques, réglementaires, écologiques et de sécurité, les acteurs du domaine soulignent leur volonté d’accentuer le développement de procédés plus respectueux de l’environnement et moins toxiques. De plus, les projections sur la raréfaction du pétrole imposent d’explorer des matériaux alternatifs aux matériaux pétrosourcés – un domaine que l’on appelle la « chimie verte ». Dans ce contexte, différents matériaux biosourcés (à savoir, des matériaux issus partiellement ou totalement de la biomasse) et hydrosolubles sont étudiés comme une alternative aux matériaux pétrosourcés. Par exemple, la protéine de la soie ou les protéines du blanc d’œuf, deux matériaux appartenant à la famille des polymères (matériaux constitués de molécules de tailles importantes, aussi appelées « macromolécules ») ont été proposés comme résine de lithographie. Cependant, ces polymères biosourcés possèdent des limitations pratiques par exemple être en compétition avec l’alimentation humaine pour ce qui concerne le blanc d’œuf. Dans nos travaux, nous explorons le potentiel du chitosane, un matériau polymère naturel produit aujourd’hui à l’échelle industrielle à partir de la chitine, que l’on extrait principalement de déchets agroalimentaires, comme les carapaces de crevettes et de crabes, les endosquelettes de seiches et de calmars, et certains champignons. Nous avons montré que le chitosane est compatible avec une ligne de production pilote semi-industrielle de microélectronique. L’analyse du cycle de vie du procédé que nous proposons montre une réduction potentielle de 50 % de l’impact environnemental par rapport aux résines conventionnelles lors de la réalisation d’étapes de lithographie-gravure similaires.   La lithographie, processus clé de la fabrication des composants électroniques Par exemple, aujourd’hui, la fabrication d’un transistor nécessite plusieurs centaines d’étapes (entre 300 et 1 000 par puce suivant la nature du composant). Parmi ces étapes, les étapes de lithographie permettent de dessiner les motifs des composants à l’échelle micro et nanométrique. Ce sont celles qui nécessitent le plus de produits chimiques actuellement pétrosourcés et pour certains toxiques. La lithographie consiste à recouvrir la plaque de silicium avec une couche de résine sensible à la lumière ou à un faisceau d’électrons – comme une pellicule photographique – de manière à y inscrire des motifs de quelques micromètres à quelques nanomètres par interaction localisée du faisceau avec la matière. En optique, plusieurs longueurs d’onde sont utilisées selon la taille des motifs souhaités. Plus la longueur d’onde est petite, plus la taille des motifs inscriptibles est petite, et on peut aujourd’hui atteindre des résolutions de moins de 5 nanomètres avec une lumière de longueur d’onde de 13,5 nanomètres, afin de répondre à la demande de miniaturisation des composants électroniques, correspondant à la loi de Moore. Celle-ci stipule que le nombre de transistors sur un circuit intégré double environ tous les deux ans, entraînant une augmentation exponentielle des performances des microprocesseurs tout en réduisant leur coût unitaire. In fine, lors de l’étape de développement – encore une fois comme un terme emprunté à la photographie argentique, c’est la différence de solubilité entre les zones de la résine qui ont été exposées ou non à l’irradiation ultraviolette ou d’électrons qui permet de créer des ouvertures de géométrie définie à travers la résine de chitosane. Là où la résine disparaît, on accède au substrat de silicium (ou autre couche/matériau sous-jacente). On peut ainsi le graver ou y déposer d’autres matériaux (métaux, diélectriques et semiconducteurs), la résine restante jouant alors le rôle de masque de protection temporaire pour les zones non traitées.   Le chitosane, une solution bio pour la résine Comme mentionné précédemment, le chitosane est produit à partir de la chitine, le deuxième polymère naturel le plus abondant sur Terre (après la cellulose), mais il peut aussi être produit par des procédés de biotechnologies. En plus d’être un matériau renouvelable, il est biocompatible, non écotoxique, biodégradable et soluble en milieu aqueux légèrement acide. Au milieu de tous ces avantages, son grand intérêt pour la micro- et la nanofabrication est qu’il peut former des films minces, c’est-à-dire des couches de très faibles épaisseurs. Le chitosane peut donc être facilement étalé sur le substrat en silicium pour remplacer la résine pétrosourcée. Dans le cadre de plusieurs projets de recherche, nous avons démontré que le chitosane était compatible avec toute la gamme des techniques de lithographie : lithographie électronique, optique (193 nanomètres et 248 nanomètres) et même en nanoimpression. Cette dernière technique consiste à presser directement le film de chitosane avec un tampon chauffé possédant des motifs de tailles submicrométriques.   Le chitosane change de structure quand il est irradié Nous avons mis en évidence que, sous une exposition à des faisceaux d’électrons ou de lumière, une réduction de la longueur des macromolécules du chitosane se produit du fait de la rupture de certaines liaisons chimiques, selon un processus de « dépolymérisation partielle ». Ceci a pour conséquence de rendre la zone irradiée de la résine soluble dans l’eau pure alors que les zones non touchées par le faisceau restent insolubles. Au final, les performances de la résine en chitosane sont proches des résines commerciales en…

De l’effet Lotus à l’effet Salvinia : quand les plantes inspirent la science et bousculent notre regard sur les matériaux

Par Sarah Journée

Publié le 9 juillet 2025 De l’effet Lotus à l’effet Salvinia : quand les plantes inspirent la science et bousculent notre regard sur les matériaux Laurent Vonna, Université de Haute-Alsace (UHA) À la surface des feuilles de lotus se trouvent des aspérités microscopiques qui empêchent l’eau d’y adhérer. Cette découverte a changé notre façon de comprendre comment les liquides interagissent avec les surfaces : ce n’est pas seulement la chimie du matériau qui compte, mais aussi sa texture. Depuis, les scientifiques s’en sont inspirés pour explorer de nouvelles façons de contrôler le comportement des liquides à la surface des matériaux. La feuille de lotus présente une propriété remarquable : elle s’autonettoie. Les gouttes d’eau, en roulant à sa surface, emportent poussières et autres contaminants, laissant la feuille d’une propreté remarquable. Il y a près de trente ans, l’explication de ce phénomène, connu sous le nom d’effet Lotus, a été proposée par les botanistes Wilhelm Barthlott et Christoph Neinhuis. Cette découverte a changé profondément notre façon d’appréhender les interactions entre un solide et des liquides. Le défi de reproduire cette propriété autonettoyante, puis de l’améliorer, a été relevé rapidement en science des matériaux. Depuis, la botanique a encore inspiré d’autres découvertes utiles à des applications technologiques — nous rappelant encore une fois combien la recherche purement fondamentale peut avoir des répercussions importantes, au-delà de la curiosité qui la motive. De l’effet Lotus à la superhydrophobie L’explication proposée par Wilhelm Barthlott et Christoph Neinhuis dans leur article fondateur publié en 1997 est finalement toute simple. Elle révèle que l’effet Lotus repose sur une texturation de la surface de la feuille à l’échelle micrométrique, voire nanométrique. La rugosité correspondant à cette texture est telle que, lorsqu’une goutte d’eau se dépose sur cette surface, elle ne repose que sur très peu de matière, avec un maximum d’air piégé entre la goutte et la feuille. La goutte est alors comme suspendue, ce qui conduit à une adhérence très faible. Ainsi, les gouttes roulent sur la feuille sous l’effet de leur poids, emportant sur leur passage les impuretés qui y sont déposées. La possibilité de contrôler l’adhérence des gouttes par la simple texturation de surface a rapidement séduit le monde de la science des matériaux, où les situations nécessitant un contrôle de l’adhésion d’un liquide sont extrêmement nombreuses, comme dans le cas par exemple des textiles techniques, des peintures ou des vernis. Une véritable course s’est ainsi engagée pour reproduire les propriétés répulsives de la feuille de lotus sur des surfaces synthétiques. Cet essor a été rendu possible par la diffusion dans les laboratoires, à la même époque, de techniques d’observation adaptées à l’observation aux échelles des textures ciblées, telles que la microscopie électronique à balayage en mode environnemental, qui permet l’observation d’objets hydratés et fragiles que sont les objets biologiques, ou encore la microscopie à force atomique qui permet de sonder les surfaces grâce à un levier micrométrique. Ce sont aussi les progrès en techniques de microfabrication, permettant de créer ces textures de surface aux échelles recherchées, qui ont rendu possible l’essor du domaine. Dans les premières études sur la reproduction de l’effet lotus, les chercheurs ont principalement eu recours à des techniques de texturation de surface, telles que la photolithographie et la gravure par plasma ou faisceau d’ions, l’ajout de particules, ou encore la fabrication de répliques de textures naturelles par moulage. L’appropriation de l’effet lotus par le domaine des matériaux a rapidement orienté les recherches vers la superhydrophobie, propriété à la base de l’effet autonettoyant, plutôt que vers l’effet autonettoyant lui-même. Les recherches se sont d’abord concentrées sur la texturation des surfaces pour contrôler la répulsion de l’eau, puis se sont très vite étendues aux liquides à faible tension de surface, comme les huiles. En effet, les huiles posent un plus grand défi encore, car contrairement à l’eau, elles s’étalent facilement sur les surfaces, ce qui rend plus difficile la conception de matériaux capables de les repousser. Cette appropriation du phénomène par le monde de la science des matériaux et des enjeux associés a d’ailleurs produit un glissement sémantique qui s’est traduit par l’apparition des termes « superhydrophobe » et « superoléophobe » (pour les huiles), supplantant progressivement le terme « effet lotus ». Désormais, le rôle crucial de la texture de surface, à l’échelle micrométrique et nanométrique, est intégré de manière systématique dans la compréhension et le contrôle des interactions entre liquides et solides. La botanique également à l’origine d’une autre découverte exploitée en science des matériaux Bien que l’idée de superhydrophobie ait déjà été publiée et discutée avant la publication de l’article sur l’effet Lotus, il est remarquable de constater que c’est dans le domaine de la botanique que trouve son origine l’essor récent de la recherche sur le rôle de la texturation de surface dans l’interaction liquide-solide. La botanique repose sur une approche lente et méticuleuse — observation et classification — qui est aux antipodes de la science des matériaux, pressée par les impératifs techniques et économiques et bénéficiant de moyens importants. Pourtant, c’est bien cette discipline souvent sous-estimée et sous-dotée qui a permis cette découverte fondamentale. Plus tard, en 2010, fidèle à sa démarche de botaniste et loin de la course aux innovations technologiques lancée par l’explication de l’effet Lotus, Wilhelm Barthlott a découvert ce qu’il a appelé l’effet Salvinia. Il a révélé et expliqué la capacité étonnante de la fougère aquatique Salvinia à stabiliser une couche d’air sous l’eau, grâce à une texture de surface particulièrement remarquable. La possibilité de remplacer cette couche d’air par un film d’huile, également stabilisé dans cette texture de surface, a contribué au développement des « surfaces infusées », qui consistent en des surfaces rugueuses ou poreuses qui stabilisent en surface un maximum de liquide comme de l’huile. Ces surfaces, encore étudiées aujourd’hui, présentent des propriétés remarquables. La biodiversité, source d’inspiration pour les innovations, est aujourd’hui en danger L’explication de l’effet Lotus et sa diffusion dans le monde des matériaux démontrent finalement comment, loin des impératifs de performance et des pressions financières…

La franchise résiste-t-elle mieux aux crises ?

Par Sarah Journée

Publié le 24 février 2025 La franchise résiste-t-elle mieux aux crises ? Saloua Bennaghmouch-Maire, Université de Haute-Alsace (UHA) La franchise surmonte mieux les crises que d’autres modèles d’entreprise. Les chiffres l’attestent : le chiffre d’affaires des franchises progresse de 15,5 %, contre 7,7 % pour les autres. Cependant, ils ne prennent pas en compte le taux de survie à dix ans, le renouvellement des structures ni la dépendance du modèle à certains secteurs d’activité. « Dans un contexte de crise sanitaire ayant marqué l’année 2020, le modèle de la franchise apparaît comme un refuge pour les franchisés. 67 % estiment en effet avoir mieux résisté à la crise en tant que franchisés plutôt qu’un commerçant indépendant. » C’est que souligne l’enquête sur la résilience du modèle des franchises, quelles que soient les crises successives, financières – 2008 – ou sanitaires – Covid-19. Les franchises sont un système complexe caractérisé par une relation dyadique franchiseur-franchisé. En corollaire : le droit d’utiliser son enseigne, sa marque, son savoir-faire ou le droit de commercialiser des produits ou services. L’Insee abonde dans le sens de la Fédération française de la franchise (FFF). Les chances de survie d’une entreprise sont de 5 ans supérieures lorsqu’elles sont créées sous l’égide d’un réseau (74 %), contre 58 % hors réseau. La franchise est présentée comme une voie privilégiée d’entrepreneuriat. Cependant, les théories fondatrices et les résultats de travaux empiriques centrés sur la performance des systèmes de franchise nuancent cette résilience structurelle, notion exacerbée par les crises. Alors, la franchise serait-elle régie par une homéostasie (capacité d’un système à maintenir l’équilibre de son milieu intérieur) favorable à la résilience organisationnelle ?   Croissance en hausse, survie en berne Les données ci-dessous soulignent une progression du nombre de franchiseurs et points de vente, ainsi que du chiffre d’affaires réalisé par le commerce et les services sous ce format. Les crises successives de 2008, financière, et de 2020-2021, sanitaire, ne semblent pas infléchir significativement la pente de cette progression. Elles sont de nature à accréditer l’existence d’une résilience globale de la franchise, si l’on se limite à ces données. On pourra toutefois nuancer cette appréciation par une prise en compte plus sectorielle de ces tendances. Ces chiffres ne renseignent pas l’évolution de la part de marché de la franchise dans l’ensemble du commerce de détail et des services. Ces indicateurs de performance traduisent un solde d’opérateurs, franchiseurs et franchisés, sans rendre compte du taux de renouvellement des enseignes ou de leur taux de survie. On ne peut exclure que cette dynamique globale favorable soit obtenue au prix d’un certain taux de renouvellement des enseignes en franchise. Ce résultat est à rapprocher d’une donnée : seul un réseau sur trois survivrait au-delà d’une dizaine d’années. Comme le souligne Rozenn Perrigot, la mixité, la taille, l’origine nationale et l’internationalisation du réseau sont des facteurs influençant positivement sa survie.   Investissements ne signifient rentabilité L’option franchise est historiquement étudiée dans sa dimension financière. Le recours à la franchise par les têtes de réseaux relève principalement de la théorie de « la rareté des ressources ». Il est lié au besoin du franchiseur de trouver certaines ressources rares, telles que les ressources financières ou la connaissance des marchés visés, mais aussi les compétences et la disponibilité des opérateurs locaux. De facto, un « levier financier ». Certains travaux empiriques, notamment ceux initiés par la Fédération française de la franchise (FFF), relativisent considérablement ce point. Le modèle des franchises n’assure pas automatiquement la croissance de l’entité franchisante et une rentabilité financière durable. Un autre enseignement : l’échec de la franchise en Grande-Bretagne repose notamment sur le risque d’inadéquation structurelle entre les investissements immédiats pour assurer la fonction franchise et les profits escomptables du réseau.   Des secteurs d’activité précis (comme la restauration rapide) Plus récemment des travaux concluent de façon très nuancée sur la rentabilité économique et financière des franchises. Il apparaît en effet que les réseaux franchisés dégagent en moyenne une rentabilité économique supérieure à celle des succursalistes dès lors qu’ils sont composés de plus de 75 % d’unités en franchise. Ceci sous deux conditions : que la franchise s’exerce dans un environnement dynamique caractérisé par des ruptures et dans un secteur qui l’a massivement adoptée. Un secteur d’activité emblématique : la restauration rapide. Une rupture : la livraison à domicile pendant la pandémie de Covid-19. En revanche, la supériorité d’une rentabilité financière de la franchise par rapport au succursalisme n’est pas établie. Elle invalide le mythe du levier financier en mettant en question l’existence d’une capacité de résilience propre à la franchise. Ce constat empirique invalide ainsi le mythe du levier financier et remet en question l’existence d’une capacité de résilience propre à la franchise.   Saloua Bennaghmouch-Maire, Directrice de l’UHA Business School, Université de Haute-Alsace (UHA)   Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original. Saloua Bennaghmouch-Maire Directrice de l’UHA Business School & Maîtresse de conférences en Sciences économiques (UHA Business School & LISEC) Sur le même thème Tous |Article |Non classé |Podcast |Question |Recherche participative |Vidéo Le chômage : un équilibre involontaire 11 novembre 2020/ Publié le 11 novembre 2020 Le chômage : un équilibre involontaire John Maynard Keynes en mars 1940, au moment de… Podcast BNP Paribas, de l’escompte à la finance mondiale 3 décembre 2020/ Publié le 3 décembre 2020 BNP Paribas, de l’escompte à la finance mondiale Une succursale du Comptoir national d’escompte de… Podcast Crises de l’eau : comment gérer les conflits d’usage ? 17 août 2024/ Publié le 17 août 2024 Crises de l’eau : comment gérer les conflits d’usage ? Bruno Camous, Université de Haute-Alsace (UHA) et Marc… Article

Relance du nucléaire : la nouvelle ruée vers l’uranium naturel

Par Sarah Journée

Publié le 20 février 2025 Relance du nucléaire : la nouvelle ruée vers l’uranium naturel Teva Meyer, Université de Haute-Alsace (UHA) Selon la World Nuclear Association, la demande mondiale d’uranium va quasiment tripler d’ici à 2040. Mais les principaux pays qui abritent cette ressource, en Asie centrale ou en Afrique, avaient levé le pied à la suite de la baisse du cours de l’uranium provoquée par l’accident de Fukushima (2011). Aujourd’hui, tous ne sont pas en mesure de répondre aux nouveaux besoins de productions. D’autres pays pourraient toutefois émerger et l’investissement dans des procédés moins gourmands en uranium sera également nécessaire. Cet article résume les résultats du récent rapport de l’Institut de relations internationales et stratégiques (Iris) sur la géopolitique de l’uranium Dans le flot des décrets signés par Donald Trump dès son retour à la Maison Blanche, « l’état d’urgence énergétique nationale » vise à intensifier l’extraction d’uranium naturel. Alors que le plan de développement du nucléaire publié par l’administration Biden nécessite 75 000 tonnes d’uranium par an en 2050, les États-Unis n’en produisaient que 193t en 2023. Washington est loin d’être seul à anticiper cette augmentation. La World Nuclear Association envisage une croissance de la demande mondiale à 180 000 tonnes par an en 2040 contre 65 650 aujourd’hui. La production est déjà insuffisante. En 2023, 75 % des besoins étaient assurés par l’extraction de minerais, le reste provenant de stocks et du retraitement des combustibles nucléaires. La totalité de cette production sert à l’industrie nucléaire civile, la consommation militaire restant marginale. La ressource ne manque pourtant pas : les réserves techniquement exploitables suffisent à couvrir les besoins mondiaux jusqu’à la fin du siècle. Tandis que la faiblesse des cours de l’uranium après l’accident de Fukushima avait mené à la fermeture de mines, leur flambée de 24$ à 74$ la livre entre 2020 et 2024 alimente aujourd’hui une ruée vers le minerai. Mais qui pourra y répondre ?   L’Asie centrale : cœur du monde de l’uranium, mais jusqu’à quand ? Avec 37 % de la production mondiale en 2023, le Kazakhstan est la première source d’uranium, devant le Canada (22,6 %) et la Namibie (14 %). Mais à l’été 2024, le groupe minier public Kazatomprom avertissait de son incapacité à augmenter ses extractions, faute d’approvisionnement en acide sulfurique. L’acide est un intrant indispensable à l’extraction de l’uranium par lixiviation in situ (ISL), une méthode qui consiste à injecter une solution dans le sol, pour dissoudre et récupérer par pompage le minerai. Le groupe a lancé la construction d’une usine d’acide, mais elle ne sera opérationnelle qu’en 2026. Simultanément, le pays consolide son tournant vers la Chine. Fin 2024, les entreprises chinoises du nucléaire CGN et CNNC rachetaient au Russe Rosatom ses parts dans deux mines kazakhes, tout en signant un contrat d’achat d’uranium pour plus de 2,5 milliards de dollars. Le voisin ouzbek espère suivre ce modèle. En juillet 2022, le président Mirziyoyev signait un décret visant à tripler la production d’ici à 2030 et atteindre 12 000t/an. Le gouvernement a restructuré la filière au sein d’une entreprise publique (Navoiyuran), favorisé la valorisation de co-produits pour baisser les coûts et engagé le rapprochement avec des groupes étrangers, dont le Français Orano. Avec 80 % de sa production d’ici à 2030 déjà vendue, cette stratégie apparaît efficace. Le Kazakhstan et l’Ouzbékistan font néanmoins face à un problème commun de transport : historiquement, le principal corridor d’acheminement d’Asie centrale vers l’ouest se faisait par train, via la Russie, jusqu’au port de Saint-Pétersbourg. Bien qu’aucune sanction ne bloque cette voie, Kazatomprom développe la route transcaspienne ouverte en 2018. L’entreprise est poussée à le faire par le groupe canadien Cameco, qui co-exploite des mines avec lui, et anticipe une éventuelle décision du Kremlin de bloquer le passage par son territoire. L’uranium quitte ainsi le Kazakhstan par le port d’Aktaou, traverse la Caspienne pour être chargé sur des trains à Bakou (Azerbaïdjan) avant de rejoindre le port de Poti (Géorgie) en mer Noire. Mais les ruptures de charge sur cette route, par laquelle passent 65 % des exportations d’uranium kazakh allant vers l’ouest, entraînent des surcoûts importants. Et le passage envisagé par le port de Shanghai tarde, la Chine rechignant à ouvrir une route d’exportation pour un minerai qui ne lui profiterait alors plus.   L’Afrique en peine pour s’imposer sur le marché Le salut ne viendra pas de Namibie. Si les extractions y ont augmenté de 40 % en 2022, la croissance se heurte à la disponibilité en eau. La Namibie traverse une grave sécheresse et la mine d’Husab, plus importante du pays, est le deuxième consommateur après la capitale Windhoek. L’industrie uranifère tient par la production d’une usine de dessalement. Une seconde est en construction par la Chine. Pékin contrôle en effet déjà l’uranium namibien : le pays possède les deux mines en fonction dans le pays (Husab et Rössing) et détient 25 % d’une troisième, Langer Heinrich, en cours de réouverture. Quant aux tentatives russes d’y ouvrir une mine, elles ont été repoussées par le gouvernement namibien, invoquant la protection des aquifères. Reste l’inconnu du Niger. Le pays, qui ne produisait déjà plus que 4 % de l’uranium mondial, n’en a plus exporté depuis début 2024, la fermeture de la frontière avec le Bénin après le coup d’État de juillet 2023 ayant bloqué l’acheminement du minerai. La position de la junte vis-à-vis des Occidentaux est dans ce contexte ambivalente : si elle a repris à Orano le contrôle de la mine d’Arlit et retiré son permis d’Imouraren, elle a renouvelé les autorisations d’exploration de groupes états-uniens et australiens. À l’heure, rien ne confirme que la Russie ait essayé d’accaparer les gisements d’Orano. Les tensions franco-nigériennes ont été largement instrumentalisées par la guerre informationnelle menée par le Kremlin sur le terrain de l’uranium. À l’inverse, le réinvestissement chinois au Niger est plus certain, le groupe CNNC réouvrant en mai 2024 sa mine d’Azelik.   Le Canada comme relais de croissance Bien que disposant des réserves les plus importantes au monde, la part de l’Australie dans la production d’uranium (8,5 %) a peu de chance de décoller. L’exploitation nécessite en effet l’autorisation…

Pourquoi si peu de transparence concernant les pesticides ?

Par Sarah Journée

Publié le 29 janvier 2025 Pourquoi si peu de transparence concernant les pesticides ? Elisabeth Lambert, Nantes Université; Karine Favro, Université de Haute-Alsace (UHA) et Quentin Chancé, Centre national de la recherche scientifique (CNRS) La moitié des fruits cultivés en France comporte au moins un pesticide potentiellement dangereux. Derrière les enjeux de transparence sur ces produits et leur utilisation, on retrouve des obstacles de nature légale, administrative, technique et sociale. Des voies d’amélioration sont toutefois possibles, du champ jusqu’à l’assiette, pour le riverain d’exploitation agricole comme pour le consommateur. La moitié des fruits et le quart des légumes cultivés en France conservent, lorsqu’ils sont consommés, au moins un pesticide cancérigène, ou bien susceptible de provoquer des mutations de l’ADN, ou encore d’affecter la reproduction. Une réalité qui préoccupe, d’où la demande de plus de transparence. Pourquoi est-ce important ? Tout d’abord, car la transparence permet de garantir la responsabilité des acteurs en cas d’atteintes à la santé et à l’environnement ; ensuite, car elle favorise la confiance du public à l’égard des autorités régulatrices et des entreprises agricoles en démontrant leur engagement envers la sécurité et la durabilité. Enfin, la transparence facilite la surveillance et l’évaluation des risques, en permettant aux chercheurs et aux experts de disposer de données fiables et accessibles pour étudier leurs effets à long terme. Mais entre la théorie et la pratique, on trouve un monde, des obstacles de nature légale, administrative, informatique, ainsi que des barrières techniques, politiques et sociétales, et des questionnements sur la façon de rendre une information pertinente et claire. Malgré tout cela, plus de transparence est encore possible, et ce, du champ jusqu’à l’assiette, pour le riverain d’exploitation agricole comme pour le consommateur. Voici comment.   Informer le grand public des usages des pesticides Les questionnements autour des pesticides débutent souvent lors de leur épandage par un agriculteur. Aujourd’hui, le partage des informations disponibles à ce sujet reste très laborieux : lors d’une commission d’enquête sur les « plans successifs de maîtrise des impacts des produits phytosanitaires sur la santé humaine et environnementale » en 2023, le député PS Dominique Potier qualifiait la recherche d’information d’« ubuesque ». Les limites sont ici avant tout réglementaires et techniques. En effet, les agriculteurs doivent répertorier, depuis 2009, leurs usages de pesticides (produits, quantités, sites d’épandage) dans des « cahiers de culture », mais ces derniers ne sont accessibles et mobilisables par les pouvoirs publics qu’en cas de contrôle (5 % à 7 % des fermes par an). Le 14 janvier 2025, le premier ministre souhaitait malgré tout voir réduire ce nombre. Un Règlement européen d’exécution du 10 mars 2023 pourrait cependant aider à plus de transparence, puisqu’il imposera l’obligation, en 2026, de numériser et harmoniser ces registres afin de faciliter la connaissance scientifique en matière de santé environnementale. Cette question de l’harmonisation est loin d’être anodine, car, en pratique, les filières agricoles disposent déjà de registres d’usage de pesticides via les systèmes de traçabilité internes des coopératives, des groupements industriels et de producteurs, lesquels rassemblent le contenu des cahiers de cultures. Mais détenues par de multiples acteurs via des logiciels différents, ces bases de données ne sont pas « informatiquement » compatibles entre elles. Un travail technique de mise en équivalence doit donc être réalisé si l’on veut les réunir et former une base de données publique. Ce virage n’est toutefois pas impossible, comme l’ont montré les pouvoirs publics danois et slovaques, qui ont permis aux agriculteurs de rentrer leurs données en ligne sur une plate-forme gratuite gérée par l’État, sans avoir à débourser d’argent pour exploiter un logiciel privé ; cela faciliterait la collecte publique de ces informations, sans opérer de contrôle sur place, et leur traitement. Ce changement pourrait également rendre les agriculteurs sereins, avec des contrôles qui pourraient, dès lors, être plus transparents, se faisant au fil de l’eau par collecte des données numériques. En outre, depuis 2022, les données relatives aux pesticides, sont entrées dans le Régime européen spécifique pour les données d’intérêt général (RGPD, qu’on nomme « régime de l’altruisme »), ce qui pourrait également en accélérer la mise à disposition pour tous les publics concernés et enlever les feins liés à la disponibilité des données. Mais qu’en est-il des informations sur les moments et lieux précis d’épandage des pesticides ?   L’information des riverains sur les épandages de pesticides Actuellement, une des populations les plus demandeuses de transparence restent les riverains, soucieux de leur santé. Si, sur le plan médiatique, les personnes qui s’inquiétent de ces questions sont souvent perçues comme des militants politiques, le père d’un enfant gravement malade, vivant dans la région de La Rochelle, où l’on soupçonne un cluster de cancers pédiatriques lié à l’épandage des pesticides, résumait ainsi son engagement initial : « On n’était pas des militants actifs, mais des parents d’élève. » Informer les riverains leur donnerait la possibilité de se protéger en partie des retombées des épandages. Mais, ici aussi, avoir des informations claires et précises à l’échelle des parcelles reste laborieux. Tenter de modifier cela, s’est d’ailleurs transformé en un feuilleton normatif et judiciaire qui dure depuis cinq ans. Certains territoires (comme le Limousin pour la pomme, et l’Isère pour la noix) avaient à l’époque commencé à mettre en œuvre des initiatives concertées d’information des riverains, par SMS ou par l’intermédiaire d’applications numériques, la veille des traitements. Mais l’obligation faite par l’État en 2019 d’utiliser des chartes réglementaires (des textes obligatoires listant les engagements des applicateurs de pesticides et rappelant les enjeux liés aux épandages), pour fournir ces informations, a provoqué une crispation des agriculteurs et un recul de pratiques initiées localement et/ou par filières. Après cela, les chartes élaborées de 2020 à 2023 n’ont exigé qu’une nécessité d’information au moment de l’épandage (souvent par allumage du gyrophare du tracteur au moment du traitement et via par exemple l’affichage des calendriers de traitements prévisibles sur les sites des chambres d’agriculture). Mais ces chartes ont été considérées comme contraires à la réglementation en janvier par le tribunal administratif d’Orléans, puis, en novembre 2024, par la cour administrative d’appel de Versailles, au motif que l’information n’est pas préalable au traitement et pas suffisamment individualisée,…

Comment les robots perçoivent-ils le monde ?

Par Sarah Journée

Publié le 13 janvier 2025 Comment les robots perçoivent-ils le monde ? Stéphane Bazeille, Université de Haute-Alsace (UHA) Pour percevoir son environnement, il faut non seulement pouvoir le capter, mais aussi interpréter les données de façon judicieuse — ceci reste un défi pour les robots. Les robots destinés au grand public sont de plus en plus présents dans notre quotidien, mais ils restent aujourd’hui assez proches de plates-formes à roues ou volantes (aspirateurs, tondeuses, drones par exemple). L’industrie est équipée de bras spécialisés, pour l’assemblage et la manutention. Ces robots industriels et du quotidien ont un point commun : ils disposent de peu de capteurs leur permettant de percevoir le monde. Ceci les rend plus simples à gérer, mais limite grandement leurs capacités. On observe néanmoins depuis quelques années l’émergence de robots beaucoup plus complexes. Les robots humanoïdes, comme ceux de Boston Dynamics ou plus récemment Tesla, en sont les exemples les plus frappants. Ces robots plus perfectionnés restent aujourd’hui des robots de recherche : ils peuvent faire beaucoup plus de choses, mais leur programmation nécessite beaucoup plus de capteurs, comme c’est le cas d’Atlas, le robot de Boston Dynamics, sur cette vidéo. Atlas, le robot de Boston Dynamics, sait utiliser ses mains de façon autonome. Source : Boston Dynamics.   Si leurs capacités mécaniques sont de plus en plus spectaculaires, la difficulté principale aujourd’hui est de donner aux robots des capacités de perception pour pouvoir interagir facilement avec leur environnement. En effet, c’est bien notre perception de l’environnement qui nous permet, à nous, humains, de reconnaître et de localiser des objets pour les attraper, d’estimer leurs trajectoires pour anticiper leurs positions, de nous déplacer d’un point à un autre en évitant les obstacles par exemple. La perception peut aujourd’hui être basée sur différents capteurs qui mesurent différentes grandeurs physiques telles que le flux lumineux, la distance, les accélérations ou les rotations. Chez les humains, l’oreille interne perçoit la position et l’orientation de la tête et permet de se maintenir en équilibre, tandis que les drones ou les robots humanoïdes maintiennent leur équilibre en mesurant les accélérations et vitesses de rotation de leur corps, mesurées à très haute fréquence grâce à une centrale inertielle. Les aspirateurs quant à eux évitent les obstacles grâce à des capteurs de distance qui leur permettent de construire des cartes de leur environnement. Toutes ces tâches (équilibre, localisation, analyse de l’environnement) sont primordiales pour améliorer l’autonomie des robots, mais équiper un robot d’un système de perception est un travail considérable : il faut acquérir les données, les traiter, et prendre une décision sur le comportement du robot en fonction de ces informations.   Des yeux au cerveau, des caméras à l’ordinateur embarqué Chaque capteur restitue à l’ordinateur embarqué une information de plus ou moins « haut niveau », c’est-à-dire nécessitant plus ou moins de traitement par la suite pour en extraire du sens. Les capteurs les plus riches, mais aussi les plus complexes à utiliser, sont ceux développés pour la vision. L’homme a un système visuel très développé et entraîné depuis la petite enfance pour reconnaître, localiser, mesurer, estimer les mouvements : notre œil fournit une image brute, mais notre cerveau sait l’interpréter. De façon similaire, les données encodant les images des caméras traditionnelles sont de très « bas niveau » : une caméra enregistre simplement une liste ordonnée de pixels qui correspondent à la quantité de lumière reçue sur un petit élément de surface photosensible du capteur, auquel s’ajoute potentiellement une information sur la couleur (longueur d’onde) — comme notre œil. Pour comparaison, une information de « haut niveau » simple et utilisable par un robot serait par exemple : « Il y a un objet blanc sur la table et il est situé à une distance de 100 millimètres en x et 20 millimètres en y du coin de la table. » Fournir ce type d’informations à un robot en temps réel est possible aujourd’hui avec les capacités de traitement des ordinateurs. Si on prend l’exemple des bras robotiques industriels, ils sont aujourd’hui vendus sans système de perception et ne peuvent attraper des objets qui si leurs positions et orientations ont été données au robot lors de la programmation. Pour être capable d’attraper des objets, quelle que soit la manière dont ils sont disposés, il faut donner la possibilité au robot de voir l’objet. C’est possible aujourd’hui grâce à des caméras « intelligentes », c’est-à-dire qui embarquent un ordinateur et des librairies de traitement d’images pour transmettre aux robots des informations directement exploitables. Ainsi équipé, le robot peut attraper un objet, mais, cette fois-ci, quelle que soit la manière dont il est disposé. Démonstration de prise de pièce localisée par la vision avec un robot industriel. Source : IUT de Mulhouse.  Permettre aux robots de voir en 3D Un autre défi pour les robots est de se déplacer dans un environnement changeant. Dans une foule par exemple, les humains estiment en permanence leurs déplacements et construisent une carte des alentours pour déterminer les zones libres et les zones occupées afin d’estimer une trajectoire menant à leur destination. Sur un robot, avec seulement une caméra monoculaire, faire de la localisation et cartographie simultanée est un problème très complexe. Et le résultat obtenu est un résultat approximatif car on a un problème d’« ambiguïté d’échelle », c’est-à-dire que les mouvements sont bien estimés, mais les distances sont justes à un facteur d’échelle près. Pour lever cette ambiguïté d’échelle, il faut du « multi-vues » — deux yeux dans notre cas, ou deux caméras. Intégrer deux yeux sur un robot est délicat car avec deux capteurs, il y a deux fois plus d’informations à traiter, à synchroniser et à calibrer pour obtenir la position précise d’une caméra par rapport à autre. Grâce à l’évolution des capteurs de vision, on peut aujourd’hui voir en 3D avec une seule caméra light-field. Ces caméras sont un peu spéciales : en utilisant une matrice de micro-objectifs située entre le capteur et l’objectif, elles captent l’intensité lumineuse d’une scène comme sur un appareil classique, mais aussi la direction d’arrivée des rayons lumineux. Ceci permet en particulier de retrouver la profondeur, donc la 3D, avec une…

Sur smartphone, la vogue du microlearning : que penser de ces formations ultra-courtes ?

Par Sarah Journée

Publié le 28 novembre 2024 Sur smartphone, la vogue du microlearning : que penser de ces formations ultra-courtes ? Emmanuel Burguete, Université de Haute-Alsace (UHA) et Régis Forgione, Université de Strasbourg En découpant les savoirs en petites unités de formation, ils deviendraient plus faciles à apprendre, notamment sur un smartphone. De quoi permettre à chacun de se former selon ses besoins partout où il le souhaite et à tout moment. Ainsi, de multiples entreprises ou structures de formation vantent les atouts du « microlearning ». Mais est-ce une démarche à adopter dans tous les cas ? Si vous avez déjà suivi des formations en ligne, comme celles sur smartphone dédiées à l’apprentissage des langues, vous avez probablement déjà croisé le terme de « microlearning ». De nombreuses applications l’utilisent comme un argument commercial pour vanter les atouts pédagogiques de parcours conçus autour d’un ensemble de sessions courtes, rendant plus flexible l’apprentissage. Cependant, au-delà de ces discours, les caractéristiques précises de ce qu’on appelle microlearning et ses effets réels sur les apprentissages restent flous. Explorons ce concept, en nous appuyant sur des études scientifiques, afin de comprendre son intérêt, les promesses qu’il véhicule, mais aussi ses limites.   Le microlearning : un concept récent, encore difficile à définir Selon le chercheur autrichien Theo Hug, le terme microlearning a émergé au début des années 2000, avec l’essor des technologies de l’information et de la communication. Progressivement, ce concept serait devenu « incontournable » pour les formateurs de l’industrie de la formation en ligne. Malgré cette popularité, le microlearning ne suscite encore qu’un intérêt limité de la part des chercheurs. Cela se reflète principalement dans le faible nombre de publications répertoriées dans des bases de données internationales. Néanmoins, des analyse approfondies des articles de recherche existants soulignent une efficacité avérée du microlearning du point de vue de la compréhension, de l’engagement, de la motivation et de la performance d’apprentissage. Les auteurs indiquent que le microlearning est souvent utilisé pour réduire la charge cognitive des apprenants avec une diffusion du contenu par petites touches ou « unités », « juste au bon moment » (« just in time ») ou encore « à la demande » (« on-demand resources »). Ils rajoutent que l’apprentissage sur des smartphones et des tablettes – encore appelé « mobile learning » – permet de se former à tout moment et en tout lieu. Et, enfin, que le « social learning » ou apprentissage social est aussi une façon de se former en microlearning à partir d’interactions souvent informelles entre pairs sur les réseaux sociaux. Bien que la vidéo soit le média le plus largement utilisé dans le cadre du microlearning, les infographies ou d’autres documents visuels sont aussi reconnus comme de puissants moyens d’apprentissage. Parmi les formats possibles, on peut citer l’envoi d’un simple SMS, des jeux sérieux, un système de GPS interactif, des exercices basés sur des quiz, etc. Par ailleurs, des activités en microlearning peuvent tout à fait s’intégrer et se rencontrer sans outil technologique, dans des situations scolaires quotidiennes d’enseignement, au primaire, dans le secondaire ou le supérieur. Néanmoins, le microlearning n’est pas la panacée et il ne faut pas déduire de ces études qu’il est efficace en toutes circonstances. Les situations où les résultats sont mitigés existent mais elles ne figurent généralement pas en grand nombre dans la littérature. C’est ce que l’on appelle le « biais de publication » où ce sont plutôt les résultats favorables qui apparaissent plutôt que les défavorables. Cet état de fait doit amener l’utilisateur à être vigilant quant aux arguments avancés par les concepteurs de formations. Pour cela, il est important de comprendre plus en détail ce que l’on entend par microlearning avec un point de vue éclairé par la recherche.   Des expériences éducatives perçues comme courtes La promesse de gain de temps est un des premiers arguments rencontrés lorsque l’on parle de microlearning. Cependant, la brièveté censée le caractériser apparaît rapidement comme une difficulté majeure lorsqu’on tente de la définir. Pour exemple, si vous vous posez la question de savoir si une minute est une durée courte ou longue, il est très probable que vous choisissiez la première proposition. Cependant, ce choix aurait pris une tout autre dimension si vous aviez eu l’un de vos doigts coincés dans une porte pendant cette même durée. De la sorte, dire qu’une formation en microlearning est courte parce qu’elle dure 1 minute, 2 minutes ou 5 minutes ne fait pas sens, puisque cela dépendra des besoins effectifs de l’apprenant et du contexte de la formation. Pour cette raison, Theo Hug faisait remarquer il y a déjà 20 ans que la durée d’une formation en microlearning pouvait largement varier de « moins d’une seconde à plus d’une heure ». Cela fait donc largement relativiser le « gain » de temps supposé du microlearning. En ce qui concerne une éventuelle garantie de meilleure acquisition de connaissances ou de compétences par le microlearning, un point de vigilance concerne la conception des formations. Pour cela, Carla Torgerson propose une nouvelle définition en excluant, comme le chercheur Theo Hug, toute notion précise de durée qui ne présente au final que peu de sens. Pour elle, le microlearning est avant tout une « expérience éducative qui est ciblée, courte et efficace ». Ainsi, toute « expérience éducative », qu’elle soit d’ordre formel, non formel ou informel, serait utile à l’apprenant, à condition qu’il ait validé sur un temps adapté des objectifs pédagogiques (cible de l’apprentissage) et donc acquis des connaissances ou des compétences (efficacité de l’apprentissage).   Le microlearning : un bon argument commercial ? Si le microlearning peut être considéré comme une stratégie efficace pour enseigner et pour apprendre, des précautions doivent être prises pour garantir son efficacité, notamment en ce qui concerne la conception des formations et la définition d’objectifs pédagogiques. En effet, sans une solide ingénierie pédagogique par les concepteurs pour structurer et planifier les formations, il est difficile, comme le souligne Carla Torgerson, d’affirmer qu’elles seront suffisamment ciblées pour être pédagogiquement efficaces et perçues comme courtes par l’apprenant. Face à toute formation se pose donc un certain nombre de questions pour l’apprenant : en quoi chaque unité de formation répond-elle à mes besoins ? Ai-je acquis de nouvelles compétences ou connaissances ? L’articulation…

L’anthropocène, un objet frontière qui signifie plus qu’une tranche de temps géologique

Par Sarah Journée

Publié le 28 octobre 2024 L’anthropocène, un objet frontière qui signifie plus qu’une tranche de temps géologique Luc Aquilina, Université de Rennes 1 – Université de Rennes; Catherine Jeandel, Centre national de la recherche scientifique (CNRS); Clément Poirier, Université de Caen Normandie; Clément Roques, Université de Neuchâtel; Jacques Grinevald, Graduate Institute – Institut de hautes études internationales et du développement (IHEID); Jan Zalasiewicz, University of Leicester; Jérôme Gaillardet, Institut de physique du globe de Paris (IPGP); Martin J. Head, Brock University; Michel Magny, Université Marie et Louis Pasteur (UMLP); Nathanaël Wallenhorst, Université de Haute-Alsace (UHA) et Simon Turner, UCL Même si le groupe de travail de la Commission internationale de stratigraphie a refusé la proposition de créer une nouvelle période géologique nommée anthropocène, le débat n’est pas clos pour autant. Le concept reste précieux pour décrire notre époque, et permet de fédérer des communautés scientifiques distinctes. Les géologues découpent l’histoire de la Terre en « tranches de temps » chronologiques qu’on appelle la « chronostratigraphie ». Depuis 20 ans, l’observation de l’impact des activités humaines sur le système Terre a conduit à penser que nous étions entrés dans une nouvelle époque géologique : l’anthropocène. La définition de cette dernière a fait l’objet d’un groupe de travail créé au sein de la Commission internationale de stratigraphie (CIS), l’instance qui décide de la chronologie géologique. La proposition du groupe de travail de créer une nouvelle époque à partir de 1952 a été refusée par la CIS le 5 mars 2024. Nous ne reprendrons pas ici le détail des arguments techniques sur lesquels se base ce refus. Ils ont été contrés un à un, par le groupe de travail sur l’anthropocène, puis par des chercheurs extérieurs – et cela à plusieurs reprises. Notre question est : le débat est-il clos ? La réponse que viennent d’apporter plus de 50 scientifiques dans la revue Nature est : non !   Un concept qui fédère les différentes communautés scientifiques Au-delà de la communauté stratigraphique, le concept d’anthropocène est reconnu par plusieurs communautés. Il est couramment repris par l’ensemble des scientifiques qui travaillent sur le « système Terre » (géologues, climatologues, hydrologues, écologues, pédologues…). Il est devenu un cadre très utilisé par les sciences humaines et sociales. Plus largement, le concept a dépassé la sphère des scientifiques pour se répandre dans les médias, le langage politique et territorial. C’est, enfin, un puissant ressort artistique. Surtout, pour ces nombreuses communautés, l’anthropocène est devenu un concept capital, agrégateur de sciences éloignées les unes des autres. C’est devenu une matrice pour penser le monde de façon renouvelée et pour envisager de nouvelles méthodes de faire de la science, de l’art et des politiques publiques. Malgré la décision de la CIS, l’anthropocène continuera donc à vivre au sein de ces communautés.   Des périodes régulièrement redéfinies Les unités de temps chronostratigraphiques (notamment les périodes subdivisées en époques) ont fait l’objet de nombreuses discussions par le passé. Récemment, les limites du Quaternaire ou de l’Holocène, nos périodes et époques actuelles, ont été modifiées sans que les unités en elles-mêmes soient remises en question. Ce sont des caractéristiques relativement homogènes qui vont déterminer ces unités de temps géologique. Pour les temps très anciens, à l’échelle de la centaine de millions d’années, ces caractéristiques sont connues à un niveau de détail relativement faible. Plus on s’approche de notre présent, plus on dispose de données : ces unités de temps deviennent beaucoup plus courtes. Elles sont également caractérisées par des paramètres plus précis. Ainsi l’Holocène – la période actuelle – se définit, entre autres, par une gamme étroite de températures et de compositions de l’atmosphère et de l’océan. Or, depuis la révolution industrielle et surtout depuis l’après-guerre, les températures, tout comme la composition de l’atmosphère, ont varié de façon extrêmement rapide. Nous sommes sortis des gammes de variation habituelles de ces paramètres durant l’Holocène, comme le montre la partie tout à droite sur le graphe ci-dessous. Au-delà de ces seuls marqueurs, les activités humaines sont à l’origine de l’apparition de nombreux polluants. Les plastiques, par exemple,ont fini par s’incorporer dans les sédiments qui se déposent au fond des lacs et des océans depuis quelques dizaines d’années. Les tests nucléaires ont augmenté la concentration d’éléments radioactifs dans l’atmosphère et dans l’enregistrement sédimentaire. Ce sont ces marqueurs radioactifs qui ont conduit à faire débuter l’anthropocène en 1952, l’année de la première explosion aérienne d’une bombe à hydrogène. Avant la proposition du groupe de travail à la CIS, la question de la date de début de l’anthropocène avait déjà fait l’objet de débats et de plusieurs propositions. En effet, on peut retracer les influences des activités humaines plus loin en arrière. Quand Paul Crutzen, prix Nobel de chimie a proposé l’idée d’anthropocène en 2000, il estimait que cette nouvelle époque pouvait être datée au début de l’industrialisation liée à l’utilisation du charbon, à la fin du XVIIIᵉ siècle. Si le groupe de travail sur l’anthropocène n’a pas retenu ces dates, c’est qu’il s’est attaché à caractériser le moment où les activités humaines ont fortement, dramatiquement et, pour partie, irrémédiablement transformé les conditions de l’habitabilité de notre planète.   L’anthropocène comme point de bascule Les dates précédemment évoquées sont des signes avant-coureurs d’une croissance exponentielle de notre impact, dont on retrouve les traces indubitables dans notre environnement et les enregistrements géologiques après la Seconde Guerre mondiale. Quel que soit le paramètre envisagé (composition de l’atmosphère, températures, cycle du carbone, impacts sur la biodiversité, modifications du cycle de l’eau, explosion de la production alimentaire et du tourisme, développement de la consommation de biens matériels…) l’évolution montre une rupture majeure à partir des années 1950, et des taux de progression actuels que rien ne semble pouvoir enrayer. Depuis 2007, on décrit ce demi-siècle comme celui de la « Grande Accélération ». En quelques dizaines d’années, les variations ont largement dépassé les fluctuations des derniers millénaires et plus encore, celles de toute l’époque de l’Holocène, qui a début il y a plus de 10 000 ans. Nombre de travaux scientifiques l’ont montré, ces progressions nous entraînent vers des conditions non durables. Nous sortons d’un contexte bioclimatique favorable à la vie humaine…

Quand la France produisait de l’antimoine, élément stratégique méconnu

Par Sarah Journée

Publié le 6 octobre 2024 Quand la France produisait de l’antimoine, élément stratégique méconnu Vincent Thiéry, IMT Nord Europe – Institut Mines-Télécom et Pierre-Christian Guiollard, Université de Haute-Alsace (UHA) Utilisé depuis l’Antiquité, l’antimoine est présent dans de nombreux objets de notre vie quotidienne. Alors que la Chine détient aujourd’hui le monopole de son extraction et s’apprête à limiter ses exportations, levons le voile sur un pan méconnu de l’histoire minière de la France : celle-ci fut, un temps, le premier producteur mondial d’antimoine. La récente décision de la Chine de limiter ses exportations d’antimoine, dont elle est le principal producteur mondial, repose une nouvelle fois la question de notre dépendance à ces métaux que nous n’exploitons plus sur notre territoire et que nous utilisons quotidiennement, parfois sans le savoir. Si la nouvelle ne vous a pas fait frémir, c’est sans doute que vous ignorez tout, comme la plupart des gens, de cet élément stratégique méconnu. Et pourtant, en son temps, la France fut un important producteur d’antimoine. Et même le premier producteur mondial, pendant quelques années… Mais alors, de quoi parle-t-on ? Cinquante-et-unième élément du tableau périodique, de symbole Sb, ce métalloïde (pnictogène) frappe par son nom original, dont l’étymologie est d’ailleurs controversée depuis le XVIIe siècle. La légende du moine Basile Valentin qui, voyant que ce minerai était bon pour les cochons, aurait empoisonné ses condisciples en leur en faisant ingérer a la vie dure… Mais le terme pourrait plutôt venir de l’arabe atemed ou encore du grec anti-monos, signifiant que cet élément est rarement seul dans la nature, puisqu’on le trouve essentiellement sous forme de sulfures ou d’oxydes.   Vomitif, purgatif et fard à paupières L’usage de antimoine date de l’Antiquité. Dans le pourtour méditerranéen, on l’utilisait traditionnellement comme fard à paupières, nommé « khôl ». Son incorporation dans les objets d’art est également attestée par l’étude d’un fragment de vase de Tello en Chaldée (actuellement Girsu, Irak) par le chimiste Marcelin Berthelot (1886). Par ailleurs, la médecine intègre l’antimoine à différentes préparations depuis des temps immémoriaux. Les banquets romains de l’antiquité l’utilisaient déjà comme vomitif au cours des banquets. Louis XIV fut guéri du typhus à 20 ans, sur les conseils de Mazarin, par un émétique (vomitif) à base d’antimoine – ironie du sort, ce même Mazarin mourut intoxiqué par des préparations médicales antimoniées… Les vertus purgatives de l’antimoine, tant comme vomitif que purgatif, ont donné lieu à un usage fréquent de cet élément dans différentes préparations. Telles que les « pilules perpétuelles » destinées à être ingurgitées puis éliminées par les voies naturelles pour être réutilisées après nettoyage. De nos jours, l’antimoine est par exemple utilisé dans le traitement de la leishmaniose, maladie chronique parasitaire provoquant des affections cutanées ou viscérales. Mais on retrouve aussi l’antimoine comme retardateur de flamme dans les matériaux combustibles (textiles, caoutchoucs synthétiques, peintures, plastiques de pare-chocs…).   De l’imprimerie aux shrapnels On le retrouve également dans de nombreux alliages métalliques. Après l’invention par Gutenberg de l’imprimerie moderne vers 1454, il prend son essor comme durcisseur du plomb dans les caractères d’imprimerie, où sa teneur atteint jusqu’à 30 % – en France, Le Démocrate, dans l’Aisne, est le dernier journal imprimé au plomb typographique. La teneur en antimoine dans les alliages à base de plomb varie de 5 à 6 % (batteries) à plus de 10 % (tôles, câbles, plombs de chasse). Son usage important dans des obus à balles (« Schrapnels », ou projectiles à fragmentation) au cours de la Première Guerre mondiale contribua à l’essor de son exploitation et à son caractère stratégique. Sous forme de pentasulfure, on le retrouve aussi comme lubrifiant dans les parties mobiles des automobiles. Certains semi-conducteurs, également, en incorporent. En chimie, enfin, les sulfures d’antimoine vulcanisent le caoutchouc, ce qui le colore en rouge. Il joue aussi un rôle de catalyseur dans la fabrication des polyéthylènes téréphtalates (PET). Enfin, le tartrate de potassium et d’antimoine (« tartre émétique ») est un pesticide utilisé dans le traitement des agrumes. Pour finir, l’aspect blanchissant de l’oxyde d’antimoine est mis à profit depuis longtemps dans les peintures.   Les plus grands gisements sont aujourd’hui en Chine Tout comme la majorité des ressources minérales, l’antimoine est réparti de manière inégale à la surface terrestre. Sa teneur moyenne est de l’ordre de 0,2 ppm à l’échelle de la croûte continentale, avec des variations notables entre par exemple certains basaltes qui en contiennent environ 10 ppm, alors que la majorité des autres roches en présentent des concentrations de l’ordre du ppm. Ainsi, différents processus géologiques (hydrothermalisme, magmatisme…) ont conduit à sa reconcentration en des sites bien spécifiques, en particulier sous forme de filons. À l’échelle mondiale, les gisements les plus importants sont situés en Chine, notamment au sein de la province du Hunan. La ville de Xikuangshan, où se situe la mine du même nom, est connue comme « capitale mondiale de l’antimoine ». Les réserves s’y chiffrent en centaines de milliers de tonnes d’antimoine métal. Notons parmi les autres pays exploitant encore l’antimoine de nos jours, la Bolivie et la Russie.   La France, l’autre pays de l’antimoine De par sa riche géologie, la France fut aussi un important producteur d’antimoine, et même le premier mondial (30 à 50 % de la production planétaire) entre 1888 et 1914 grâce aux gisements corses de 1888 à 1898 puis au gisement de La Lucette entre 1899 et 1914. Parmi les zones productrices, le district de Brioude-Massiac en Auvergne, au sein duquel les Romains extrayaient déjà du plomb et de l’argent, fut également majeur pour l’antimoine. Un texte historique nous le décrit ainsi : « Ces mines sont situées dans le plus affreux pays de la haute Auvergne […] le chemin qui conduit à Mercoyre (aujourd’hui Mercœur, NDLR), est si rude et si difficile, qu’il n’y a que les mulets du pays qui puissent y passer, encore faut-il plus de dix heures pour y arriver. On sent de loin l’odeur de soufre qui s’exhale des fours où on fait fondre la mine d’antimoine, et les feuilles des broussailles qui sont aux environs en paraissent endommagées. » À proximité de Massiac (15), l’ancienne mine d’Ouche détient à…