Mois : janvier 2025

Pourquoi si peu de transparence concernant les pesticides ?

Par Sarah Journée

Publié le 29 janvier 2025 Pourquoi si peu de transparence concernant les pesticides ? Elisabeth Lambert, Nantes Université; Karine Favro, Université de Haute-Alsace (UHA) et Quentin Chancé, Centre national de la recherche scientifique (CNRS) La moitié des fruits cultivés en France comporte au moins un pesticide potentiellement dangereux. Derrière les enjeux de transparence sur ces produits et leur utilisation, on retrouve des obstacles de nature légale, administrative, technique et sociale. Des voies d’amélioration sont toutefois possibles, du champ jusqu’à l’assiette, pour le riverain d’exploitation agricole comme pour le consommateur. La moitié des fruits et le quart des légumes cultivés en France conservent, lorsqu’ils sont consommés, au moins un pesticide cancérigène, ou bien susceptible de provoquer des mutations de l’ADN, ou encore d’affecter la reproduction. Une réalité qui préoccupe, d’où la demande de plus de transparence. Pourquoi est-ce important ? Tout d’abord, car la transparence permet de garantir la responsabilité des acteurs en cas d’atteintes à la santé et à l’environnement ; ensuite, car elle favorise la confiance du public à l’égard des autorités régulatrices et des entreprises agricoles en démontrant leur engagement envers la sécurité et la durabilité. Enfin, la transparence facilite la surveillance et l’évaluation des risques, en permettant aux chercheurs et aux experts de disposer de données fiables et accessibles pour étudier leurs effets à long terme. Mais entre la théorie et la pratique, on trouve un monde, des obstacles de nature légale, administrative, informatique, ainsi que des barrières techniques, politiques et sociétales, et des questionnements sur la façon de rendre une information pertinente et claire. Malgré tout cela, plus de transparence est encore possible, et ce, du champ jusqu’à l’assiette, pour le riverain d’exploitation agricole comme pour le consommateur. Voici comment.   Informer le grand public des usages des pesticides Les questionnements autour des pesticides débutent souvent lors de leur épandage par un agriculteur. Aujourd’hui, le partage des informations disponibles à ce sujet reste très laborieux : lors d’une commission d’enquête sur les « plans successifs de maîtrise des impacts des produits phytosanitaires sur la santé humaine et environnementale » en 2023, le député PS Dominique Potier qualifiait la recherche d’information d’« ubuesque ». Les limites sont ici avant tout réglementaires et techniques. En effet, les agriculteurs doivent répertorier, depuis 2009, leurs usages de pesticides (produits, quantités, sites d’épandage) dans des « cahiers de culture », mais ces derniers ne sont accessibles et mobilisables par les pouvoirs publics qu’en cas de contrôle (5 % à 7 % des fermes par an). Le 14 janvier 2025, le premier ministre souhaitait malgré tout voir réduire ce nombre. Un Règlement européen d’exécution du 10 mars 2023 pourrait cependant aider à plus de transparence, puisqu’il imposera l’obligation, en 2026, de numériser et harmoniser ces registres afin de faciliter la connaissance scientifique en matière de santé environnementale. Cette question de l’harmonisation est loin d’être anodine, car, en pratique, les filières agricoles disposent déjà de registres d’usage de pesticides via les systèmes de traçabilité internes des coopératives, des groupements industriels et de producteurs, lesquels rassemblent le contenu des cahiers de cultures. Mais détenues par de multiples acteurs via des logiciels différents, ces bases de données ne sont pas « informatiquement » compatibles entre elles. Un travail technique de mise en équivalence doit donc être réalisé si l’on veut les réunir et former une base de données publique. Ce virage n’est toutefois pas impossible, comme l’ont montré les pouvoirs publics danois et slovaques, qui ont permis aux agriculteurs de rentrer leurs données en ligne sur une plate-forme gratuite gérée par l’État, sans avoir à débourser d’argent pour exploiter un logiciel privé ; cela faciliterait la collecte publique de ces informations, sans opérer de contrôle sur place, et leur traitement. Ce changement pourrait également rendre les agriculteurs sereins, avec des contrôles qui pourraient, dès lors, être plus transparents, se faisant au fil de l’eau par collecte des données numériques. En outre, depuis 2022, les données relatives aux pesticides, sont entrées dans le Régime européen spécifique pour les données d’intérêt général (RGPD, qu’on nomme « régime de l’altruisme »), ce qui pourrait également en accélérer la mise à disposition pour tous les publics concernés et enlever les feins liés à la disponibilité des données. Mais qu’en est-il des informations sur les moments et lieux précis d’épandage des pesticides ?   L’information des riverains sur les épandages de pesticides Actuellement, une des populations les plus demandeuses de transparence restent les riverains, soucieux de leur santé. Si, sur le plan médiatique, les personnes qui s’inquiétent de ces questions sont souvent perçues comme des militants politiques, le père d’un enfant gravement malade, vivant dans la région de La Rochelle, où l’on soupçonne un cluster de cancers pédiatriques lié à l’épandage des pesticides, résumait ainsi son engagement initial : « On n’était pas des militants actifs, mais des parents d’élève. » Informer les riverains leur donnerait la possibilité de se protéger en partie des retombées des épandages. Mais, ici aussi, avoir des informations claires et précises à l’échelle des parcelles reste laborieux. Tenter de modifier cela, s’est d’ailleurs transformé en un feuilleton normatif et judiciaire qui dure depuis cinq ans. Certains territoires (comme le Limousin pour la pomme, et l’Isère pour la noix) avaient à l’époque commencé à mettre en œuvre des initiatives concertées d’information des riverains, par SMS ou par l’intermédiaire d’applications numériques, la veille des traitements. Mais l’obligation faite par l’État en 2019 d’utiliser des chartes réglementaires (des textes obligatoires listant les engagements des applicateurs de pesticides et rappelant les enjeux liés aux épandages), pour fournir ces informations, a provoqué une crispation des agriculteurs et un recul de pratiques initiées localement et/ou par filières. Après cela, les chartes élaborées de 2020 à 2023 n’ont exigé qu’une nécessité d’information au moment de l’épandage (souvent par allumage du gyrophare du tracteur au moment du traitement et via par exemple l’affichage des calendriers de traitements prévisibles sur les sites des chambres d’agriculture). Mais ces chartes ont été considérées comme contraires à la réglementation en janvier par le tribunal administratif d’Orléans, puis, en novembre 2024, par la cour administrative d’appel de Versailles, au motif que l’information n’est pas préalable au traitement et pas suffisamment individualisée,…

Comment les robots perçoivent-ils le monde ?

Par Sarah Journée

Publié le 13 janvier 2025 Comment les robots perçoivent-ils le monde ? Stéphane Bazeille, Université de Haute-Alsace (UHA) Pour percevoir son environnement, il faut non seulement pouvoir le capter, mais aussi interpréter les données de façon judicieuse — ceci reste un défi pour les robots. Les robots destinés au grand public sont de plus en plus présents dans notre quotidien, mais ils restent aujourd’hui assez proches de plates-formes à roues ou volantes (aspirateurs, tondeuses, drones par exemple). L’industrie est équipée de bras spécialisés, pour l’assemblage et la manutention. Ces robots industriels et du quotidien ont un point commun : ils disposent de peu de capteurs leur permettant de percevoir le monde. Ceci les rend plus simples à gérer, mais limite grandement leurs capacités. On observe néanmoins depuis quelques années l’émergence de robots beaucoup plus complexes. Les robots humanoïdes, comme ceux de Boston Dynamics ou plus récemment Tesla, en sont les exemples les plus frappants. Ces robots plus perfectionnés restent aujourd’hui des robots de recherche : ils peuvent faire beaucoup plus de choses, mais leur programmation nécessite beaucoup plus de capteurs, comme c’est le cas d’Atlas, le robot de Boston Dynamics, sur cette vidéo. Atlas, le robot de Boston Dynamics, sait utiliser ses mains de façon autonome. Source : Boston Dynamics.   Si leurs capacités mécaniques sont de plus en plus spectaculaires, la difficulté principale aujourd’hui est de donner aux robots des capacités de perception pour pouvoir interagir facilement avec leur environnement. En effet, c’est bien notre perception de l’environnement qui nous permet, à nous, humains, de reconnaître et de localiser des objets pour les attraper, d’estimer leurs trajectoires pour anticiper leurs positions, de nous déplacer d’un point à un autre en évitant les obstacles par exemple. La perception peut aujourd’hui être basée sur différents capteurs qui mesurent différentes grandeurs physiques telles que le flux lumineux, la distance, les accélérations ou les rotations. Chez les humains, l’oreille interne perçoit la position et l’orientation de la tête et permet de se maintenir en équilibre, tandis que les drones ou les robots humanoïdes maintiennent leur équilibre en mesurant les accélérations et vitesses de rotation de leur corps, mesurées à très haute fréquence grâce à une centrale inertielle. Les aspirateurs quant à eux évitent les obstacles grâce à des capteurs de distance qui leur permettent de construire des cartes de leur environnement. Toutes ces tâches (équilibre, localisation, analyse de l’environnement) sont primordiales pour améliorer l’autonomie des robots, mais équiper un robot d’un système de perception est un travail considérable : il faut acquérir les données, les traiter, et prendre une décision sur le comportement du robot en fonction de ces informations.   Des yeux au cerveau, des caméras à l’ordinateur embarqué Chaque capteur restitue à l’ordinateur embarqué une information de plus ou moins « haut niveau », c’est-à-dire nécessitant plus ou moins de traitement par la suite pour en extraire du sens. Les capteurs les plus riches, mais aussi les plus complexes à utiliser, sont ceux développés pour la vision. L’homme a un système visuel très développé et entraîné depuis la petite enfance pour reconnaître, localiser, mesurer, estimer les mouvements : notre œil fournit une image brute, mais notre cerveau sait l’interpréter. De façon similaire, les données encodant les images des caméras traditionnelles sont de très « bas niveau » : une caméra enregistre simplement une liste ordonnée de pixels qui correspondent à la quantité de lumière reçue sur un petit élément de surface photosensible du capteur, auquel s’ajoute potentiellement une information sur la couleur (longueur d’onde) — comme notre œil. Pour comparaison, une information de « haut niveau » simple et utilisable par un robot serait par exemple : « Il y a un objet blanc sur la table et il est situé à une distance de 100 millimètres en x et 20 millimètres en y du coin de la table. » Fournir ce type d’informations à un robot en temps réel est possible aujourd’hui avec les capacités de traitement des ordinateurs. Si on prend l’exemple des bras robotiques industriels, ils sont aujourd’hui vendus sans système de perception et ne peuvent attraper des objets qui si leurs positions et orientations ont été données au robot lors de la programmation. Pour être capable d’attraper des objets, quelle que soit la manière dont ils sont disposés, il faut donner la possibilité au robot de voir l’objet. C’est possible aujourd’hui grâce à des caméras « intelligentes », c’est-à-dire qui embarquent un ordinateur et des librairies de traitement d’images pour transmettre aux robots des informations directement exploitables. Ainsi équipé, le robot peut attraper un objet, mais, cette fois-ci, quelle que soit la manière dont il est disposé. Démonstration de prise de pièce localisée par la vision avec un robot industriel. Source : IUT de Mulhouse.  Permettre aux robots de voir en 3D Un autre défi pour les robots est de se déplacer dans un environnement changeant. Dans une foule par exemple, les humains estiment en permanence leurs déplacements et construisent une carte des alentours pour déterminer les zones libres et les zones occupées afin d’estimer une trajectoire menant à leur destination. Sur un robot, avec seulement une caméra monoculaire, faire de la localisation et cartographie simultanée est un problème très complexe. Et le résultat obtenu est un résultat approximatif car on a un problème d’« ambiguïté d’échelle », c’est-à-dire que les mouvements sont bien estimés, mais les distances sont justes à un facteur d’échelle près. Pour lever cette ambiguïté d’échelle, il faut du « multi-vues » — deux yeux dans notre cas, ou deux caméras. Intégrer deux yeux sur un robot est délicat car avec deux capteurs, il y a deux fois plus d’informations à traiter, à synchroniser et à calibrer pour obtenir la position précise d’une caméra par rapport à autre. Grâce à l’évolution des capteurs de vision, on peut aujourd’hui voir en 3D avec une seule caméra light-field. Ces caméras sont un peu spéciales : en utilisant une matrice de micro-objectifs située entre le capteur et l’objectif, elles captent l’intensité lumineuse d’une scène comme sur un appareil classique, mais aussi la direction d’arrivée des rayons lumineux. Ceci permet en particulier de retrouver la profondeur, donc la 3D, avec une…