Étiquette : Numérique

Cycle de conférence Sciences et Société de l’UP – Comment les robots perçoivent-ils le monde ?

Par Sarah Journée

Conférence Numérique, Sociétés Cycle de conférences Sciences et Société de l’UP Comment les robots perçoivent-ils le monde ? Pour percevoir son environnement, il faut non seulement pouvoir le capter, mais aussi interpréter les données de façon judicieuse — ceci reste un défi pour les robots. Les robots destinés au grand public sont de plus en plus présents dans notre quotidien, mais ils restent aujourd’hui assez proches de plates-formes à roues ou volantes (aspirateurs, tondeuses, drones par exemple). L’industrie est équipée de bras spécialisés, pour l’assemblage et la manutention. Ces robots industriels et du quotidien ont un point commun : ils disposent de peu de capteurs leur permettant de percevoir le monde. Ceci les rend plus simples à gérer, mais limite grandement leurs capacités. On observe néanmoins depuis quelques années l’émergence de robots beaucoup plus complexes. Les robots humanoïdes, comme ceux de Boston Dynamics ou plus récemment Tesla, en sont les exemples les plus frappants. Ces robots plus perfectionnés restent aujourd’hui des robots de recherche : ils peuvent faire beaucoup plus de choses, mais leur programmation est beaucoup plus complexe. Dans cette conférence Stéphane Bazeille présentera ce que sont les robots, ce qu’est la perception pour les robots, et le panorama des capteurs existants aujourd’hui. Il poursuivra par une présentation des manières dont les robots traitent les données capteurs et donc comment ils perçoivent le monde. D’une part dans le cas des robots industriels et également dans le cas des voitures autonomes. Il conclura enfin cette intervention en parlant de l’influence de l’IA sur l’évolution de ces travaux scientifiques. L’intervenant : Stéphane Bazeille est maître de conférence et enseignant-chercheur en génie informatique et traitement du signal à l’Institut de Recherche en Informatique, Mathématiques, Automatique et Signal (IRIMAS) de l’Université de Haute-Alsace. Il a également écrit un article The Conversation sur le sujet à lire ici : Tous |Article |Non classé |Podcast |Question |Recherche participative |Vidéo Comment les robots perçoivent-ils le monde ? Informations pratiques 11 juin 2026 18H30 – 20H Tout public Entrée gratuite Université Populaire du Rhin, salle de conférence de la Cour des Chaînes, 13 rue des Franciscains, Mulhouse Nous retrouver sur : Facebook Instagram Linkedin Youtube UP du Rhin « Tous les Évènements

Cycle de conférence Sciences et Société de l’UP – L’Intelligence Artificielle : la réalité au-delà du mythe

Par Sarah Journée

Conférence Numérique, Sociétés Cycle de conférences Sciences et Société de l’UP L’Intelligence Artificielle : la réalité au-delà du mythe Plongez au cœur de l’intelligence artificielle et démêlez le vrai du faux ! Durant cette conférence, nous retracerons l’histoire de l’IA, expliquerons son véritable fonctionnement et dévoilerons ce qu’elle est… et ce qu’elle n’est pas ! Loin des fantasmes, venez découvrir les principes concrets qui animent l’IA, ses limites actuelles et son impact réel sur nos vies. Une occasion unique de comprendre enfin ce qui se cache derrière le mythe.   L’intervenant : Jonathan Weber est professeur des universités en informatique à l’ENSISA et chercheur à l’Institut de Recherche en Informatique, Mathématiques, Automatique et Signal (IRIMAS) de l’Université de Haute-Alsace. Informations pratiques 12 février 2026 18H30 – 20H Tout public Entrée gratuite Université Populaire du Rhin, salle de conférence de la Cour des Chaînes, 13 rue des Franciscains, Mulhouse Ajouter au calendrier Google Agenda iCalendar Outlook 365 Outlook Live Nous retrouver sur : Facebook Instagram Linkedin Youtube UP du Rhin « Tous les Évènements

Comment les robots perçoivent-ils le monde ?

Par Sarah Journée

Publié le 13 janvier 2025 Comment les robots perçoivent-ils le monde ? Stéphane Bazeille, Université de Haute-Alsace (UHA) Pour percevoir son environnement, il faut non seulement pouvoir le capter, mais aussi interpréter les données de façon judicieuse — ceci reste un défi pour les robots. Les robots destinés au grand public sont de plus en plus présents dans notre quotidien, mais ils restent aujourd’hui assez proches de plates-formes à roues ou volantes (aspirateurs, tondeuses, drones par exemple). L’industrie est équipée de bras spécialisés, pour l’assemblage et la manutention. Ces robots industriels et du quotidien ont un point commun : ils disposent de peu de capteurs leur permettant de percevoir le monde. Ceci les rend plus simples à gérer, mais limite grandement leurs capacités. On observe néanmoins depuis quelques années l’émergence de robots beaucoup plus complexes. Les robots humanoïdes, comme ceux de Boston Dynamics ou plus récemment Tesla, en sont les exemples les plus frappants. Ces robots plus perfectionnés restent aujourd’hui des robots de recherche : ils peuvent faire beaucoup plus de choses, mais leur programmation nécessite beaucoup plus de capteurs, comme c’est le cas d’Atlas, le robot de Boston Dynamics, sur cette vidéo. Atlas, le robot de Boston Dynamics, sait utiliser ses mains de façon autonome. Source : Boston Dynamics.   Si leurs capacités mécaniques sont de plus en plus spectaculaires, la difficulté principale aujourd’hui est de donner aux robots des capacités de perception pour pouvoir interagir facilement avec leur environnement. En effet, c’est bien notre perception de l’environnement qui nous permet, à nous, humains, de reconnaître et de localiser des objets pour les attraper, d’estimer leurs trajectoires pour anticiper leurs positions, de nous déplacer d’un point à un autre en évitant les obstacles par exemple. La perception peut aujourd’hui être basée sur différents capteurs qui mesurent différentes grandeurs physiques telles que le flux lumineux, la distance, les accélérations ou les rotations. Chez les humains, l’oreille interne perçoit la position et l’orientation de la tête et permet de se maintenir en équilibre, tandis que les drones ou les robots humanoïdes maintiennent leur équilibre en mesurant les accélérations et vitesses de rotation de leur corps, mesurées à très haute fréquence grâce à une centrale inertielle. Les aspirateurs quant à eux évitent les obstacles grâce à des capteurs de distance qui leur permettent de construire des cartes de leur environnement. Toutes ces tâches (équilibre, localisation, analyse de l’environnement) sont primordiales pour améliorer l’autonomie des robots, mais équiper un robot d’un système de perception est un travail considérable : il faut acquérir les données, les traiter, et prendre une décision sur le comportement du robot en fonction de ces informations.   Des yeux au cerveau, des caméras à l’ordinateur embarqué Chaque capteur restitue à l’ordinateur embarqué une information de plus ou moins « haut niveau », c’est-à-dire nécessitant plus ou moins de traitement par la suite pour en extraire du sens. Les capteurs les plus riches, mais aussi les plus complexes à utiliser, sont ceux développés pour la vision. L’homme a un système visuel très développé et entraîné depuis la petite enfance pour reconnaître, localiser, mesurer, estimer les mouvements : notre œil fournit une image brute, mais notre cerveau sait l’interpréter. De façon similaire, les données encodant les images des caméras traditionnelles sont de très « bas niveau » : une caméra enregistre simplement une liste ordonnée de pixels qui correspondent à la quantité de lumière reçue sur un petit élément de surface photosensible du capteur, auquel s’ajoute potentiellement une information sur la couleur (longueur d’onde) — comme notre œil. Pour comparaison, une information de « haut niveau » simple et utilisable par un robot serait par exemple : « Il y a un objet blanc sur la table et il est situé à une distance de 100 millimètres en x et 20 millimètres en y du coin de la table. » Fournir ce type d’informations à un robot en temps réel est possible aujourd’hui avec les capacités de traitement des ordinateurs. Si on prend l’exemple des bras robotiques industriels, ils sont aujourd’hui vendus sans système de perception et ne peuvent attraper des objets qui si leurs positions et orientations ont été données au robot lors de la programmation. Pour être capable d’attraper des objets, quelle que soit la manière dont ils sont disposés, il faut donner la possibilité au robot de voir l’objet. C’est possible aujourd’hui grâce à des caméras « intelligentes », c’est-à-dire qui embarquent un ordinateur et des librairies de traitement d’images pour transmettre aux robots des informations directement exploitables. Ainsi équipé, le robot peut attraper un objet, mais, cette fois-ci, quelle que soit la manière dont il est disposé. Démonstration de prise de pièce localisée par la vision avec un robot industriel. Source : IUT de Mulhouse.  Permettre aux robots de voir en 3D Un autre défi pour les robots est de se déplacer dans un environnement changeant. Dans une foule par exemple, les humains estiment en permanence leurs déplacements et construisent une carte des alentours pour déterminer les zones libres et les zones occupées afin d’estimer une trajectoire menant à leur destination. Sur un robot, avec seulement une caméra monoculaire, faire de la localisation et cartographie simultanée est un problème très complexe. Et le résultat obtenu est un résultat approximatif car on a un problème d’« ambiguïté d’échelle », c’est-à-dire que les mouvements sont bien estimés, mais les distances sont justes à un facteur d’échelle près. Pour lever cette ambiguïté d’échelle, il faut du « multi-vues » — deux yeux dans notre cas, ou deux caméras. Intégrer deux yeux sur un robot est délicat car avec deux capteurs, il y a deux fois plus d’informations à traiter, à synchroniser et à calibrer pour obtenir la position précise d’une caméra par rapport à autre. Grâce à l’évolution des capteurs de vision, on peut aujourd’hui voir en 3D avec une seule caméra light-field. Ces caméras sont un peu spéciales : en utilisant une matrice de micro-objectifs située entre le capteur et l’objectif, elles captent l’intensité lumineuse d’une scène comme sur un appareil classique, mais aussi la direction d’arrivée des rayons lumineux. Ceci permet en particulier de retrouver la profondeur, donc la 3D, avec une…

Retour sur la journée « Filles, Maths et informatique »

Par Sarah Journée

Publié le 2 octobre 2023 Retour sur la journée « Filles, Maths et informatique » La journée « Filles, maths et informatique » est l’une des journées phares portées par la Faculté des Sciences et Techniques (FST). Pensée pour les jeunes filles de lycée, l’idée est de déconstruire les stéréotypes qui empêchent les filles d’accéder aux filières scientifiques, notamment celles des mathématiques et de l’informatique. Rencontrez dans cette vidéo les intervenant·es et les participantes de l’édition 2023 pour un retour sur cette journée riche en échanges. https://youtu.be/fmYu8bEJ1Bs?si=s4C7e6jfAFkTu20C Sur le même thème Tous |Article |Non classé |Podcast |Question |Recherche participative |Vidéo Portraits de femmes de sciences : Corinne Jung, chercheuse au LPMT 13 mars 2024/ Publié le 13 mars 2024 Portraits de femmes de sciences : Corinne Jung, chercheuse au LPMT Rencontrez dans cette vidéo… Vidéo Portraits de femmes de sciences : Karine Anselme – Directrice de recherche au CNRS 22 mars 2024/ Publié le 22 mars 2024 Portraits de femmes de sciences : Karine Anselme – Directrice de recherche au CNRS Rencontrez… Vidéo Portraits de femmes de sciences : Anne-Sophie Schuller – Maître de conférences à l’UHA – ENSCMu 28 mars 2024/ Publié le 28 mars 2024 Portraits de femmes de sciences : Anne-Sophie Schuller – Maître de conférences à l’UHA –… Vidéo

Vers un microscope optique universel « tout-en-un » ?

Par Sarah Journée

Publié le 5 avril 2023 Vers un microscope optique universel « tout-en-un » ? Olivier Haeberlé, Université de Haute-Alsace (UHA); Matthieu Debailleul, Université de Haute-Alsace (UHA) et Nicolas Verrier, Université de Haute-Alsace (UHA) Le microscope optique est un outil clé de la recherche depuis le XVIe siècle, qui a permis d’innombrables découvertes en biologie (comme l’existence des cellules ou l’identification des premiers microbes). D’abord très rudimentaire, cet instrument a donné lieu à une intense émulation pour le perfectionner, et on cherche toujours encore à en améliorer les performances. Une technique suscite actuellement un intérêt croissant, la « microscopie tomographique diffractive », sur laquelle nous travaillons, et qui pourrait mener au développement d’un outil « tout-en-un », permettant même de visualiser directement en 3D des spécimens microscopiques. En termes de résolution, c’est-à-dire la capacité à distinguer de très petits détails, le microscope atteint un plafond dès la fin du XIXe siècle. C’est une surprise pour les fabricants de microscopes, bloqués dans leurs développements. Ernst Abbe y apportera une explication éclatante, avec sa loi définissant la résolution : En histoire des sciences, c’est un cas intéressant où la technologie a atteint les limites théoriques d’un système, avant même que celles-ci ne soient clairement établies par la physique. Chaque technique de microscopie présente ses limites Ceci explique que les recherches ont alors plutôt visé à corriger les défauts ou optimiser certains paramètres, par exemple supprimer les distorsions dans les images, agrandir le champ de vue, et surtout, augmenter le contraste. La technique la plus simple est l’utilisation de colorants, mais ceux-ci sont toxiques pour les spécimens biologiques, interdisant les études sur le vivant. La microscopie de fluorescence, au succès extraordinaire, est un cas à part, et ses spécificités ont même permis la réalisation de nanoscopes optiques à la résolution inégalée, qui permettent de visualiser l’architecture des cellules jusqu’à l’échelle moléculaire. Mais cette technique présente aussi des limites (obligation de marquage, phototoxicité induite). Ainsi, de nombreuses techniques pour visualiser, sans marquage, des spécimens translucides ont aussi été inventées, une des plus efficaces et esthétiques visuellement étant la microscopie à contraste de phase différentiel, qui fait apparaître des pseudo-reliefs, c’est-à-dire que les niveaux de gris visibles sont interprétés par le cerveau comme un relief, alors que le spécimen ne présente en fait pas de relief topographique. Ces différentes techniques se caractérisent par une certaine maîtrise des conditions d’illumination et/ou de détection de la lumière interagissant avec le spécimen. Elles sont parfaitement adaptées pour, par exemple, détecter la présence de bactéries dans l’eau, effectuer des mesures morphologiques, ou observer l’évolution temporelle de phénomènes comme la division cellulaire. Mais les images obtenues souffrent de restrictions qui en limitent encore l’exploitation : la résolution reste limitée à environ 200 nanomètres en pratique. Si la nanoscopie optique 3D est une réalité en fluorescence, sans marquage, elle représente toujours un rêve pour l’utilisateur, et un défi pour le physicien ; les contrastes observés restent qualitatifs, et ne peuvent être reliés à des grandeurs physiques autres que dimensionnelles. C’est une des grosses limitations de ces techniques qui enregistrent des images en intensité uniquement : on peut par exemple facilement mesurer des tailles, ou observer des changements de formes, qui sont des données dimensionnelles, mais les niveaux d’intensité observés ne sont pas directement reliés aux propriétés physiques du spécimen observé.   La microscopie tomographique diffractive pour des images en 3D Emil Wolf a proposé dès 1969 une approche pour dépasser ces limites : lorsqu’une onde plane monochromatique, comme produite par un laser, interagit avec un objet faiblement diffractant/absorbant, mesurer précisément et complètement l’onde résultante de l’interaction de l’illumination avec l’objet observé permet alors de calculer la distribution des indices optiques dans cet objet, c’est-à-dire calculer ses propriétés optiques (l’indice de réfraction et l’absorption), qui sont justement celles perdues dans les microscopes classiques. Cet article fondamental en imagerie optique est longtemps resté inexploité. On le comprend aisément avec les limitations techniques de l’époque : les lasers pour créer l’onde plane monochromatique illuminant le spécimen sont à peine développés, mais surtout, les capteurs numériques pour enregistrer les images n’existent pas, et les ordinateurs sont incapables, en quantité de mémoire comme en vitesse d’exécution, de traiter les données nécessaires au calcul des images en 3D. Après quelques premiers essais fructueux dans les années 1980-1990, le domaine a été relancé dans les années 2000, en grande partie via un article de Vincent Lauer, qui avait montré que des lasers abordables, des caméras performantes, et des ordinateurs courants enfin à même d’effectuer directement les reconstructions 3D, rendaient ce type d’imagerie abordable. La microscopie tomographique diffractive (aussi connue comme tomographie de phase, microscopie à synthèse d’ouverture, tomographie optique en diffraction…) a alors connu un regain d’intérêt spectaculaire, et est même maintenant disponible commercialement. Son principe général est relativement simple, et proche de celui des scanners (computerised tomography ou CT scan) en imagerie médicale : pour une illumination du spécimen, on enregistre l’amplitude et la phase de l’onde diffractée. Ceci se fait maintenant facilement par des techniques d’holographie numérique. L’hologramme enregistré contient une partie, mais une petite partie seulement, de l’information nécessaire pour recalculer en 3D l’objet observé. Il faut alors multiplier les mesures, puis les fusionner numériquement afin d’augmenter l’information 3D acquise et améliorer l’image finale. Pour varier l’information acquise par chaque hologramme, on change les conditions d’illumination, et on répète le processus. Avec un grand nombre d’illuminations, on accumule l’information pour obtenir un ensemble de mesures bien plus étendu et complet qu’en microscopie holographique avec une seule illumination. Cette étape est dite de synthèse d’ouverture, analogue à la synthèse d’ouverture utilisée en imagerie radar. Avec une caméra scientifique standard, l’acquisition des données dure d’une à quelques secondes selon la précision finale demandée (pour quelques dizaines à plusieurs centaines d’hologrammes). Au final, on obtient même deux images de l’objet, en réfraction (la capacité de cet objet à courber les rayons lumineux) et en absorption (la capacité de cet objet à absorber la lumière). Dans les microscopes optiques classiques, l’image obtenue est en fait un mélange de ces deux quantités. Les spécificités de ces images de microscopie tomographique diffractive sont une meilleure résolution, environ 100 nm,…

Projet de prothèse de main myoélectrique

Par Sarah Journée

Publié le 11 août 2020 Projet de prothèse de main myoélectrique Est-ce que la recherche menée à l’UHA permet des applications directes ? La réponse est oui ! Découvrez dans cette vidéo un projet de prothèse de main myoélectrique impliquant des étudiant·es et porté par Djaffar Ould Abdeslam, maître de conférence à l’IUT de Mulhouse et chercheur à l’Institut de Recherche en Informatique, Mathématiques, Automatique et Signal (IRIMAS). Djaffar Ould Abdeslam Maître de conférences (IUT de Mulhouse & IRIMAS) Sur le même thème Tous |Article |Non classé |Podcast |Question |Recherche participative |Vidéo Les robots humanoïdes peuvent-ils nous faire croire qu’ils ressentent des émotions ? 2 février 2023/ Publié le 2 février 2023 Les robots humanoïdes peuvent-ils nous faire croire qu’ils ressentent des émotions ? Cécile Dolbeau-Bandin, Université… Article Avis de Recherche N°4 – 150 ans de la Société Française de Physique 8 novembre 2023/ Publié le 8 novembre 2023 Avis de Recherche N°4 – 150 ans de la Société Française de Physique   >>>… Podcast Comment les robots perçoivent-ils le monde ? 13 janvier 2025/ Publié le 13 janvier 2025 Comment les robots perçoivent-ils le monde ? Stéphane Bazeille, Université de Haute-Alsace (UHA) Pour percevoir son environnement,… Article

Témoignage d’un doctorant – Jean-Nicola Russo – laboratoire IRIMAS

Par Sarah Journée

Publié le 18 avril 2016 Témoignage d’un doctorant – Jean-Nicola Russo – laboratoire IRIMAS (anciennement MIPS) Vous avez certainement déjà entendu les mots « thèse » ou « doctorat », mais vous vous demandez ce qu’ils veulent dire exactement ? Dans cette série de vidéos, rencontrez des doctorant·es de l’UHA venant de différentes disciplines universitaires pour comprendre ce qu’être doctorat veut dire exactement. Rencontrez dans cette vidéo Jean-Nicola Russo, doctorant en intelligence artificielle à l’UHA, et qui effectue sa thèse à l’Institut de Recherche en Informatique, Mathématiques, Automatique et Signal (IRIMAS) anciennement laboratoire Modélisation, Intelligence, Processus et Systèmes (MIPS). Découvrez son parcours, le sujet de sa thèse et son travail de doctorant. https://youtu.be/dAWUMT4qu9U?si=6Ybc5TVVe20ua-U0 Jean-Nicola Russo Doctorant en intelligence artificielle (IRIMAS) Sur le même thème Tous |Article |Non classé |Podcast |Question |Recherche participative |Vidéo Projet de prothèse de main myoélectrique 11 août 2020/ Publié le 11 août 2020 Projet de prothèse de main myoélectrique Est-ce que la recherche menée à l’UHA permet des… Vidéo Remise des diplômes de Doctorat 2023 : “C’est quoi ta thèse ?” 5 juillet 2024/ Publié le 5 juillet 2024 Remise des diplômes de Doctorat 2023 : “C’est quoi ta thèse?” Les recherches effectuées à… Vidéo Comment les robots perçoivent-ils le monde ? 13 janvier 2025/ Publié le 13 janvier 2025 Comment les robots perçoivent-ils le monde ? Stéphane Bazeille, Université de Haute-Alsace (UHA) Pour percevoir son environnement,… Article

Ma Thèse en 180 secondes 2016 – Marlena Betzner

Par Sarah Journée

Publié le 4 avril 2016 Ma thèse en 180 secondes 2016 – Marlena Betzner Ma thèse en 180 secondes est un concours internationale durant lequel des doctorant·es francophones des quatre coins du monde présentent leur sujet de recherche vulgarisé … en 180 secondes top chrono ! Véritable exercice de vulgarisation, d’éloquence et de mise en scène, ce concours permet de partager au grand public la recherche qui se fait dans les laboratoires.   Marlena Betzner est l’une des six candidat·es de l’UHA à s’être présenté·es à la finale Alsace de 2016. Elle a présenté son sujet de thèse intitulé « Imagerie haute-résolution pour la microbiologie rapide ». https://www.youtube.com/watch?v=alm1_5lf3tk&list=PLqKY7fivSf361-HnEifW__bE8V1JDuY6w&index=41 Marlena Betzner Doctorante en traitement du signal (IRIMAS – anciennement MIPS) Sur le même thème Tous |Article |Non classé |Podcast |Question |Recherche participative |Vidéo Ma Thèse en 180 secondes 2015 – Mathieu Retailleau 16 avril 2015/ Publié le 16 avril 2015 Ma thèse en 180 secondes 2015 – Mathieu Retailleau Ma thèse en 180 secondes est… Vidéo Ma Thèse en 180 secondes 2021 – Céline Vogel 18 mars 2021/ Publié le 18 mars 2021 Ma thèse en 180 secondes 2021 – Céline Vogel Ma thèse en 180 secondes est… Vidéo Ma Thèse en 180 secondes 2023 – Héléna Frithmann 9 mars 2023/ Publié le 9 mars 2023 Ma thèse en 180 secondes 2023 – Héléna Frithmann Ma thèse en 180 secondes est… Vidéo