La 3D et la vision en relief sont des technologies de plus en plus présentes dans la vie courante (cinéma en 3D, consoles de jeux, hologrammes …). Prenant appui sur la présentation de nombreuses réalisations, différents aspects allant de l’acquisition de volumes dans l’espace à leurs restitutions enrichies par les connaissances historiques, le tout porté par une visualisation dynamique en relief, seront mis en avant.
Par Éric Desjardin, chercheur en informatique au CReSTIC, équipe RVM – Université de Reims-Champagne-Ardenne.
Ce vendredi a eu lieu la thèse de Tianatahina Jimmy Francky Randrianasoa qui a ainsi obtenu le grade de docteur. Nous lui adressons toutes nos félicitations.
Titre : « Représentation d’images hiérarchique multicritère »
Jury :
Résumé :
La segmentation est une tâche cruciale en analyse d’images. L’évolution des capteurs d’acquisition induit de nouvelles images de résolution élevée, contenant des objets hétérogènes. Il est aussi devenu courant d’obtenir des images d’une même scène à partir de plusieurs sources. Ceci rend difficile l’utilisation des méthodes de segmentation classiques. Les approches de segmentation hiérarchiques fournissent des solutions potentielles à ce problème. Ainsi, l’Arbre Binaire de Partitions (BPT) est une structure de données représentant le contenu d’une image à différentes échelles. Sa construction est généralement mono-critère (i.e. une image, une métrique) et fusionne progressivement des régions connexes similaires. Cependant, la métrique doit être définie a priori par l’utilisateur, et la gestion de plusieurs images se fait en regroupant de multiples informations issues de plusieurs bandes spectrales dans une seule métrique. Notre première contribution est une approche pour la construction multicritère d’un BPT. Elle établit un consensus entre plusieurs métriques, permettant d’obtenir un espace de segmentation hiérarchique unifié. Par ailleurs, peu de travaux se sont intéressés à l’évaluation de ces structures hiérarchiques. Notre seconde contribution est une approche évaluant la qualité des BPTs en se basant sur l’analyse intrinsèque et extrinsèque, suivant des exemples issus de vérités-terrains. Nous discutons de l’utilité de cette approche pour l’évaluation d’un BPT donné mais aussi de la détermination de la combinaison de paramètres adéquats pour une application précise. Des expérimentations sur des images satellitaires mettent en évidence la pertinence de ces approches en segmentation d’images.
Ce vendredi, Luiz-Angelo Steffenel maître de conférences au CReSTIC a soutenu son HDR. Nous adressons toutes nos félicitations.
Titre : Contributions à la Gestion de l’Hétérogénéité dans les Environnements Distribués et Pervasifs
Jury :
Résumé :
La définition du mot hétérogénéité donnée par le Dictionnaire Larousse (« Manque d’unité, composé d’éléments de nature diverse ») n’est pas suffisamment développée pour qualifier les différents défis liés à l’hétérogénéité dans les systèmes et les applications distribués. Afin de mieux comprendre ces défis, il est important d’identifier et de cataloguer les différents mécanismes liés à l’hétérogénéité. Une première catégorie représente les variations des équipements composant un système informatique. À l’hétérogénéité matérielle s’ajoutent les problèmes de l’hétérogénéité des tâches et de l’hétérogénéité des communications. Il faut également assurer l’hétérogénéité issue de la dynamique de l’exécution, qui impacte le fonctionnement d’un système distribué au travers les variations qu’il subit pendant toute la durée de son exécution. Finalement, d’un point de vue applicatif, on peut également rencontrer des difficultés avec une tout autre catégorie d’hétérogénéité, transversale aux trois précédentes : l’hétérogénéité de l’accès aux données.
Mes travaux de recherche s’inscrivent donc dans la gestion de l’hétérogénéité, sous ses différentes facettes. Durant cet présentation, j’exposerai une partie de ces contributions, développées au fil des différents projets dans lesquels je me suis engagé et des thèses de doctorat que j’ai co-encadré. Ainsi, dans un premier moment, je présent des algorithmes visant la compréhension des facteurs qui impactent les opérations de communication collective dans les grids. Dans un deuxième moment je présente les efforts faits pour gérer l’hétérogénéité des tâches lors de la parallélisation et de la gestion de l’exécution distribuée d’une application en biochimie, ce qui a été accompagné par le développement d’une plateforme de déploiement capable de gérer l’exécution des tâches distribuées sur un cluster HPC ou sur un ensemble de nœuds volontaires. Une troisième partie de mon travail se consacre à la dynamique des ressources et aux stratégies pour sa prise en charge, illustrés par une expérience visant à améliorer le comportement de la plateforme big data Apache Hadoop dans les environnements hétérogènes et dynamiques. En s’aidant d’un mécanisme de collecte d’informations sur le contexte des ressources, il a été possible de modifier ce framework et ainsi d’adapter la gestion des tâches aux ressources disponibles à chaque instant. La quatrième partie présente la spécification d’une base documentaire construite sur un réseau hiérarchique permettant l’accès transparent aux sources de données, peu importe leur nature (fichiers, flux, bases de données, etc.). Finalement, la cinquième partie introduit la plateforme de calcul distribué CloudFIT, développée afin de permettre le prototypage et le test de techniques pour les environnements de calcul très hétérogènes, allant des dispositifs IoT aux data centers et infrastructures sur le cloud.
Mon travail de recherche s’inscrit ainsi dans la gestion de l’hétérogénéité, sous ses différentes facettes. En naviguant entre ces aspects, j’ai pu travailler à la fois sur la tolérance aux fautes, la modélisation des performances, l’adaptation au contexte et l’ordonnancement, et même la spécification et le développement d’intergiciels (middlewares) pour le calcul distribué. De ces travaux de recherche, il en résulte de multiples perspectives notamment dans le cadre du fog computing et de l’Internet des Objets (Internet of Things – IoT), ce qui conclura ma présentation.
Le Centre Image a installé aujourd’hui son nouveau serveur dédié au rendu.
Installé au sein du Centre de Calcul ROMEO, il sera à la disposition des chercheurs et partenaires de la MaSCA.
Ce serveur Bull Atos certifié NVIDIA VCA utilise entre autres les technologies NVIDIA Optix et CUDA afin d’accélérer les calculs de rendu. Il est équipé de 8 cartes NVIDIA Quadro P6000, 2 processeurs Intel Xeon E5–2698v4 (20-cores) et 256 Go de RAM.
Les 2 et 3 juin, la ville de Reims a accueilli Google au Centre des Congrès. À cette occasion l’Université a pu faire la présentation de quelques plateaux techniques.