Conjointement avec la sortie de la NVIDIA Geforce RTX 2080, la version 10.0 de CUDA est désormais disponible officiellement sur le site NVIDIA.
Pour le télécharger: https://developer.nvidia.com/cuda-toolkit/whatsnew
Pour plus de détails sur l’apport de CUDA 10.0 : https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html
Le Mercredi 16 Mai 2018 à 10H30 dans la Salle U16 du bâtiment U de l’IUT à Reims.
Au cours de ce séminaire, nous avons le plaisir d’accueillir le Pr. Franck Multon qui nous présentera ses travaux.
Titre : Human performance evaluation with low-cost systems
Résumé :
Le mouvement humain intéresse de nombreux domaines d’application, comme le sport, la rééducation, l’ergonomie ou encore les jeux vidéos. Dans tous ces domaines, il est nécessaire de pouvoir mesurer la performance du sujet sans perturber la manière dont il effectue son geste. Dans la majorité des cas, il est difficile d’extraire le sujet de son environnement (terrain de sport, environnement de travail, centre de rééducation…) pour le mettre dans des conditions de laboratoire, bien contrôlées. Avec la diffusion grand public des caméras de profondeur bas coût, de nouvelles opportunités de mesure du mouvement sont apparues début 2010. Associées à un tracking efficace du squelette du sujet, ces caméras de profondeur permettent une mesure sans marqueurs ni capteurs portés. Nous avons évalué la robustesse de cette approche dans un grand nombre de configurations, faisant apparaître une forte sensibilité aux occultations. Nous avons ensuite proposé deux approches pour contourner ce problème. Dans un premier temps, nous proposons de mesurer les critères de performance utiles, directement à partir des surfaces au lieu des données squelettiques. Cette approche a été appliquée avec succès à l’analyse clinique de la marche pathologique, avec un focus sur la quantification de l’asymétrie de la marche. Nous avons ainsi montré que les mesures d’asymétrie en utilisant cette méthode avec une simple Kinect de Microsoft pouvait être aussi précises qu’avec un système de laboratoire, mais sans ses contraintes. Dans un second temps, nous avons proposé une nouvelle approche basée exemples pour corriger les données squelettiques, en situation très contrainte, avec de nombreuses occultations. Une nouvelle structure de données, les Filtered Pose Graph, permet d’organiser une base de données de mouvements « exemples » afin d’efficacement recalculer les parties du corps mal reconstruites par l’algorithme de tracking. Cela a été appliqué à l’analyse ergonomique des postes de travail, où les contraintes environnementales sont extrêmement dures pour l’algorithme de tracking. Les résultats montrent une excellente prédiction de la pénibilité, en comparaison avec des mesures de références, et des estimations d’experts. Cette amélioration de la précision de mesure du squelette permettrait d’envisager une estimation des couples articulaires par dynamique inverse, en situation réelle de travail. Ces résultats font actuellement l’objet du transfert vers une start-up proposant des solutions de mesures ergonomiques sur poste de travail, sans marqueurs ni capteurs portés.
La 3D et la vision en relief sont des technologies de plus en plus présentes dans la vie courante (cinéma en 3D, consoles de jeux, hologrammes …). Prenant appui sur la présentation de nombreuses réalisations, différents aspects allant de l’acquisition de volumes dans l’espace à leurs restitutions enrichies par les connaissances historiques, le tout porté par une visualisation dynamique en relief, seront mis en avant.
Par Éric Desjardin, chercheur en informatique au CReSTIC, équipe RVM – Université de Reims-Champagne-Ardenne.
Ce vendredi a eu lieu la thèse de Tianatahina Jimmy Francky Randrianasoa qui a ainsi obtenu le grade de docteur. Nous lui adressons toutes nos félicitations.
Titre : « Représentation d’images hiérarchique multicritère »
Jury :
Résumé :
La segmentation est une tâche cruciale en analyse d’images. L’évolution des capteurs d’acquisition induit de nouvelles images de résolution élevée, contenant des objets hétérogènes. Il est aussi devenu courant d’obtenir des images d’une même scène à partir de plusieurs sources. Ceci rend difficile l’utilisation des méthodes de segmentation classiques. Les approches de segmentation hiérarchiques fournissent des solutions potentielles à ce problème. Ainsi, l’Arbre Binaire de Partitions (BPT) est une structure de données représentant le contenu d’une image à différentes échelles. Sa construction est généralement mono-critère (i.e. une image, une métrique) et fusionne progressivement des régions connexes similaires. Cependant, la métrique doit être définie a priori par l’utilisateur, et la gestion de plusieurs images se fait en regroupant de multiples informations issues de plusieurs bandes spectrales dans une seule métrique. Notre première contribution est une approche pour la construction multicritère d’un BPT. Elle établit un consensus entre plusieurs métriques, permettant d’obtenir un espace de segmentation hiérarchique unifié. Par ailleurs, peu de travaux se sont intéressés à l’évaluation de ces structures hiérarchiques. Notre seconde contribution est une approche évaluant la qualité des BPTs en se basant sur l’analyse intrinsèque et extrinsèque, suivant des exemples issus de vérités-terrains. Nous discutons de l’utilité de cette approche pour l’évaluation d’un BPT donné mais aussi de la détermination de la combinaison de paramètres adéquats pour une application précise. Des expérimentations sur des images satellitaires mettent en évidence la pertinence de ces approches en segmentation d’images.
Ce vendredi, Luiz-Angelo Steffenel maître de conférences au CReSTIC a soutenu son HDR. Nous adressons toutes nos félicitations.
Titre : Contributions à la Gestion de l’Hétérogénéité dans les Environnements Distribués et Pervasifs
Jury :
Résumé :
La définition du mot hétérogénéité donnée par le Dictionnaire Larousse (« Manque d’unité, composé d’éléments de nature diverse ») n’est pas suffisamment développée pour qualifier les différents défis liés à l’hétérogénéité dans les systèmes et les applications distribués. Afin de mieux comprendre ces défis, il est important d’identifier et de cataloguer les différents mécanismes liés à l’hétérogénéité. Une première catégorie représente les variations des équipements composant un système informatique. À l’hétérogénéité matérielle s’ajoutent les problèmes de l’hétérogénéité des tâches et de l’hétérogénéité des communications. Il faut également assurer l’hétérogénéité issue de la dynamique de l’exécution, qui impacte le fonctionnement d’un système distribué au travers les variations qu’il subit pendant toute la durée de son exécution. Finalement, d’un point de vue applicatif, on peut également rencontrer des difficultés avec une tout autre catégorie d’hétérogénéité, transversale aux trois précédentes : l’hétérogénéité de l’accès aux données.
Mes travaux de recherche s’inscrivent donc dans la gestion de l’hétérogénéité, sous ses différentes facettes. Durant cet présentation, j’exposerai une partie de ces contributions, développées au fil des différents projets dans lesquels je me suis engagé et des thèses de doctorat que j’ai co-encadré. Ainsi, dans un premier moment, je présent des algorithmes visant la compréhension des facteurs qui impactent les opérations de communication collective dans les grids. Dans un deuxième moment je présente les efforts faits pour gérer l’hétérogénéité des tâches lors de la parallélisation et de la gestion de l’exécution distribuée d’une application en biochimie, ce qui a été accompagné par le développement d’une plateforme de déploiement capable de gérer l’exécution des tâches distribuées sur un cluster HPC ou sur un ensemble de nœuds volontaires. Une troisième partie de mon travail se consacre à la dynamique des ressources et aux stratégies pour sa prise en charge, illustrés par une expérience visant à améliorer le comportement de la plateforme big data Apache Hadoop dans les environnements hétérogènes et dynamiques. En s’aidant d’un mécanisme de collecte d’informations sur le contexte des ressources, il a été possible de modifier ce framework et ainsi d’adapter la gestion des tâches aux ressources disponibles à chaque instant. La quatrième partie présente la spécification d’une base documentaire construite sur un réseau hiérarchique permettant l’accès transparent aux sources de données, peu importe leur nature (fichiers, flux, bases de données, etc.). Finalement, la cinquième partie introduit la plateforme de calcul distribué CloudFIT, développée afin de permettre le prototypage et le test de techniques pour les environnements de calcul très hétérogènes, allant des dispositifs IoT aux data centers et infrastructures sur le cloud.
Mon travail de recherche s’inscrit ainsi dans la gestion de l’hétérogénéité, sous ses différentes facettes. En naviguant entre ces aspects, j’ai pu travailler à la fois sur la tolérance aux fautes, la modélisation des performances, l’adaptation au contexte et l’ordonnancement, et même la spécification et le développement d’intergiciels (middlewares) pour le calcul distribué. De ces travaux de recherche, il en résulte de multiples perspectives notamment dans le cadre du fog computing et de l’Internet des Objets (Internet of Things – IoT), ce qui conclura ma présentation.