Le logiciel de travail collaboratif avec partage d’écran et de la voix est disponible en version 2.2. Le serveur de signalisation de l’Université de Reims a été mis à jour et accepte désormais cette nouvelle version.
We’re excited to unveil some of the features and improvements we’ve been working on lately:
✂️ Shared clipboard, copy/paste text and images from/to the shared screen seamlessly (only the app client is supported for now)
👤 Sign in with GitHub
🖥 Retina image quality support on macOS (can be enabled in preferences)
💅 Session toolbar polish, the app client has now the same kind of toolbar, less confirmation dialogs
🎤 Fixed multiple audio issues on Windows and macOS
USE Together 2.2 is available now with all these! Check out the full changelog here.
Update to the latest version from within the app or download it:
Happy screen sharing 🙂
Julien from the USE Together team
Le Centre Image organise le mercredi 20 novembre 2019, la journée R.E.IM.S (Réalité Et IMmersion en Sciences). Cette journée scientifique, autour de la visualisation, l’interaction et les nouvelles technologies, se déroulera en Amphi 1 de l’UFR Science.
Le programme est en cours de finalisation, mais pensez à réserver cette journée dans vos agendas.
N’hésitez pas à consulter régulièrement le site pour de plus amples informations.
Inscription gratuite et obligatoire (à faire avant le 07 novembre) : Cliquez ici
Téléchargement de l’affiche : R.E.IM.S 2019
Frank Multon
Surface based Motion Retargeting by Preserving Spatial Relationship.
Retargeting a motion from a source to a target character is an important problem in computer animation, as it allows to reuse existing rigged databases or transfer motion capture to virtual characters. Previous work
mainly focused on retargeting skeleton animations whereas the contextual meaning of the motion is mainly linked to the relationship between body surfaces, such as the contact of the palm with the belly. In this presentation we will address two possible contributions to overcome this limitation.
The first one consists in proposing a new context-aware motion retargeting framework, based on deforming a target character to mimic a source character poses using harmonic mapping. We also introduce the idea of Context Graph: modeling local interactions between surfaces of the source character, to be preserved in the target character, in order to ensure fi delity of the pose. In this approach, no rigging is required as we directly manipulate the surfaces, which makes the process totally automatic. Our results demonstrate the relevance of this automatic rigging-less approach on motions with
complex contacts and interactions between the character’s surface.
The second contribution consists in investigating whether shape transfer instead of pose transfer would better preserve the original contextual meaning of the source pose. To this end, we propose an optimization-based method to deform the source shape+pose using three main energy functions: similarity to the target shape, body part volume preservation, and collision management (preserve existing contacts and prevent penetrations). The results show that our method is able to retarget complex poses, including several contacts, to very different morphologies. In particular, we introduce new contacts that are linked to the change in morphology, and which would be difficult to obtain with previous works based on pose transfer that aim at distance preservation between body parts. These preliminary results are encouraging and open several perspectives, such as decreasing computation time, and better understanding how to model pose and shape constraints.
Jessica Jonquet
Réalité Augmentée pour la modélisation moléculaire.
Ce projet vise à développer le concept « d’impression 3D augmentée » pour le domaine de la biologie, de la pharmacie (drug design) et de la médecine. La visualisation informatique est un moyen essentiel de représenter des objets biologiques afin de comprendre et expliquer des systèmes plus complexes. Cependant, manipuler un objet physique a beaucoup plus de richesse perceptuelle que la visualisation et l’interaction, même immersive. Nous proposons d’utiliser la molécule imprimée comme interface tangible et d’y superposer la visualisation scientifique. En couplant systèmes de RA, impression 3D et visualisation scientifique, nous souhaitons concevoir un outil collaboratif de visualisation scientifique évolutive et d’analyse visuelle. Ce cadre, dédié à la fois aux biologistes expérimentateurs et aux théoriciens, permettra une interprétation interactive des molécules favorisant l’échange entre chimistes, physiciens et biologistes.
Jérôme Dubois
Highly Efficient Controlled Hierarchical Data Reduction techniques for Interactive Visualization of Massive Simulation Data. (pptx)
With the constant increase in compute power of supercomputers, high performance computing simulations are producing higher fidelity results and possibly massive amounts of data. To keep visualization of such results interactive, existing techniques such as Adaptive Mesh Refinement (AMR) can be of use. In particular, Tree-Based AMR methods (TB-AMR) are widespread in simulations and are becoming more present in general purpose visualization pipelines such as VTK. In this work, we show how TB-AMR data structures could lead to more efficient exploration of massive data sets in the Exascale era. We discuss how algorithms (filters) should be designed to take advantage of tree-like data structures for both data filtering or rendering. By introducing controlled hierarchical data reduction we greatly reduce the processing time for existing algorithms, sometimes with no visual impact, and drastically decrease exploration time for analysts. Also thanks to the techniques and implementations we propose, visualization of very large data is made possible on very constrained resources. These ideas are illustrated on million to billion-scale native TB-AMR or resampled meshes, with the HyperTreeGrid object and associated filters we have recently optimized and made available in the Visualisation Toolkit (VTK) for use by the scientific community.
Éric Desjardin
Acquisition par la photogrammétrie. Imagerie de synthèse Iso-Photographique. (pdf sans la vidéo)
Phillipe Porral
Conception de l’Apparence Assistée par Ordinateur.
Dans notre vie quotidienne, mais aussi dans le monde académique et industriel, l’informatique graphique et en particulier l’imagerie de synthèse sont de plus en plus présentes.
Ces créations numériques offrent aux utilisateurs et aux consommateurs les représentations d’une « réalité » inventée, disparue ou à venir, se présentant sous forme d’illustrations visuelles plausibles.
En se positionnant dans cadre d’activités pour lesquelles les restitutions visuelles sont cruciales pour prendre des décisions, nous présentons le concept de :
Conception de l’Apparence Assisté par Ordinateur
CA20
Julien Gerhards
Limites et avantages des algorithmes de reconstruction HDR. (pdf)
L’imagerie à haute dynamique, High Dynamic Range, est une tendance qui s’installe durablement dans l’industrie, aussi bien dans la photo numérique avec les smartphones de dernière génération que dans le domaine de la vidéo avec les téléviseurs 4K HDR. Seront évoqués les principes de la photo HDR ainsi que les défis à relever pour leur acquisition.
Hervé Deleau
USE Together – un outil de travail collaboratif distant et sécurisé disponible au sein de l’URCA.
USE Together est un outil de partage d’écran développé dans le cadre d’une collaboration entre l’Université de Reims (équipe RVM du CReSTIC) et la société OpexMedia qui distribue désormais le produit.
Il s’agit d’un outil de partage d’écran distant orienté pour le « travail collaboratif », où chaque intervenant dispose de son propre curseur de souris afin de faciliter les interactions et ainsi offrir une expérience de collaboration fluide.
Cette présentation détaillera les mécanismes de fonctionnement de USE Together et se terminera pas une démonstration des différentes possibilités proposées par cet outil.
Ce vendredi 13 septembre à 14h aura lieu la soutenance de thèse de Francisco Alvarez Padilla. Amphithéâtre 2 – IUT de Reims.
Composition du Jury :
Résumé :
Les travaux de cette thèse portent sur la proposition de stratégies de segmentation des tumeurs cancéreuses dans un contexte multimodal et multitemporel. La multimodalité fait référence au couplage de données TEP/TDM pour exploiter conjointement les deux sources d’information pour améliorer les performances de la segmentation. La multitemporalité fait référence à la disposition des images acquises à différents dates, ce qui limite une correspondance spatiale possible entre elles. Dans une première méthode, une structure arborescente est utilisée pour traiter et pour extraire des informations afin d’alimenter une segmentation par marche aléatoire. Un ensemble d’attributs est utilisé pour caractériser les nœuds de l’arbre, puis le filtrer et projeter des informations afin de créer une image vectorielle. Un marcheur aléatoire guidé par les données vectorielles provenant de l’arbre est utilisé pour étiqueter les voxels à des fins de segmentation.
La deuxième méthode traite le problème de la multitemporalité en modifiant le paradigme de voxel à voxel par celui de nœud à nœud. Deux arbres sont alors modélisés à partir de la TEP et de la TDM avec injection de contraste pour comparer leurs nœuds par une différence entre leurs attributs et ainsi correspondre à ceux considérés comme similaires en supprimant ceux qui ne le sont pas. Dans une troisième méthode, qui est une extension de la première, l’arbre calculé à partir de l’image est directement utilisé pour mettre en œuvre l’algorithme développé. Une structure arborescente est construite sur la TEP, puis les données TDM sont projetées sur l’arbre en tant qu’informations contextuelles. Un algorithme de stabilité de nœud est appliqué afin de détecter et d’élaguer les nœuds instables. Des graines, extraites de la TEP, sont projetées dans l’arbre pour fournir des étiquettes (pour la tumeur et le fond) à ses nœuds correspondants et les propager au sein de la hiérarchie. Les régions évaluées comme incertaines sont soumises à une méthode de marche aléatoire vectorielle pour compléter l’étiquetage de l’arbre et finir la segmentation.
Ce jeudi a eu lieu la soutenance de thèse de Nicolas Courilleau qui a ainsi obtenu le grade de docteur.
Nous lui adressons toutes nos félicitations.
Composition du Jury :
M. Min Hyuk Kim, Chair Professor, KAIST, Daejeon, South Korea, Rapporteur
M. Jean-Luc Mari, Professeur, Aix-Marseille Université, Rapporteur
M. Christophe Renaud, Professeur, Université du Littoral Côte d’Opale, Examinateur
M. Vincent Nozick, Maître de conférences, Université Paris-Est Marne-la-Vallée, Examinateur
M. Gilles Mergoil, Président de Neoxia, Paris, Invité
M. Laurent Lucas, Professeur, Université de Reims Champagne-Ardenne, Co-directeur
M. Yannick Remion, Professeur, Université de Reims Champagne-Ardenne, Co-directeur
RÉSUMÉ :
La visualisation de données est un aspect important de la recherche scientifique dans de nombreux domaines. Elle permet d’aider à comprendre les phénomènes observés voire simulés et d’en extraire des informations à des fins notamment de validations expérimentales ou tout simplement pour de la revue de projet. Nous nous intéressons dans le cadre de cette étude doctorale à la visualisation de données volumiques en imagerie médicale et biomédicale, obtenues grâce à des appareils d’acquisition générant des champs scalaires ou vectoriels représentés sous forme de grilles régulières 3D. La taille croissante des données, due à la précision grandissante des appareils d’acquisition, impose d’adapter les algorithmes de visualisation afin de pouvoir gérer de telles volumétries. De plus, les GPUs utilisés en visualisation de données volumiques, se trouvant être particulièrement adaptés à ces problématiques, disposent d’une quantité de mémoire très limitée comparée aux données à visualiser. La question se pose alors de savoir comment dissocier les unités de calculs, permettant la visualisation, de celles de stockage. Les algorithmes se basant sur le principe dit « out-of-core » sont les solutions permettant de gérer de larges ensembles de données volumiques.
Dans cette thèse, nous proposons un pipeline complet permettant de visualiser et de traiter, en temps réel sur GPU, des volumes de données dépassant très largement les capacités mémoires des CPU et GPU. L’intérêt de notre pipeline provient de son approche de gestion de données « out-of-core » permettant de virtualiser la mémoire qui se trouve être particulièrement adaptée aux données volumiques. De plus, cette approche repose sur une structure d’adressage virtuel entièrement gérée et maintenue sur GPU. Nous validons notre modèle grâce à plusieurs applications de visualisation et de traitement en temps réel. Tout d’abord, nous proposons un microscope virtuel interactif permettant la visualisation 3D auto-stéréoscopique de piles d’images haute résolution. Puis nous validons l’adaptabilité de notre structure à tous types de données grâce à un microscope virtuel multimodale. Enfin, nous démontrons les capacités multi-rôles de notre structure grâce à une application de visualisation et de traitement concourant en temps réel.
À l’origine PhysX est un moteur physique développé par AGEIA Technologies. Il est passé dans les mains de Nvidia il y a une dixième d’année, après son acquisition d’AGEIA Technologies
Aujourd’hui PhysX 3.4 change de licence (BSD) pour s’ouvrir plus facilement au calcul scientifique.
Notons aussi la sortie très prochaine de PhysX 4.0 annoncée pour le 20 décembre.
Plus d’infos sur PhysX à l’adresse suivante : https://developer.nvidia.com/physx-sdk
Une petite vidéo de l’apport de précision de PhysX 4.0 est à voir ici : https://www.youtube.com/watch?v=K1rotbzekf0