Centre Image
Plateau Technique

Sémi­naire UnityMol – mercredi 19/02

Posté par hdeleau le 17 février 2020.

Mercredi 19/02 à 11h, la P3M accueillera le Dr Xavier Marti­nez (CNRS-LBT, Paris) en salle AR06. Il donnera un sémi­naire inti­tulé :

« UnityMol, or how to do mole­cu­lar visua­li­za­tion in a game engine. »

UnityMol has recently been re-desi­gned to over­come previous limi­ta­tions and ensure sustai­na­bi­lity and future code main­te­nance.
This re-work opened the way to new features and exten­sions inclu­ding a python console driving all actions in UnityMol, a selec­tion language, different mole­cu­lar surface algo­rithms and more.
Working in a game engine offers a lot of buil­tin possi­bi­li­ties nota­bly support for AR and VR devices and recently ray-tracing capa­bi­li­ties, at the cost of deep opti­mi­za­tions to display complex and volu­mi­nous scien­ti­fic data in inter­ac­tive times.
With different colla­bo­ra­tions, our frame­work is now the buil­ding block of seve­ral research programs in protein-protein docking, mole­cu­lar visua­li­za­tion and data analy­sis.

Jour­née scien­ti­fique « R.E.IM.S », le 20 novembre 2019

Posté par hdeleau le 17 octobre 2019.

Le Centre Image orga­nise le mercredi 20 novembre 2019, la jour­née R.E.IM.S (Réalité Et IMmersion en Sciences). Cette jour­née scien­ti­fique, autour de la visua­li­sa­tion, l’in­te­rac­tion et les nouvelles tech­no­lo­gies, se dérou­lera en Amphi 1 de l’UFR Science.

Le programme est en cours de fina­li­sa­tion, mais pensez à réser­ver cette jour­née dans vos agen­das.

N’hé­si­tez pas à consul­ter régu­liè­re­ment le site pour de plus amples infor­ma­tions.

Inscrip­tion gratuite et obli­ga­toire (à faire avant le 07 novembre) : Cliquez ici

Télé­char­ge­ment de l’af­fiche : R.E.IM.S 2019
















  • 09h00 Accueil
  • 09h30 Frank Multon, Profes­seur, INRIA, Univer­sité de Rennes 2
    Surface based Motion Retar­ge­ting by Preser­ving Spatial Rela­tion­ship.
  • 10h20 Jessica Jonquet, MCF, MEDyC, URCA
    Réalité Augmen­tée pour la modé­li­sa­tion molé­cu­laire.
  • 10h50 Pause
  • 11h10 Jérôme Dubois, Ingé­nieur Cher­cheur, CEA
    Highly Effi­cient Control­led Hierar­chi­cal Data Reduc­tion tech­niques for Inte­rac­tive Visua­li­za­tion of Massive Simu­la­tion Data.
  • 12h00 Repas
  • 13h30 Éric Desjar­din, MCF, CReSTIC/RVM, URCA
    Acqui­si­tion par la photo­gram­mé­trie.
  • 14h00 Phil­lipe Porral, Président d’Uni­ted VISUAL RESEARCHERS
    Concep­tion de l’Ap­pa­rence Assis­tée par Ordi­na­teur. Image­rie de synthèse Iso-Photo­gra­phique.
  • 14h50 Julien Gerhards, IGR, CReSTIC/RVM, URCA
    Limites et avan­tages des algo­rithmes de recons­truc­tion HDR.
  • 15h20 Hervé Deleau, IGR, Centre Image, URCA
    USE Toge­ther – un outil de travail colla­bo­ra­tif distant et sécu­risé dispo­nible au sein de l’URCA.
  • 16h00 Fin

Résumé des présen­ta­tions

Frank Multon
Surface based Motion Retar­ge­ting by Preser­ving Spatial Rela­tion­ship.

Retar­ge­ting a motion from a source to a target charac­ter is an impor­tant problem in compu­ter anima­tion, as it allows to reuse exis­ting rigged data­bases or trans­fer motion capture to virtual charac­ters. Previous work
mainly focu­sed on retar­ge­ting skele­ton anima­tions whereas the contex­tual meaning of the motion is mainly linked to the rela­tion­ship between body surfaces, such as the contact of the palm with the belly. In this presen­ta­tion we will address two possible contri­bu­tions to over­come this limi­ta­tion.

The first one consists in propo­sing a new context-aware motion retar­ge­ting frame­work, based on defor­ming a target charac­ter to mimic a source charac­ter poses using harmo­nic mapping. We also intro­duce the idea of Context Graph: mode­ling local inter­ac­tions between surfaces of the source charac­ter, to be preser­ved in the target charac­ter, in order to ensure fi delity of the pose. In this approach, no rigging is requi­red as we directly mani­pu­late the surfaces, which makes the process totally auto­ma­tic. Our results demons­trate the rele­vance of this auto­ma­tic rigging-less approach on motions with
complex contacts and inter­ac­tions between the charac­ter’s surface.

The second contri­bu­tion consists in inves­ti­ga­ting whether shape trans­fer instead of pose trans­fer would better preserve the origi­nal contex­tual meaning of the source pose. To this end, we propose an opti­mi­za­tion-based method to deform the source shape+­pose using three main energy func­tions: simi­la­rity to the target shape, body part volume preser­va­tion, and colli­sion mana­ge­ment (preserve exis­ting contacts and prevent pene­tra­tions). The results show that our method is able to retar­get complex poses, inclu­ding seve­ral contacts, to very different morpho­lo­gies. In parti­cu­lar, we intro­duce new contacts that are linked to the change in morpho­logy, and which would be diffi­cult to obtain with previous works based on pose trans­fer that aim at distance preser­va­tion between body parts. These preli­mi­nary results are encou­ra­ging and open seve­ral pers­pec­tives, such as decrea­sing compu­ta­tion time, and better unders­tan­ding how to model pose and shape constraints.

Jessica Jonquet
Réalité Augmen­tée pour la modé­li­sa­tion molé­cu­laire.

Ce projet vise à déve­lop­per le concept « d’im­pres­sion 3D augmen­tée » pour le domaine de la biolo­gie, de la phar­ma­cie (drug design) et de la méde­cine. La visua­li­sa­tion infor­ma­tique est un moyen essen­tiel de repré­sen­ter des objets biolo­giques afin de comprendre et expliquer des systèmes plus complexes. Cepen­dant, mani­pu­ler un objet physique a beau­coup plus de richesse percep­tuelle que la visua­li­sa­tion et l’in­te­rac­tion, même immer­sive. Nous propo­sons d’uti­li­ser la molé­cule impri­mée comme inter­face tangible et d’y super­po­ser la visua­li­sa­tion scien­ti­fique. En couplant systèmes de RA, impres­sion 3D et visua­li­sa­tion scien­ti­fique, nous souhai­tons conce­voir un outil colla­bo­ra­tif de visua­li­sa­tion scien­ti­fique évolu­tive et d’ana­lyse visuelle. Ce cadre, dédié à la fois aux biolo­gistes expé­ri­men­ta­teurs et aux théo­ri­ciens, permet­tra une inter­pré­ta­tion inter­ac­tive des molé­cules favo­ri­sant l’échange entre chimistes, physi­ciens et biolo­gistes.

Jérôme Dubois
Highly Effi­cient Control­led Hierar­chi­cal Data Reduc­tion tech­niques for Inte­rac­tive Visua­li­za­tion of Massive Simu­la­tion Data. (pptx)

With the constant increase in compute power of super­com­pu­ters, high perfor­mance compu­ting simu­la­tions are produ­cing higher fide­lity results and possi­bly massive amounts of data. To keep visua­li­za­tion of such results inter­ac­tive, exis­ting tech­niques such as Adap­tive Mesh Refi­ne­ment (AMR) can be of use. In parti­cu­lar, Tree-Based AMR methods (TB-AMR) are wides­pread in simu­la­tions and are beco­ming more present in gene­ral purpose visua­li­za­tion pipe­lines such as VTK. In this work, we show how TB-AMR data struc­tures could lead to more effi­cient explo­ra­tion of massive data sets in the Exas­cale era. We discuss how algo­rithms (filters) should be desi­gned to take advan­tage of tree-like data struc­tures for both data filte­ring or rende­ring. By intro­du­cing control­led hierar­chi­cal data reduc­tion we greatly reduce the proces­sing time for exis­ting algo­rithms, some­times with no visual impact, and dras­ti­cally decrease explo­ra­tion time for analysts. Also thanks to the tech­niques and imple­men­ta­tions we propose, visua­li­za­tion of very large data is made possible on very constrai­ned resources. These ideas are illus­tra­ted on million to billion-scale native TB-AMR or resam­pled meshes, with the HyperT­reeG­rid object and asso­cia­ted filters we have recently opti­mi­zed and made avai­lable in the Visua­li­sa­tion Tool­kit (VTK) for use by the scien­ti­fic commu­nity.

Éric Desjar­din
Acqui­si­tion par la photo­gram­mé­trie. Image­rie de synthèse Iso-Photo­gra­phique. (pdf sans la vidéo)

Phil­lipe Porral
Concep­tion de l’Ap­pa­rence Assis­tée par Ordi­na­teur.

Dans notre vie quoti­dienne, mais aussi dans le monde acadé­mique et indus­triel, l’in­for­ma­tique graphique et en parti­cu­lier l’ima­ge­rie de synthèse sont de plus en plus présentes.
Ces créa­tions numé­riques offrent aux utili­sa­teurs et aux consom­ma­teurs les repré­sen­ta­tions d’une « réalité » inven­tée, dispa­rue ou à venir, se présen­tant sous forme d’illus­tra­tions visuelles plau­sibles.
En se posi­tion­nant dans cadre d’ac­ti­vi­tés pour lesquelles les resti­tu­tions visuelles sont cruciales pour prendre des déci­sions, nous présen­tons le concept de :

Concep­tion de l’Apparence Assisté par Ordina­teur
CA20

  1. En iden­ti­fiant les insuf­fi­sances des outils et méthodes tradi­tion­nels.
  2. En présen­tant les éléments scien­ti­fiques et les tech­niques néces­saires à mettre en œuvre pour assu­rer une réelle confiance dans les résul­tats.

Julien Gerhards
Limites et avan­tages des algo­rithmes de recons­truc­tion HDR. (pdf)

L’ima­ge­rie à haute dyna­mique, High Dyna­mic Range, est une tendance qui s’ins­talle dura­ble­ment dans l’in­dus­trie, aussi bien dans la photo numé­rique avec les smart­phones de dernière géné­ra­tion que dans le domaine de la vidéo avec les télé­vi­seurs 4K HDR. Seront évoqués les prin­cipes de la photo HDR ainsi que les défis à rele­ver pour leur acqui­si­tion.

Hervé Deleau
USE Toge­ther – un outil de travail colla­bo­ra­tif distant et sécu­risé dispo­nible au sein de l’URCA.

USE Toge­ther est un outil de partage d’écran déve­loppé dans le cadre d’une colla­bo­ra­tion entre l’Uni­ver­sité de Reims (équipe RVM du CReSTIC) et la société OpexMe­dia qui distri­bue désor­mais le produit.
Il s’agit d’un outil de partage d’écran distant orienté pour le « travail colla­bo­ra­tif », où chaque inter­ve­nant dispose de son propre curseur de souris afin de faci­li­ter les inter­ac­tions et ainsi offrir une expé­rience de colla­bo­ra­tion fluide.

Cette présen­ta­tion détaillera les méca­nismes de fonc­tion­ne­ment de USE Toge­ther et se termi­nera pas une démons­tra­tion des diffé­rentes possi­bi­li­tés propo­sées par cet outil.

Jour­née VISION, jeudi 23 novembre 2017

Posté par hdeleau le 14 septembre 2017.

Jour­née VISION

Visua­li­sa­tion Immer­sive et Simula­tion Interac­tive : les nouveaux outils de la modé­li­sa­tiON

La P3M et le Centre Image, s’as­so­cient pour orga­ni­ser le jeudi 23 novembre 2017 Amphi STAPS une jour­née scien­ti­fique autour de la visua­li­sa­tion scien­ti­fique, l’in­te­rac­tion et les nouvelles tech­no­lo­gies de visua­li­sa­tion.

Bien que le programme de la jour­née soit en cours de prépa­ra­tion, il est d’ores et déjà  prévu des démons­tra­tions de maté­riels de réali­tés virtuelles et diffé­rentes présen­ta­tions scien­ti­fiques. Pensez à réser­ver cette jour­née dans vos agen­das.

De plus, une session poster sera orga­ni­sée. Si vos thèmes de recherche sont en adéqua­tion avec ceux de la jour­née, n’hé­si­tez pas à nous contac­ter afin de parti­ci­per à cette session.

N’hé­si­tez pas à consul­ter régu­liè­re­ment le site pour de plus amples infor­ma­tions.

Inscrip­tion gratuite et obli­ga­toire (à faire avant le 13 novembre) : cliquez ici.

 

Présen­ta­tions de la jour­née :

  • 08h30–09h00 : Accueil
  • 09h00–09h15 : Bien­ve­nue
  • 09h15–10h00 : Guillaume Brin­cin – Travail Colla­bo­ra­tif et revue de projet en immer­sif
  • 10h00–10h15 : Présen­ta­tion Flash Poster
  • 10h15–11:00 : Pause café – Session Démons­tra­tions et Posters
  • 11h00–11h45 : Rémi Cozot – De l’ho­lo­gra­phie optique aux défis de l’ho­lo­gra­phie numé­rique
  • 11h45–12h15 : Hua Wong : Modé­li­sa­tion de la Matrice ExtraCel­lu­laire : Visua­li­sa­tion & inter­ac­tion en temps réel
  • 12h15–14h00 : Déjeu­ner – Session Démons­tra­tions et Posters
  • 14h00–14h30 : Joël Randria­nan­dra­sana : Rendu prédic­tif inter­ac­tif sur clus­ter hybrides multi-GPU
  • 14h30–15h15 : Marc Baaden et Xavier Marti­nez : Immer­sion dans la féérie des molé­cules avec UnityMol
  • 15h15–16h00 : Pause café – Session Démons­tra­tions et Posters
  • 16h00–16h30 : Stépha­nie Salmon : Angio­gra­phies céré­brales virtuelles
  • 16h30–17h00 : Jona­than Sarton et Nico­las Courilleau : Visua­li­sa­tion augmen­tée de grandes masses de données par une approche out-of-core entiè­re­ment basée GPU
  • 17h00–18h00 : Assem­blée Géné­rale – Retour d’ex­pé­rience

Sessions démons­tra­tions : HTC Vive, Holo­lens, Valyz, …

Affiche de la jour­née : jour­nee_CI_P3M

Programme détaillé : programme_CI_P3M

Khro­nos : spéci­fi­ca­tion d’OpenVX 1.1

Posté par hdeleau le 2 mai 2016.

OpenVX-logoLe groupe Khro­nos annonce la dispo­ni­bi­lité de la spéci­fi­ca­tion OpenVX 1.1. Il s’agit d’une biblio­thèque d’al­go­rithmes de vision par ordi­na­teur perfor­mante et opti­mi­sée pour la recon­nais­sance du visage, corps, suivi de geste, vidéo surveillance intel­li­gente, systèmes auto­ma­tiques d’as­sis­tance au conduc­teur, recons­truc­tion de scènes, réalité augmen­tée, inspec­tion visuelle, robo­tique, et bien plus encore.

Plus d’in­for­ma­tions sur la page dédiée à OpenVX du site Khro­nos :

https://www.khro­nos.org/news/press/khro­nos-releases-openvx-1–1-speci­fi­ca­tion

HPC Review France n°7

Posté par hdeleau le 16 mai 2015.

Le maga­­zine HPC Review n°7 (HPC Today) publie en page 45 la deuxième partie de l’ar­ticle « La réalité augmen­­tée avec Unity ».

Flux RSS | Flux Atom | Contact | HTML5 | Fièrement propulsé par WordPress