Centre Image
Plateau Technique

USE Toge­ther 2.2 est dispo­nible

Posté par hdeleau le 22 novembre 2019.

Le logi­ciel de travail colla­bo­ra­tif avec partage d’écran et de la voix est dispo­nible en version 2.2. Le serveur de signa­li­sa­tion de l’Uni­ver­sité de Reims a été mis à jour et accepte désor­mais cette nouvelle version.

We’re exci­ted to unveil some of the features and impro­ve­ments we’ve been working on lately:

✂️ Shared clip­board, copy/paste text and images from/to the shared screen seam­lessly (only the app client is suppor­ted for now)
👤 Sign in with GitHub
🖥 Retina image quality support on macOS (can be enabled in prefe­rences)
💅 Session tool­bar polish, the app client has now the same kind of tool­bar, less confir­ma­tion dialogs
🎤 Fixed multiple audio issues on Windows and macOS

USE Toge­ther 2.2 is avai­lable now with all these! Check out the full chan­ge­log here.
Update to the latest version from within the app or down­load it:

Down­load

Happy screen sharing 🙂

Julien from the USE Toge­ther team

Mots-clés : ,

Jour­née scien­ti­fique « R.E.IM.S », le 20 novembre 2019

Posté par hdeleau le 17 octobre 2019.

Le Centre Image orga­nise le mercredi 20 novembre 2019, la jour­née R.E.IM.S (Réalité Et IMmersion en Sciences). Cette jour­née scien­ti­fique, autour de la visua­li­sa­tion, l’in­te­rac­tion et les nouvelles tech­no­lo­gies, se dérou­lera en Amphi 1 de l’UFR Science.

Le programme est en cours de fina­li­sa­tion, mais pensez à réser­ver cette jour­née dans vos agen­das.

N’hé­si­tez pas à consul­ter régu­liè­re­ment le site pour de plus amples infor­ma­tions.

Inscrip­tion gratuite et obli­ga­toire (à faire avant le 07 novembre) : Cliquez ici

Télé­char­ge­ment de l’af­fiche : R.E.IM.S 2019
















  • 09h00 Accueil
  • 09h30 Frank Multon, Profes­seur, INRIA, Univer­sité de Rennes 2
    Surface based Motion Retar­ge­ting by Preser­ving Spatial Rela­tion­ship.
  • 10h20 Jessica Jonquet, MCF, MEDyC, URCA
    Réalité Augmen­tée pour la modé­li­sa­tion molé­cu­laire.
  • 10h50 Pause
  • 11h10 Jérôme Dubois, Ingé­nieur Cher­cheur, CEA
    Highly Effi­cient Control­led Hierar­chi­cal Data Reduc­tion tech­niques for Inte­rac­tive Visua­li­za­tion of Massive Simu­la­tion Data.
  • 12h00 Repas
  • 13h30 Éric Desjar­din, MCF, CReSTIC/RVM, URCA
    Acqui­si­tion par la photo­gram­mé­trie.
  • 14h00 Phil­lipe Porral, Président d’Uni­ted VISUAL RESEARCHERS
    Concep­tion de l’Ap­pa­rence Assis­tée par Ordi­na­teur. Image­rie de synthèse Iso-Photo­gra­phique.
  • 14h50 Julien Gerhards, IGR, CReSTIC/RVM, URCA
    Limites et avan­tages des algo­rithmes de recons­truc­tion HDR.
  • 15h20 Hervé Deleau, IGR, Centre Image, URCA
    USE Toge­ther – un outil de travail colla­bo­ra­tif distant et sécu­risé dispo­nible au sein de l’URCA.
  • 16h00 Fin

Résumé des présen­ta­tions

Frank Multon
Surface based Motion Retar­ge­ting by Preser­ving Spatial Rela­tion­ship.

Retar­ge­ting a motion from a source to a target charac­ter is an impor­tant problem in compu­ter anima­tion, as it allows to reuse exis­ting rigged data­bases or trans­fer motion capture to virtual charac­ters. Previous work
mainly focu­sed on retar­ge­ting skele­ton anima­tions whereas the contex­tual meaning of the motion is mainly linked to the rela­tion­ship between body surfaces, such as the contact of the palm with the belly. In this presen­ta­tion we will address two possible contri­bu­tions to over­come this limi­ta­tion.

The first one consists in propo­sing a new context-aware motion retar­ge­ting frame­work, based on defor­ming a target charac­ter to mimic a source charac­ter poses using harmo­nic mapping. We also intro­duce the idea of Context Graph: mode­ling local inter­ac­tions between surfaces of the source charac­ter, to be preser­ved in the target charac­ter, in order to ensure fi delity of the pose. In this approach, no rigging is requi­red as we directly mani­pu­late the surfaces, which makes the process totally auto­ma­tic. Our results demons­trate the rele­vance of this auto­ma­tic rigging-less approach on motions with
complex contacts and inter­ac­tions between the charac­ter’s surface.

The second contri­bu­tion consists in inves­ti­ga­ting whether shape trans­fer instead of pose trans­fer would better preserve the origi­nal contex­tual meaning of the source pose. To this end, we propose an opti­mi­za­tion-based method to deform the source shape+­pose using three main energy func­tions: simi­la­rity to the target shape, body part volume preser­va­tion, and colli­sion mana­ge­ment (preserve exis­ting contacts and prevent pene­tra­tions). The results show that our method is able to retar­get complex poses, inclu­ding seve­ral contacts, to very different morpho­lo­gies. In parti­cu­lar, we intro­duce new contacts that are linked to the change in morpho­logy, and which would be diffi­cult to obtain with previous works based on pose trans­fer that aim at distance preser­va­tion between body parts. These preli­mi­nary results are encou­ra­ging and open seve­ral pers­pec­tives, such as decrea­sing compu­ta­tion time, and better unders­tan­ding how to model pose and shape constraints.

Jessica Jonquet
Réalité Augmen­tée pour la modé­li­sa­tion molé­cu­laire.

Ce projet vise à déve­lop­per le concept « d’im­pres­sion 3D augmen­tée » pour le domaine de la biolo­gie, de la phar­ma­cie (drug design) et de la méde­cine. La visua­li­sa­tion infor­ma­tique est un moyen essen­tiel de repré­sen­ter des objets biolo­giques afin de comprendre et expliquer des systèmes plus complexes. Cepen­dant, mani­pu­ler un objet physique a beau­coup plus de richesse percep­tuelle que la visua­li­sa­tion et l’in­te­rac­tion, même immer­sive. Nous propo­sons d’uti­li­ser la molé­cule impri­mée comme inter­face tangible et d’y super­po­ser la visua­li­sa­tion scien­ti­fique. En couplant systèmes de RA, impres­sion 3D et visua­li­sa­tion scien­ti­fique, nous souhai­tons conce­voir un outil colla­bo­ra­tif de visua­li­sa­tion scien­ti­fique évolu­tive et d’ana­lyse visuelle. Ce cadre, dédié à la fois aux biolo­gistes expé­ri­men­ta­teurs et aux théo­ri­ciens, permet­tra une inter­pré­ta­tion inter­ac­tive des molé­cules favo­ri­sant l’échange entre chimistes, physi­ciens et biolo­gistes.

Jérôme Dubois
Highly Effi­cient Control­led Hierar­chi­cal Data Reduc­tion tech­niques for Inte­rac­tive Visua­li­za­tion of Massive Simu­la­tion Data. (pptx)

With the constant increase in compute power of super­com­pu­ters, high perfor­mance compu­ting simu­la­tions are produ­cing higher fide­lity results and possi­bly massive amounts of data. To keep visua­li­za­tion of such results inter­ac­tive, exis­ting tech­niques such as Adap­tive Mesh Refi­ne­ment (AMR) can be of use. In parti­cu­lar, Tree-Based AMR methods (TB-AMR) are wides­pread in simu­la­tions and are beco­ming more present in gene­ral purpose visua­li­za­tion pipe­lines such as VTK. In this work, we show how TB-AMR data struc­tures could lead to more effi­cient explo­ra­tion of massive data sets in the Exas­cale era. We discuss how algo­rithms (filters) should be desi­gned to take advan­tage of tree-like data struc­tures for both data filte­ring or rende­ring. By intro­du­cing control­led hierar­chi­cal data reduc­tion we greatly reduce the proces­sing time for exis­ting algo­rithms, some­times with no visual impact, and dras­ti­cally decrease explo­ra­tion time for analysts. Also thanks to the tech­niques and imple­men­ta­tions we propose, visua­li­za­tion of very large data is made possible on very constrai­ned resources. These ideas are illus­tra­ted on million to billion-scale native TB-AMR or resam­pled meshes, with the HyperT­reeG­rid object and asso­cia­ted filters we have recently opti­mi­zed and made avai­lable in the Visua­li­sa­tion Tool­kit (VTK) for use by the scien­ti­fic commu­nity.

Éric Desjar­din
Acqui­si­tion par la photo­gram­mé­trie. Image­rie de synthèse Iso-Photo­gra­phique. (pdf sans la vidéo)

Phil­lipe Porral
Concep­tion de l’Ap­pa­rence Assis­tée par Ordi­na­teur.

Dans notre vie quoti­dienne, mais aussi dans le monde acadé­mique et indus­triel, l’in­for­ma­tique graphique et en parti­cu­lier l’ima­ge­rie de synthèse sont de plus en plus présentes.
Ces créa­tions numé­riques offrent aux utili­sa­teurs et aux consom­ma­teurs les repré­sen­ta­tions d’une « réalité » inven­tée, dispa­rue ou à venir, se présen­tant sous forme d’illus­tra­tions visuelles plau­sibles.
En se posi­tion­nant dans cadre d’ac­ti­vi­tés pour lesquelles les resti­tu­tions visuelles sont cruciales pour prendre des déci­sions, nous présen­tons le concept de :

Concep­tion de l’Apparence Assisté par Ordina­teur
CA20

  1. En iden­ti­fiant les insuf­fi­sances des outils et méthodes tradi­tion­nels.
  2. En présen­tant les éléments scien­ti­fiques et les tech­niques néces­saires à mettre en œuvre pour assu­rer une réelle confiance dans les résul­tats.

Julien Gerhards
Limites et avan­tages des algo­rithmes de recons­truc­tion HDR. (pdf)

L’ima­ge­rie à haute dyna­mique, High Dyna­mic Range, est une tendance qui s’ins­talle dura­ble­ment dans l’in­dus­trie, aussi bien dans la photo numé­rique avec les smart­phones de dernière géné­ra­tion que dans le domaine de la vidéo avec les télé­vi­seurs 4K HDR. Seront évoqués les prin­cipes de la photo HDR ainsi que les défis à rele­ver pour leur acqui­si­tion.

Hervé Deleau
USE Toge­ther – un outil de travail colla­bo­ra­tif distant et sécu­risé dispo­nible au sein de l’URCA.

USE Toge­ther est un outil de partage d’écran déve­loppé dans le cadre d’une colla­bo­ra­tion entre l’Uni­ver­sité de Reims (équipe RVM du CReSTIC) et la société OpexMe­dia qui distri­bue désor­mais le produit.
Il s’agit d’un outil de partage d’écran distant orienté pour le « travail colla­bo­ra­tif », où chaque inter­ve­nant dispose de son propre curseur de souris afin de faci­li­ter les inter­ac­tions et ainsi offrir une expé­rience de colla­bo­ra­tion fluide.

Cette présen­ta­tion détaillera les méca­nismes de fonc­tion­ne­ment de USE Toge­ther et se termi­nera pas une démons­tra­tion des diffé­rentes possi­bi­li­tés propo­sées par cet outil.

Soute­nance de thèse : Analyse d’images nucléaires dans un contexte multi­mo­dal et multi­tem­po­rel

Posté par hdeleau le 10 septembre 2019.

Ce vendredi 13 septembre à 14h aura lieu la soute­nance de thèse de Fran­cisco Alva­rez Padilla. Amphi­théâtre 2 – IUT de Reims.

Compo­si­tion du Jury :

  • M. Bertrand Kerau­tret, Profes­seur des Univer­si­tés, Univer­sité Louis Lumière Lyon 2, Rappor­teur
  • M. Antoine Vaca­vant, Maître de Confé­rences, Univer­sité Cler­mont Auvergne, Rappor­teur
  • M. Hugues Talbot, Profes­seur, École Centrale Paris, Exami­na­teur
  • Mme Barbara Roma­niuk, Maître de Confé­rences, Univer­sité de Reims Cham­pagne-Ardenne, Exami­na­teur
  • Mme Stépha­nie Servagi-Vernat, Maître de Confé­rences – Prati­cien Hospi­ta­lier, Insti­tut Jean Godi­not, Exami­na­teur
  • M. Benoît Naegel, Maître de Confé­rences, Univer­sité de Stras­bourg, Invité
  • M. Dimi­tri Papa­tha­nas­siou, Profes­seur des Univer­si­tés – Prati­cien Hospi­ta­lier, Univer­sité de Reims Cham­pagne-Ardenne, Direc­teur
  • M. Nico­las Passat, Profes­seur des Univer­si­tés, Univer­sité de Reims Cham­pagne-Ardenne, Co-Direc­teur

Résumé :

Les travaux de cette thèse portent sur la propo­si­tion de stra­té­gies de segmen­ta­tion des tumeurs cancé­reuses dans un contexte multi­mo­dal et multi­tem­po­rel. La multi­mo­da­lité fait réfé­rence au couplage de données TEP/TDM pour exploi­ter conjoin­te­ment les deux sources d’in­for­ma­tion pour amélio­rer les perfor­mances de la segmen­ta­tion. La multi­tem­po­ra­lité fait réfé­rence à la dispo­si­tion des images acquises à diffé­rents dates, ce qui limite une corres­pon­dance spatiale possible entre elles. Dans une première méthode, une struc­ture arbo­res­cente est utili­sée pour trai­ter et pour extraire des infor­ma­tions afin d’ali­men­ter une segmen­ta­tion par marche aléa­toire. Un ensemble d’at­tri­buts est utilisé pour carac­té­ri­ser les nœuds de l’arbre, puis le filtrer et proje­ter des infor­ma­tions afin de créer une image vecto­rielle. Un marcheur aléa­toire guidé par les données vecto­rielles prove­nant de l’arbre est utilisé pour étique­ter les voxels à des fins de segmen­ta­tion.
La deuxième méthode traite le problème de la multi­tem­po­ra­lité en modi­fiant le para­digme de voxel à voxel par celui de nœud à nœud. Deux arbres sont alors modé­li­sés à partir de la TEP et de la TDM avec injec­tion de contraste pour compa­rer leurs nœuds par une diffé­rence entre leurs attri­buts et ainsi corres­pondre à ceux consi­dé­rés comme simi­laires en suppri­mant ceux qui ne le sont pas. Dans une troi­sième méthode, qui est une exten­sion de la première, l’arbre calculé à partir de l’image est direc­te­ment utilisé pour mettre en œuvre l’al­go­rithme déve­loppé. Une struc­ture arbo­res­cente est construite sur la TEP, puis les données TDM sont proje­tées sur l’arbre en tant qu’in­for­ma­tions contex­tuelles. Un algo­rithme de stabi­lité de nœud est appliqué afin de détec­ter et d’éla­guer les nœuds instables. Des graines, extraites de la TEP, sont proje­tées dans l’arbre pour four­nir des étiquettes (pour la tumeur et le fond) à ses nœuds corres­pon­dants et les propa­ger au sein de la hiérar­chie. Les régions évaluées comme incer­taines sont soumises à une méthode de marche aléa­toire vecto­rielle pour complé­ter l’étique­tage de l’arbre et finir la segmen­ta­tion.

Soute­nance de thèse : Visua­li­sa­tion et trai­te­ments inter­ac­tifs de grilles régu­lières 3D haute-réso­lu­tion virtua­li­sées sur GPU : Appli­ca­tion aux données biomé­di­cales pour la micro­sco­pie virtuelle en envi­ron­ne­ment HPC.

Posté par hdeleau le 29 août 2019.

Ce jeudi a eu lieu la soute­­nance de thèse de Nico­las Courilleau qui a ainsi obtenu le grade de docteur.

Nous lui adres­­sons toutes nos féli­­ci­­ta­­tions.

Compo­si­tion du Jury :

M. Min Hyuk Kim, Chair Profes­sor, KAIST, Daejeon, South Korea, Rappor­teur
M. Jean-Luc Mari, Profes­seur, Aix-Marseille Univer­sité, Rappor­teur
M. Chris­tophe Renaud, Profes­seur, Univer­sité du Litto­ral Côte d’Opale, Exami­na­teur
M. Vincent Nozick, Maître de confé­rences, Univer­sité Paris-Est Marne-la-Vallée, Exami­na­teur
M. Gilles Mergoil, Président de Neoxia, Paris, Invité
M. Laurent Lucas, Profes­seur, Univer­sité de Reims Cham­pagne-Ardenne, Co-direc­teur
M. Yannick Remion, Profes­seur, Univer­sité de Reims Cham­pagne-Ardenne, Co-direc­teur

RÉSUMÉ :

La visua­li­sa­tion de données est un aspect impor­tant de la recherche scien­ti­fique dans de nombreux domaines. Elle permet d’ai­der à comprendre les phéno­mènes obser­vés voire simu­lés et d’en extraire des infor­ma­tions à des fins notam­ment de vali­da­tions expé­ri­men­tales ou tout simple­ment pour de la revue de projet. Nous nous inté­res­sons dans le cadre de cette étude docto­rale à la visua­li­sa­tion de données volu­miques en image­rie médi­cale et biomé­di­cale, obte­nues grâce à des appa­reils d’ac­qui­si­tion géné­rant des champs scalaires ou vecto­riels repré­sen­tés sous forme de grilles régu­lières 3D. La taille crois­sante des données, due à la préci­sion gran­dis­sante des appa­reils d’ac­qui­si­tion, impose d’adap­ter les algo­rithmes de visua­li­sa­tion afin de pouvoir gérer de telles volu­mé­tries. De plus, les GPUs utili­sés en visua­li­sa­tion de données volu­miques, se trou­vant être parti­cu­liè­re­ment adap­tés à ces problé­ma­tiques, disposent d’une quan­tité de mémoire très limi­tée compa­rée aux données à visua­li­ser. La ques­tion se pose alors de savoir comment disso­cier les unités de calculs, permet­tant la visua­li­sa­tion, de celles de stockage. Les algo­rithmes se basant sur le prin­cipe dit « out-of-core » sont les solu­tions permet­tant de gérer de larges ensembles de données volu­miques.

Dans cette thèse, nous propo­sons un pipe­line complet permet­tant de visua­li­ser et de trai­ter, en temps réel sur GPU, des volumes de données dépas­sant très large­ment les capa­ci­tés mémoires des CPU et GPU. L’in­té­rêt de notre pipe­line provient de son approche de gestion de données « out-of-core » permet­tant de virtua­li­ser la mémoire qui se trouve être parti­cu­liè­re­ment adap­tée aux données volu­miques. De plus, cette approche repose sur une struc­ture d’adres­sage virtuel entiè­re­ment gérée et main­te­nue sur GPU. Nous vali­dons notre modèle grâce à plusieurs appli­ca­tions de visua­li­sa­tion et de trai­te­ment en temps réel. Tout d’abord, nous propo­sons un micro­scope virtuel inter­ac­tif permet­tant la visua­li­sa­tion 3D auto-stéréo­sco­pique de piles d’images haute réso­lu­tion. Puis nous vali­dons l’adap­ta­bi­lité de notre struc­ture à tous types de données grâce à un micro­scope virtuel multi­mo­dale. Enfin, nous démon­trons les capa­ci­tés multi-rôles de notre struc­ture grâce à une appli­ca­tion de visua­li­sa­tion et de trai­te­ment concou­rant en temps réel.

Nvidia PhysX devient Open Source et sortie de la version 4.0 le 20 décembre.

Posté par hdeleau le 4 décembre 2018.

À l’ori­gine PhysX est un moteur physique déve­loppé par AGEIA Tech­no­lo­gies. Il est passé dans les mains de Nvidia il y a une dixième d’an­née, après son acqui­si­tion d’AGEIA Tech­no­lo­gies

Aujourd’­hui PhysX 3.4 change de licence (BSD) pour s’ou­vrir plus faci­le­ment au calcul scien­ti­fique.

Notons aussi la sortie très prochaine de PhysX 4.0 annon­cée pour le 20 décembre.

 

 

 

 

Plus d’in­fos sur PhysX à l’adresse suivante : https://deve­lo­per.nvidia.com/physx-sdk

 

Une petite vidéo de l’ap­port de préci­sion de PhysX 4.0 est à voir ici : https://www.youtube.com/watch?v=K1rotb­zekf0

Mots-clés : , , ,
Flux RSS | Flux Atom | Contact | HTML5 | Fièrement propulsé par WordPress