Centre Image
Plateau Technique

Jour­nées 2021 du GTAS Anima­tion et Simu­la­tion du GdR IG-RV

Posté par hdeleau le 9 juin 2021.

Les jour­nées 2021 du GTAS Anima­tion et Simu­la­tion du GdR IG-RV (https://gdr-igrv.icube.unis­tra.fr/index.php/GT_Anima­tion_et_Simu­la­tion) se dérou­le­ront en présen­tiel les 5 et 6 juillet sur le campus de l’IUT de Reims.

Programme

Lundi 5 juillet :

12h – Accueil au bâti­ment T salle 22 (2éme étage)

12h – Déjeu­ner sur place (inscrip­tion obli­ga­toire)

13h30 – Présen­ta­tions en Amphi Y4

Maud Lastic, LIX, Ecole poly­tech­nique, IP Paris, Simu­la­tion visuelle de panaches et coulées pyro­clas­tiques pour des volcans virtuels

Léon Victor, SAARA/LIRIS, Lear­ning‐­ba­sed pose edition for effi­cient and inter­ac­tive design

Hervé Deleau, Centre Image, Reims,Capture de mouve­ment au Centre Image de l’Uni­ver­sité de Reims Cham­pagne-Ardenne

15h – Pause

15h15 – Atelier Péda­go­gique de l’ani­ma­tion et simu­la­tion (Nico­las Castagne, Alexandre Meyer, Stépha­nie Prévost)

16h15 – Présen­ta­tions

Mathieu Desbrun, Inria / Ecole Poly­tech­nique, Carl Braun Profes­sor, on leave from Caltech, New trends in fluid anima­tion

Xiao­fang Wang, LICIIS, Reims, 3D Human Shape Recons­truc­tion and Pose Esti­ma­tion From a Single Depth Image Via Deep DoubleU­net Corres­pon­dences

17h45 Fin de la jour­née

20h – Dîner au centre-ville de Reims (inscrip­tion obli­ga­toire)

Mardi 6 juillet :

9h – Présen­ta­tions en Amphi Y4

Mehdi-Antoine Mahfoudi, SAARA / LIRIS / SpirOPS, Survey on the crite­ria provi­ding expres­si­vity in human gestures: enume­ra­tion, quan­ti­fi­ca­tion and vali­da­tion

Chris­tophe Lino, LIX, Ecole poly­tech­nique, Scéna­ri­sa­tion de trajec­toire de drones au-dessus des villes

Lucie Naert, IRISA, équipe Expres­sion, Synthèse de mouve­ment pour les avatars signeurs

10h30 – Pause

10h45 – Focus IA et MoCap (Céline Loscos, Xiao­fang Wang, Hervé Deleau)

12h – Déjeu­ner sur place (inscrip­tion obli­ga­toire) en T22

13h30 – Présen­ta­tions en Amphi Y4

Benoit Crépin, XLIM, Univer­sité de Limoges, Particle-based nume­ri­cal mode­ling of a thin granu­lar layer subjec­ted to oscil­la­ting flow

Maxime Gran­di­dier, UTC, Softly: Simu­la­ted Empa­thic Touch between an Agent and a Human

Baptiste Wojt­kowski, UTC, La place de la réalité augmen­tée dans le véhi­cule haute­ment auto­ma­tisé

15h30 – Atelier Bilan & Pers­pec­tives (Nico­las Castagne, Caro­line Larbou­lette)

16h30 – Fin des jour­nées

Inscrip­tions obli­ga­toires (présen­tiel)

https://colloques.univ-reims.fr/colloque/inscrip­tionE­ta­pe1.jsp?locale=fr&semId=GTAS-2021

Accès distan­ciel

L’ac­cès en distan­ciel se fera sur un accueil zoom sans son ni vidéo pour les parti­ci­pants en distan­ciel. Seule la retrans­mis­sion du présen­tiel est prévu. Si vous souhai­tez accé­der aux présen­ta­tions, vous pouvez y accé­der par les liens zoom prévus pour chaque demi-jour­née. Vous serez mis en salle d’at­tente. Merci d’in­diquer votre nom et votre affi­lia­tion pour être admis à la confé­rence. En cas de diffi­culté, merci de contac­ter celine.loscos_at_univ-reims.fr.

Lundi 5 juillet 13h30–18h30 (le bon cette fois-çi) :

https://univ-reims-fr.zoom.us/j/97655336790?pwd=TVNpUS9CdFFNdndWUGtZT1VhODQzZz09

Mardi 6 juillet 9h-12h : https://univ-reims-fr.zoom.us/j/94797327139?pwd=SFFCbWU4UmMyZG5pOU5VbmJWNnJlQT09

Mardi 6 juillet 13h30–16h30 : https://univ-reims-fr.zoom.us/j/97093834472?pwd=TmoxKzA­rejV6WmJ1c3RUM3BBQjNJQT09

Appel à propo­si­tion (clos) :

Merci d’adres­ser SVP vos propo­si­tions de présen­ta­tion (nom et affi­lia­tion de l’ora­teur/trice, durée souhai­tée, titre, auteurs, quelques mots clés, un court résumé) par mail à : 

caro­line.larbou­lette_at_univ-ubs.fr,
nico­las.castagne_at_grenoble-inp.fr,
celine.loscos_at_univ-reims.fr

Suivant la dyna­mique des précé­dents GTAS, les Jour­nées équi­li­bre­ront :

  • des présen­ta­tions de résul­tats ou pers­pec­tives récents en AS (récents articles, avan­cées réali­sées par des docto­rants…) ;
  • des présen­ta­tions à « large spectre » (thèmes & accom­plis­se­ments d’équipes, projets collec­tifs, vues sur les problé­ma­tiques ou défis de l’AS, etc.), notam­ment par des perma­nents, pour mettre à jour notre connais­sance parta­gée du paysage de l’AS.

En sus de tous les thèmes du GTAS, 2 « moments focus » sont propo­sés cette année :

  • Une session sur le thème « MOCAP / IA en Anima­tion et Simu­la­tion »
  • Un atelier-discus­sion sur le thème « ensei­gne­ment de l’AS et usage de l’AS en ensei­gne­ment » – retours d’ex­pé­rience souhai­tés de quelques minutes pour ouvrir la discus­sion.

Merci de spéci­fier dans votre propo­si­tion si vous souhai­tez parti­ci­per à l’un de ces axes. 

Nous souhai­te­rions enfin qu’un petit moment artis­tique partage une ou deux œuvres en lien avec les théma­tiques GTAS (vidéo, ou perfor­mance, ou …). Merci de nous trans­mettre vos propo­si­tions à ce sujet.

Au-delà de ces moda­li­tés propo­sées, la convi­via­lité de la jour­née GTAS permet qu’elle soit ouverte à tout format. Nous contac­ter !

Moda­li­tés pratiques

La parti­ci­pa­tion aux jour­nées GTAS 2021 est gratuite ; une contri­bu­tion est deman­dée pour les repas (déjeu­ner et dîner) sur inscrip­tion. Une inscrip­tion aux repas du midi sera obli­ga­toire pour pouvoir en béné­fi­cier.

Un soutien finan­cier pourra être proposé pour aider à quelques missions pour des équipes qui pour­raient diffi­ci­le­ment prendre en charge une mission complète. Nous contac­ter. 

Accès en train à la gare Reims centre ou Cham­pagne-Ardenne TGV. Hôtel dans le centre de Reims conseillé pour lundi soir.  Depuis le centre-ville, le bus numéro 3 est direct jusqu’à l’IUT – termi­nus du bus. Les présen­ta­tions se tien­dront dans l’am­phi­théâtre Y4 de l’IUT. 

Amphi Y4 : https://goo.gl/maps/cjDPFCStKYD3US1dA (présen­ta­tions)

Bâti­ment T : à gauche de l’Am­phi Y4 sur la carte d’ac­cès ci-dessous (accueil du lundi et repas).

Bâti­ment K : https://goo.gl/maps/RYzcUbpfgKW­cyJrt5

Arrêt du bus : https://goo.gl/maps/iaMpVGQM1i56Ud5X9

Infor­ma­tions pratiques :

Tourisme :https://www.reims-tourisme.com/

Hôtels : https://www.reims-tourisme.com/heber­ge­ments

Bus : https://www.citura.fr/fr/…/03-mauren­cienne-moulin-de-la-housse/3/moulin-housse/1?Keyword­sLine=3

Billet de bus : https://www.citura.fr/fr/tarifs/7/Fare/ticket-1h/1?Frequency=THM_FARE_2

Contraintes sani­taires 

Les contraintes sani­taires seront respec­tées. Les présen­ta­tions auront lieu dans un amphi­théâtre dans lequel la distan­cia­tion physique pourra être respec­tée. Les déjeu­ner seront pris dans un espace aménagé en exté­rieur (couvert) sous la forme de plateaux repas indi­vi­duels. Le soir un espace exté­rieur sera réservé dans un restau­rant du centre-ville.

Carte d’ac­cès 

Contact : celine.loscos_at_univ-reims.fr

Écran Looking Glass 8K

Posté par hdeleau le 13 octobre 2020.

Dans le cadre du projet VINI-CI émar­geant dans FFCA, grâce à des finan­ce­ments issus du CPER 2015–2020 et à de la région Grand-Est, le Centre Image a pu acqué­rir un écran auto-stéréo­sco­pique 32″ 8K à 45 points de vue.

Cet écran permet de voir en relief (3D) de façon non inva­sif (sans port de lunette ou casque). Ses 45 points de vue assurent une percep­tion conti­nue de la scène affi­chée et ne génère aucun incon­fort visuel pour l’uti­li­sa­teur.

Visua­li­sa­tion de la tête de Lothaire.

Il peut-être utili­ser dans de nombreux domaines en péda­go­gie comme en recherche. Des logi­ciels, comme Maes­tro et Pymol (issus de la suite Schro­din­ger), le logi­ciel Para­view de chez Kitware, ainsi que 3DSli­cer (pour l’ima­ge­rie médi­cale) proposent déjà la gestion native de l’écran.

Pour le déve­lop­pe­ment d’ap­pli­ca­tions, diffé­rentes SDK (C/C++, Unity, three.js, Unreal Engine et VTK de chez Kitware) sont dispo­nibles.

Cet écran est un outil de visua­li­sa­tion immer­sive permet­tant le travail colla­bo­ra­tif tout en respec­tant les contraintes sani­taires actuelles.

Sortie de Mesh­room 2020.1.0

Posté par hdeleau le 9 octobre 2020.

Le célèbre logi­ciel de photo­gram­mé­trie, libre et open-source, sort en version 2020.1.0.

Les sources sont dispo­nibles sur le site github :
https://github.com/alice­vi­sion/mesh­room

Les binaires sont dispo­nibles sur le site d’Ali­ce­vi­sion :
https://alice­vi­sion.org/#mesh­room

Soute­nance de thèse : Analyse d’images nucléaires dans un contexte multi­mo­dal et multi­tem­po­rel

Posté par hdeleau le 10 septembre 2019.

Ce vendredi 13 septembre à 14h aura lieu la soute­nance de thèse de Fran­cisco Alva­rez Padilla. Amphi­théâtre 2 – IUT de Reims.

Compo­si­tion du Jury :

  • M. Bertrand Kerau­tret, Profes­seur des Univer­si­tés, Univer­sité Louis Lumière Lyon 2, Rappor­teur
  • M. Antoine Vaca­vant, Maître de Confé­rences, Univer­sité Cler­mont Auvergne, Rappor­teur
  • M. Hugues Talbot, Profes­seur, École Centrale Paris, Exami­na­teur
  • Mme Barbara Roma­niuk, Maître de Confé­rences, Univer­sité de Reims Cham­pagne-Ardenne, Exami­na­teur
  • Mme Stépha­nie Servagi-Vernat, Maître de Confé­rences – Prati­cien Hospi­ta­lier, Insti­tut Jean Godi­not, Exami­na­teur
  • M. Benoît Naegel, Maître de Confé­rences, Univer­sité de Stras­bourg, Invité
  • M. Dimi­tri Papa­tha­nas­siou, Profes­seur des Univer­si­tés – Prati­cien Hospi­ta­lier, Univer­sité de Reims Cham­pagne-Ardenne, Direc­teur
  • M. Nico­las Passat, Profes­seur des Univer­si­tés, Univer­sité de Reims Cham­pagne-Ardenne, Co-Direc­teur

Résumé :

Les travaux de cette thèse portent sur la propo­si­tion de stra­té­gies de segmen­ta­tion des tumeurs cancé­reuses dans un contexte multi­mo­dal et multi­tem­po­rel. La multi­mo­da­lité fait réfé­rence au couplage de données TEP/TDM pour exploi­ter conjoin­te­ment les deux sources d’in­for­ma­tion pour amélio­rer les perfor­mances de la segmen­ta­tion. La multi­tem­po­ra­lité fait réfé­rence à la dispo­si­tion des images acquises à diffé­rents dates, ce qui limite une corres­pon­dance spatiale possible entre elles. Dans une première méthode, une struc­ture arbo­res­cente est utili­sée pour trai­ter et pour extraire des infor­ma­tions afin d’ali­men­ter une segmen­ta­tion par marche aléa­toire. Un ensemble d’at­tri­buts est utilisé pour carac­té­ri­ser les nœuds de l’arbre, puis le filtrer et proje­ter des infor­ma­tions afin de créer une image vecto­rielle. Un marcheur aléa­toire guidé par les données vecto­rielles prove­nant de l’arbre est utilisé pour étique­ter les voxels à des fins de segmen­ta­tion.
La deuxième méthode traite le problème de la multi­tem­po­ra­lité en modi­fiant le para­digme de voxel à voxel par celui de nœud à nœud. Deux arbres sont alors modé­li­sés à partir de la TEP et de la TDM avec injec­tion de contraste pour compa­rer leurs nœuds par une diffé­rence entre leurs attri­buts et ainsi corres­pondre à ceux consi­dé­rés comme simi­laires en suppri­mant ceux qui ne le sont pas. Dans une troi­sième méthode, qui est une exten­sion de la première, l’arbre calculé à partir de l’image est direc­te­ment utilisé pour mettre en œuvre l’al­go­rithme déve­loppé. Une struc­ture arbo­res­cente est construite sur la TEP, puis les données TDM sont proje­tées sur l’arbre en tant qu’in­for­ma­tions contex­tuelles. Un algo­rithme de stabi­lité de nœud est appliqué afin de détec­ter et d’éla­guer les nœuds instables. Des graines, extraites de la TEP, sont proje­tées dans l’arbre pour four­nir des étiquettes (pour la tumeur et le fond) à ses nœuds corres­pon­dants et les propa­ger au sein de la hiérar­chie. Les régions évaluées comme incer­taines sont soumises à une méthode de marche aléa­toire vecto­rielle pour complé­ter l’étique­tage de l’arbre et finir la segmen­ta­tion.

Soute­nance de thèse : Visua­li­sa­tion et trai­te­ments inter­ac­tifs de grilles régu­lières 3D haute-réso­lu­tion virtua­li­sées sur GPU : Appli­ca­tion aux données biomé­di­cales pour la micro­sco­pie virtuelle en envi­ron­ne­ment HPC.

Posté par hdeleau le 29 août 2019.

Ce jeudi a eu lieu la soute­­nance de thèse de Nico­las Courilleau qui a ainsi obtenu le grade de docteur.

Nous lui adres­­sons toutes nos féli­­ci­­ta­­tions.

Compo­si­tion du Jury :

M. Min Hyuk Kim, Chair Profes­sor, KAIST, Daejeon, South Korea, Rappor­teur
M. Jean-Luc Mari, Profes­seur, Aix-Marseille Univer­sité, Rappor­teur
M. Chris­tophe Renaud, Profes­seur, Univer­sité du Litto­ral Côte d’Opale, Exami­na­teur
M. Vincent Nozick, Maître de confé­rences, Univer­sité Paris-Est Marne-la-Vallée, Exami­na­teur
M. Gilles Mergoil, Président de Neoxia, Paris, Invité
M. Laurent Lucas, Profes­seur, Univer­sité de Reims Cham­pagne-Ardenne, Co-direc­teur
M. Yannick Remion, Profes­seur, Univer­sité de Reims Cham­pagne-Ardenne, Co-direc­teur

RÉSUMÉ :

La visua­li­sa­tion de données est un aspect impor­tant de la recherche scien­ti­fique dans de nombreux domaines. Elle permet d’ai­der à comprendre les phéno­mènes obser­vés voire simu­lés et d’en extraire des infor­ma­tions à des fins notam­ment de vali­da­tions expé­ri­men­tales ou tout simple­ment pour de la revue de projet. Nous nous inté­res­sons dans le cadre de cette étude docto­rale à la visua­li­sa­tion de données volu­miques en image­rie médi­cale et biomé­di­cale, obte­nues grâce à des appa­reils d’ac­qui­si­tion géné­rant des champs scalaires ou vecto­riels repré­sen­tés sous forme de grilles régu­lières 3D. La taille crois­sante des données, due à la préci­sion gran­dis­sante des appa­reils d’ac­qui­si­tion, impose d’adap­ter les algo­rithmes de visua­li­sa­tion afin de pouvoir gérer de telles volu­mé­tries. De plus, les GPUs utili­sés en visua­li­sa­tion de données volu­miques, se trou­vant être parti­cu­liè­re­ment adap­tés à ces problé­ma­tiques, disposent d’une quan­tité de mémoire très limi­tée compa­rée aux données à visua­li­ser. La ques­tion se pose alors de savoir comment disso­cier les unités de calculs, permet­tant la visua­li­sa­tion, de celles de stockage. Les algo­rithmes se basant sur le prin­cipe dit « out-of-core » sont les solu­tions permet­tant de gérer de larges ensembles de données volu­miques.

Dans cette thèse, nous propo­sons un pipe­line complet permet­tant de visua­li­ser et de trai­ter, en temps réel sur GPU, des volumes de données dépas­sant très large­ment les capa­ci­tés mémoires des CPU et GPU. L’in­té­rêt de notre pipe­line provient de son approche de gestion de données « out-of-core » permet­tant de virtua­li­ser la mémoire qui se trouve être parti­cu­liè­re­ment adap­tée aux données volu­miques. De plus, cette approche repose sur une struc­ture d’adres­sage virtuel entiè­re­ment gérée et main­te­nue sur GPU. Nous vali­dons notre modèle grâce à plusieurs appli­ca­tions de visua­li­sa­tion et de trai­te­ment en temps réel. Tout d’abord, nous propo­sons un micro­scope virtuel inter­ac­tif permet­tant la visua­li­sa­tion 3D auto-stéréo­sco­pique de piles d’images haute réso­lu­tion. Puis nous vali­dons l’adap­ta­bi­lité de notre struc­ture à tous types de données grâce à un micro­scope virtuel multi­mo­dale. Enfin, nous démon­trons les capa­ci­tés multi-rôles de notre struc­ture grâce à une appli­ca­tion de visua­li­sa­tion et de trai­te­ment concou­rant en temps réel.

Flux RSS | Flux Atom | Contact | HTML5 | Fièrement propulsé par WordPress