Faisabilité générale et technique
Ce projet s’inscrit dans la continuité du fablab neuroanatomie initié dans le service d’anatomie (Dominique Hasboun). Il est basé sur l’utilisation d’une chaine d’outils numériques qui permettent de concevoir un modèle d’anatomie tridimensionnelle à partir d’images de scanner et d’IRM.
1) Acquisition des images radiologiques IRM et scannerX
Les acquisitions sont réalisées dans le Service de Neuroradiologie des HU Pitié-Salpêtrière – Charles Foix Pr Didier Dormont et traitées par le Dr StéphanieTrunet (PH) le Dr Nadya Pyatigorskaya (CCA) et Dominique Hasboun (MCU PH).
Le scanner X sera réalisé en séquence haute résolution et reconstruction en 100 µm. Cette résolution va permettre de mettre en évidence des détails anatomiques inaccessibles directement en imagerie il y a quelques années. La reconstruction en sera fortement améliorée et précise.
2) Segmentation et exportation
Cette étape fournit un modèle 3D de tous les éléments de la région anatomique étudiée.
Chaque objet est segmenté individuellement. Il est alors manipulable individuellement. Les logiciels libres FreeSurfer pour l’IRM, seg3D2 ou ITKsnap pour le scannerX seront utilisés. Les segmentations sont contrôlables en 3D avec Slicer3D. Cette étape sera réalisée par J. Barbut et D. Hasboun. Une stagiaire plein temps en neurosciences s’y adjoindra (Marion Dudziki).
3) Traitement graphique
Cette étape sera réalisée par le graphiste M. Masure. Chaque objet généré sera contrôlé et retouché si besoin en particulier avec le logiciel meshmixer qui permet de modifier interactivement les maillages. Dans un second temps, ils seront mappés pour obtenir un rendu réaliste (aspects de muqueuse, muscle nerf etc.)
4) Intégration dans un univers Unity 3D
Cette étape sera réalisée par Sébastien Levron spécialisé dans la programmation des jeux 3D et la réalité virtuelle. Unity 3D permet de créer un univers complet dans lequel l’utilisateur peut se déplacer et interagir.
5) Création de l’interactivité
La programmation des évènements médiés par l’utilisateur via le smartphone inséré dans le système de lunettes virtuelles soit par des capteurs supplémentaires de type kinect (microsoft) permet de gérer les déplacements et interactions avec l’environnement.
6) Chaine de traitement pour l’impression 3Dpour l’impression :
Une suite de logiciels est utilisée pour contrôler la qualité du maillage (mesh) et vérifier sa compatibilité : absence de trous et de repliements.
De nombreuses variantes plus ou moins complètes et complexes de ces objets seront manipulables par les étudiants
7) Utilisation directe en amphithéâtre ou par un étudiant
Les objets ainsi obtenus (dès l’étape 2) seront exportés pour un player HTML5. Ils seront utilisables directement par les enseignants et les étudiants. Ce player a déjà fait l’objet d’un développement au cours d’un précédant stage de Sébastien Levron.
G. Calendrier
Calendrier estimé par les intervenants en fonction des devis transmis
L’ensemble des traitements et l’installation du matériel d’impression et de la chaine de traitement sont réalisés dans l’année qui suit l’acceptation du projet comme prévu dans l’appel à projet.
Commentaires récents