Keywords : Deep Learning, Computer Vision, Detection, Segmentation, Medical Imaging, Supervised and semi-supervised Approaches
Durée : 5-6 mois.
Période de démarrage : Février-mars 2025
Rémunération : ~ 600 euros/mois
Contexte
Nous avons développé une nouvelle méthode d’imagerie échographie 3D pour l’enfant prématuré [1] permettant notamment de visualiser le développement des structures cérébrales au cours du temps. Par rapport à l’IRM, l’examen échographique présente l’avantage d’être réalisé au lit de l’enfant, il est également applicable à tous les enfants car chaque centre de néonatologie possèdent un échographe et l’examen peut même être répété 3 à 5 fois pendant le séjour de l’enfant. C’est ce dernier point que nous voulons développer pour obtenir des courbes d’évolution des structures cérébrales car aucun outil n’existe à ce jour en échographie. Dans ce projet, nous nous intéresserons principalement à l’évolution des ventricules latéraux (CVS), des thalami et des lésions de la matière blanche (PWML) sur des enfants ayant eu 3 examens échographiques définis aux 3 temps SA33, SA35 et SA37 (SA : Semaines d’Aménorrhées).
Objectif
Le but de ce stage est d’étudier puis de développer des modèles d’apprentissage automatique pour le suivi des structures cérébrales, en utilisant des modèles supervisés pour la segmentation (ex : Swin-UNet [2], TransU-Net [3]] ou Mask R-CNN [4]) et entrainés pour chaque temps d’examen (approche statique supervisée). Dans l’idée d’alléger l’annotation du médecin pour chaque structure , on propose d’aborder une approche dynamique semi-supervisée inspirée des méthodes de segmentation de séquences vidéos [5]. Ces méthodes dites VOS (Video Object Segmentation) basées sur les transformeurs ont été développées pour la mise en correspondance des pixels entre l’image (frame) de référence avec l’image cible (Query frame) atteignant de très bonnes performances [5].
Tout au long du processus de développement, une démarche d’IA écoresponsable sera suivie [6].
Déroulement
1/ Bibliographie, compréhension des méthodes actuelles d’apprentissage supervisées et semi-supervisées pour la segmentation de structures cérébrales. Compréhension et analyse des images de la base de données.
2/ Développement et programmation de 2 méthodes adaptées à l’application visée. On commencera par appliquer les méthodes choisies sur les images, puis sur des volumes en fonction de l’avancement.
3/ Validation sur la base de données d’échographie 3D de CREATIS.
4/ Rédaction d’un document de synthèse en anglais (rapport) et rédaction d’une publication en fonction de l’avancement.
Compétences requises
Machine et Deep Learning, détection d’anomalies, segmentation
Langages de programmation et librairies : Python, Tensorflow/PyTorch, Scikit-Learn
Environnement de travail : Linux, Windows
Autonomie et goût pour le travail dans un environnement interdisciplinaire
Encadrement et contacts
Philippe Delachartre (delachartre@creatis.insa-lyon.fr )
Valentine Warnier Dauchelle (valentine.wargnier@creatis.insa-lyon.fr )
Carole Lartizien (carole.lartizien@creatis.insa-lyon.fr)
[1] Matthieu Martin, Bruno Sciolla, Michaël Sdika, Philippe Quétin, Philippe Delachartre, Automatic segmentation and location learning of neonatal cerebral ventricles in 3D ultrasound data combining CNN and CPPN, Computers in Biology and Medicine, Volume 131, 2021, 104268, ISSN 0010-4825, https://doi.org/10.1016/j.compbiomed.2021.104268.
[2] Cao, Hu, et al. "Swin-unet: Unet-like pure transformer for medical image segmentation." European conference on computer vision. Cham: Springer Nature Switzerland, 2022.
[3] F. Estermann, V. Kaftandjian, P. Guy, P. Quetin and P. Delachartre, "Vision Transformer and Multiview Classification for Lesion Detection in 3D Cranial Ultrasound," 2023 IEEE International Ultrasonics Symposium (IUS), Montreal, QC, Canada, 2023, pp. 1-5, doi: 10.1109/IUS51837.2023.10306345.
[4] He, Kaiming, et al. "Mask r-cnn." Proceedings of the IEEE international conference on computer vision. 2017.
[5] Ho Kei Cheng, Seoung Wug Oh, Brian Price, Joon-Young Lee, Alexander Schwing; Putting the Object Back into Video Object Segmentation. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2024, pp. 3151-3161.
[6] Dilhac, M.‐A., Abrassart, C., Voarino, N., et al. (2018b). Rapport de la déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Technical report, IA responsable.