Stage - Modélisation de l’espace latent pour les modèles de Deep Learning utilisés en segmentation d’instances H/F
Rejoignez-nous pour accompagner le monde de demain !
Contexte
Des travaux de recherche sont menés depuis plusieurs années au sein du département Science des Données et Incertitudes sur l’évaluation des incertitudes associées aux prédictions des algorithmes d’apprentissage. Une thèse portant sur deux sources d’incertitude (incertitude prédictive induite par l’incertitude des entrées [Monchot et al., 2023] et incertitude dite de répétabilité correspondant à l’incertitude liée au réentraînement du même réseau) a été soutenue fin 2023.
À présent, nos efforts se portent sur l’incertitude du jeu de données d’entraînement et plus spécifiquement l’incertitude d’échantillonnage afin de cadrer notamment le domaine de validité des modèles d'apprentissage profond. Dans la littérature scientifique actuelle, le recours à la géométrie différentielle pour représenter les données et l'utilisation de modèles génératifs (VAEs, GANs, modèles de Diffusion, modèles basés sur les flux, etc.) sont prédominants. À titre d'exemple, Chadebec et Allassonnière [2022] proposent un échantillonnage par HMC (Hamiltonian Monte Carlo) de la distribution uniforme dérivée intrinsèquement de l’espace latent riemannien appris par un VAE comme nouvelle approche d'augmentation de données. Les travaux de Wu et Pan [2025], quant à eux, suggèrent d'utiliser un modèle de mélange Gaussien comme prior dans l’espace latent du VAE. Ces contributions récentes témoignent de l’importance de repenser la modélisation latente comme un espace structuré, où la géométrie peut jouer un rôle central dans la définition du domaine de validité et la quantification de l'incertitude d'échantillonnage notamment.
Pour se faire, le(a) stagiaire identifiera les approches les plus pertinentes de l’état de l’art pour modéliser l’espace de représentation latent et implémentera les méthodes sélectionnées afin de réaliser une première comparaison numérique. L’application industrielle attachée à ces développements est la segmentation d’instances de particules à partir de mesures en microscopie électronique à balayage.
Missions
Intégré(e) au sein du département Science des Données et Incertitudes, les développements à réaliser au cours de ce stage s’articulent de la manière suivante :
- Étude bibliographique des méthodes à l’état de l’art pour modéliser l’espace de représentation latent des données d’entraînement adaptée aux tâches de segmentation d’instances
- Sélection et implémentation des différentes méthodes
- Génération de nouveaux échantillons à partir des différentes approches et évaluation de la robustesse des modèles de segmentation d’instances utilisés en interne
- Rédiger un rapport scientifique synthétisant vos résultats
- Fournir les codes Python développés
Profil
Étudiant(e) en M2 ou en dernière année d'école d'ingénieur, spécialisé(e) en mathématiques ou statistiques appliquées.
Doté(e) d'une forte curiosité scientifique et d’un goût pour le travail en équipe, vous souhaitez mettre en œuvre et enrichir vos compétences en apprentissage automatique.
La maîtrise du langage de programmation Python est essentielle et la connaissance de PyTorch et des librairies couramment utilisées dans le domaine du Deep Learning est évidemment souhaitée.
Ce stage pourra donner lieu à une thèse.
Gratification
1280 € brut/mois pour une formation Bac +5.
Références
[1] Monchot, P., Coquelin, L., Petit, S. J., Marmin, S., Le Pennec, E., & Fischer, N. (2023). Input uncertainty propagation through trained neural networks. In International Conference on Machine Learning 2023.
[2] Chadebec, C., & Allassonnière, S. (2022). A geometric perspective on variational autoencoders. Advances in neural information processing systems, 35, 19618-19630.
[3] Wu, P., & Pan, L. (2025). Deep unsupervised clustering by information maximization on Gaussian mixture autoencoders. Information Sciences, 122215.
- Département
- Ingénierie / R & D / Essais / Mesures
- Localisations
- LNE Trappes
- Type de contrat
- Stage
- Durée du contrat
- 1 à 6 mois
- Télétravail
- Non
