Séminaire : Séminaire de Michele Linardi

Jeudi 20 février

Publié le – Mis à jour le

Nous aurons un séminaire du laboratoire le jeudi 20 février à 14h en salle 023
Notre orateur sera Michele Linardi, MCF au laboratoire ETIS et enseignant à l'IUT de Cergy-Pontoise. 
Vous trouverez le résumé de sa présentation ci-dessous. 

——————————————————————————————————————

We will be holding a laboratory seminar on Thursday 20 February at 2pm in room 023
Our speaker will be Michele Linardi, MCF at the ETIS laboratory and lecturer at the IUT of Cergy-Pontoise. 
You will find a summary of his presentation below. 

——————————————————————————————————————

Résumé

Dans ma présentation, je vous parlerai de mon projet de recherche nommé EDEM (Explication de modèles d’apprentissage profond (Deep Learning) appliqués aux images (multi et hyper) spectrales dans le domaine de l’Agritech). Le projet a commencé en début d'année 2025. À cette occasion, je discuterai de certains résultats préliminaires et des enjeux de recherche dans l'application de l'Explicabilité en télédétection.

Abstract du projet EDEM (Project ANR JCJC)


Les modèles d'apprentissage profond (DL) sont aujourd'hui les techniques les plus adoptées et les plus performantes pour la cartographie agricole dans l'imagerie acquise par les satellites. Bien qu'efficaces, les modèles DL sont souvent utilisés comme des boîtes noires en raison de leur complexité. Ce manque de transparence constitue un obstacle à l'adoption de ces technologies par les utilisateurs finaux. Ces dernières années, plusieurs techniques d'apprentissage automatique explicable (xAI) ont été proposées afin de fournir une approche descriptive plus solide des algorithmes d'apprentissage profond (DL), permettant aux utilisateurs d'accroître leur confiance en la sortie du modèle. La méthode xAI la plus récurrente repose sur l'attribution de pertinence (Relevance Attribution), où des scores d'importance sont attribués à chaque feature en fonction de son importance pour la prédiction du modèle. 
Dans le cadre du projet, nous souhaitons proposer des nouveaux algorithmes d'explicabilité (xAI) qui visent à produire des scores d'importance intégrant une sémantique causale sur la prise de décisions de modèles en fonction de la variabilité de la distribution des données. Dans notre travail, nous validons l'utilité des explications proposées en utilisant des ensembles de données de référence disponibles publiquement, y compris des données spécifiques à la France.