Reinforcement Learning

Un Cadre de Diagnostic Explicable pour les Démences Neurodégénératives par le Raisonnement de LLM Optimisé par Renforcement

Le diagnostic différentiel des démences neurodégénératives est une tâche clinique difficile, principalement en raison du chevauchement des présentations symptomatiques et de la similarité des schémas observés en neuroimagerie structurelle. Pour améliorer l'efficacité et la précision du diagnostic, des méthodes basées sur l'apprentissage profond, telles que les réseaux neuronaux convolutifs (Convolutional Neural Networks) et les transformeurs de vision (Vision Transformers), ont été proposées pour la classification automatique des IRM cérébrales. Cependant, malgré leurs solides performances prédictives, ces modèles ont une utilité clinique limitée en raison de leur prise de décision opaque. Dans ce travail, nous proposons un cadre qui intègre deux composants essentiels pour améliorer la transparence du diagnostic. Premièrement, nous introduisons un pipeline modulaire pour convertir les IRM cérébrales 3D pondérées en T1 en rapports radiologiques textuels. Deuxièmement, nous explorons le potentiel des grands modèles de langage (LLM) modernes pour aider les cliniciens dans le diagnostic différentiel entre les sous-types de démence frontotemporale, la maladie d'Alzheimer et le vieillissement normal, en se basant sur les rapports générés. Pour combler le fossé entre la précision prédictive et l'explicabilité, nous utilisons l'apprentissage par renforcement pour encourager le raisonnement diagnostique chez les LLM. Sans nécessiter de traces de raisonnement supervisées ou de distillation à partir de modèles plus grands, notre approche permet l'émergence de justifications diagnostiques structurées fondées sur les résultats de la neuroimagerie. Contrairement aux méthodes d'explicabilité post-hoc qui justifient rétrospectivement les décisions du modèle, notre cadre génère des justifications diagnostiques dans le cadre du processus d'inférence, produisant des explications fondées sur la causalité qui informent et guident le processus de prise de décision du modèle. Ce faisant, notre cadre égale les performances diagnostiques des méthodes d'apprentissage profond existantes tout en offrant des justifications qui étayent ses conclusions diagnostiques.

mai 26, 2025