Notre présentation au workshop Machine Learning for Health de NeurIPS 2020

Le projet de recherche des résidentes en pharmacie au CHU Sainte-Justine en 2020 était l’évaluation en pratique du modèle de machine learning visant l’identification d’ordonnances et de profils pharmacologiques inhabituels que nous avons développé. J’ai déjà parlé de ce modèle ici, l’élaboration et l’évaluation de ce modèle ont été présentés à la conférence Machine Learning for Healthcare 2020 et au Symposium IA Montréal 2020.

Essentiellement, pour l’identification d’ordonnances atypiques, ce modèle a montré une concordance assez mauvaise avec l’opinion de pharmaciens. Cependant, pour l’identification de profils pharmacologiques atypiques, la performance était bien meilleure. Les pharmaciens qui ont participé au projet avaient une opinion positive du modèle. Je crois que les résultats de ce projet démontrent le potentiel d’outils basés sur l’intelligence artificielle pour aider le pharmacien dans sa pratique clinique.

Un abstract étendu du projet a été accepté au workshop Machine Learning for Health (ML4H) de NeurIPS 2020 qui aura lieu le vendredi 11 décembre. Le texte complet de l’abstract est disponible sur arXiv. Un manuscrit complet décrivant le projet est en cours de révision pour publication.

Un réseau de neurones pour la prédiction d’ordonnances

Le même groupe qui a récemment publié une évaluation de leur système de prédiction d’ordonnances a aussi publié, quelques mois auparavant, un autre article décrivant une approche différente pour arriver au même résultat. L’article est disponible en texte complet sur PubMed Central. Un article similaire (probablement une version préliminaire) découlant d’un congrès avait aussi été publiée en 2019. Alors que leur approche originale était basée sur des statistiques de cooccurrence, ils ont utilisé ici une approche de réseaux de neurones avec une comparaison à une régression logistique. L’objectif de l’étude était de comparer la performance de ce type de modèle pour prédire les ordonnances placées par les cliniciens par rapport aux ensembles d’ordonnances (order sets) (donc, comparer les ordonnances recommandées par le système à celles présentes dans les order sets réellement utilisés pour le patient), comme c’est l’habitude dans presque tous les articles de ce groupe.

Toujours comme d’habitude pour ce groupe, une base de données de l’Université Stanford a été utilisée pour entraîner le modèle. Dans la présente étude, cette base de données a aussi été utilisée pour l’évaluation présentée dans l’étude, plutôt qu’une évaluation séparée sur des données collectées prospectivement. C’est donc une limite de l’étude. Le jeu de données a été divisé en partitions d’entraînement, de validation et de test de manière adéquate en s’assurant que les patients étaient inclus dans une seule partition et que la séquence temporelle entre les partitions était respectée. En effet, les partitions de validation et de test doivent contenir des données chronologiquement générées après celles de la partition d’entraînement afin que les évolutions de pratiques normales qui influencent les données dans une utilisation réelle d’un modèle soient reflétées dans l’évaluation. Dans le cas où ce n’est pas fait, on apprend au modèle ce qui va arriver dans le futur et cela gonfle artificiellement les métriques de performance.

Plusieurs données cliniques des patients disponibles dans le dossier électronique du centre (les prescriptions, les analyses de laboratoires, les codes de diagnostic, etc.) ont été utilisées en entrée du modèle. Ces données ont été simplifiées en 4 représentations temporelles (dans la dernière journée, dans les 7 derniers jours, dans les 30 derniers jours et depuis toujours) avec un pré-traitement adéquat. La sortie du modèle était la prescription de chaque élément d’ordonnance dans la journée suivante. Seuls les éléments d’ordonnance prescrits au moins 256 fois dans le jeu de données ont été inclus, pour une possibilité de 1639 possibilités incluses sur un total de 14914, mais représentant tout de même plus de 90% des ordonnances. Les auteurs ont aussi évalué la performance de prédiction de order sets entiers et pas seulement d’ordonnances individuelles (610 possibilités).

Un échantillon de données provenant de 57 624 patients a été utilisé pour l’entraînement. Les résultats incluent les aires sous la courbe ROC, mais il n’est pas très clair comment cet indicateur a été calculé puisque l’on est clairement dans une prédiction multi-classe et plusieurs façons de calculer cette mesure existent dans ce contexte. Les auteurs présentent la précision moyenne plutôt que l’aire sous la courbe précision-rappel, mais ce n’est pas trop clair pourquoi ils ne présentent pas les deux. La précision moyenne de la régression logistique était 0,176 et celle du réseau de neurones était 0,240. Dans le contexte de prédiction des order sets, la précision moyenne de la régression logistique était 0,118 alors que celle du réseau de neurones était 0,311.

L’article est bien écrit et le développement et l’évaluation du modèle suivent des pratiques adéquates. En particulier, la façon dont le jeu de données d’entraînement et d’évaluation du modèle a été divisé est excellente, ce qui n’est pas toujours le cas dans ce genre d’article. Malheureusement, cela demeure une évaluation sur une seule base de données de recherche sans évaluation prospective sur de nouvelles données, tel que réalisé dans l’autre étude. De plus, la performance est loin d’être spectaculaire.

Bref, c’est une étude intéressante et bien construite, mais il reste encore beaucoup de chemin à faire. Je suis encouragé de voir de la nouvelle littérature sur des applications concrètes d’intelligence artificielle dans des domaines touchant le travail du pharmacien.

Évaluation d’un système de prédiction d’ordonnances pour remplacer la recherche manuelle lors de prescription électronique

Un groupe de l’Université Stanford aux États-Unis a publié dans le JAMIA d’octobre 2020 une étude randomisée ouverte décrivant une évaluation de leur système de prédiction et de recommandation d’ordonnances. Le même article avait fait l’objet d’une pré-publication sur medRxiv en février 2020. J’avais très brièvement parlé des travaux de ce groupe en août 2019, principalement parce que leurs publications majeures dataient déjà de quelques années, mais il semble qu’ils se remettent à publier. Je parlerai plus tard d’autres travaux récents de ce groupe.

L’objectif de l’étude était de comparer les ordonnances faites par des médecins dans 5 situations cliniques simulées de médecine interne, en utilisant le système de prédiction et recommandation d’ordonnances comparativement à la pratique standard, soit une barre de recherche classique. L’issue primaire était le score d’adéquation clinique (une cote de -10 à +10 attribuée à chaque ordonnance, un score plus élevé indiquant une ordonnance plus appropriée) des ordonnances tel que coté par un panel de 4 médecins ayant évalué chaque ordonnance émise par les participants à l’étude. Les scores ont d’abord été établis indépendamment par chaque membre du panel puis les divergences ont été résolues par consensus. Les issues secondaires étaient essentiellement des façons différentes d’évaluer les scores et la correspondance des résultats de recherche aux ordonnances placées. Un sondage après la participation à l’étude a aussi été réalisé. Les participants étaient randomisés de manière à ce que 3 des 5 scénarios choisis au hasard pour chaque participant utilisent le système et 2 la recherche classique. Chaque scénario était programmé de manière à ce que le patient s’améliore avec des ordonnances adéquates et se détériore avec des ordonnances inadéquates.

L’outil de prédiction et recommandation d’ordonnances est un système basé sur des statistiques de cooccurrence qui apprend quelles ordonnances sont statistiquement probables en fonction d’ordonnances qui ont déjà été placées pour un patient. Ce modèle a été entraîné à partir d’une base de données comportant des ordonnances placées entre 2009 et 2014. Les prédictions du système étaient affichées à l’utilisateur après que celui-ci ait placé des ordonnances pour le patient, de manière à offrir d’emblée des recommandations d’ordonnances contextuellement appropriées plutôt que laisser l’utilisateur chercher dans l’ensemble des ordonnances disponibles à l’aide d’une barre de recherche. Des captures d’écran sont disponibles dans l’article.

43 médecins avec une expérience médiane de 3 ans (24 résidents et 19 patrons) ont participé à l’étude entre octobre 2018 et décembre 2019. Le score médian des ordonnances était de 6.2, avec une médiane de 6.5 dans le groupe avec le système de prédiction comparativement à une médiane de 6.0 dans le groupe avec recherche classique, une différence non statistiquement significative. Parmi les issues secondaires, un note un nombre total d’ordonnance plus élevé (15 contre 16, intervalle de confiance 95% 1,01-1,17), un score total plus élevé (82 contre 91, intervalle de confiance 1,01-1,12) et un nombre de clics plus faible (56 contre 49, intervalle de confiance 0,83-0,99) ont été observés dans le groupe avec le système de recommandation. Les participants à l’étude avaient une opinion positive du système, la plupart trouvant qu’un tel outil serait utile dans un contexte clinique où plusieurs ordonnances doivent être placées simultanément.

Je trouve cette étude très intéressante. J’aurais été quand même surpris de voir des ordonnances de meilleure qualité en utilisant le système, il s’agissait quand même de situations cliniques relativement communes pour lesquelles il est probable que les participants à l’étude savaient très bien ce qui devait être prescrit et étaient peu susceptibles de prescrire des choses très inadéquates. Il me semble donc ambitieux que les auteurs se soient attendus à de meilleures ordonnances avec leur système, d’autant plus que sa performance telle que décrite dans la publication originale en 2016 était correcte, mais pas spectaculaire. Je suis content de voir une diminution du nombre de clics avec le système de prédiction, indiquant des résultats de recherche améliorés, cependant l’effet semble quand même modeste. Ce résultat est probablement largement dépendant de la configuration du système de prescription. Par exemple, des ordonnances pré-rédigées bien conçues pour ces situations cliniques pourraient, j’imagine, réduire drastiquement le nombre de clics, c’est un peu étrange que la discussion en parle peu sachant que ce groupe s’est beaucoup intéressé aux order sets dans le passé.

J’ai l’impression que l’avantage principal d’un tel système pourrait être non pas d’impacter significativement la qualité des ordonnances, mais plutôt de réduire le risque de commettre des erreurs de prescription de type « look-alike » en sélectionnant des options erronées dans des résultats de recherche basés sur des chaînes de caractères. En effet, si le système peut privilégier les résultats contextuellement appropriés, les ordonnances peu applicables au contexte pourraient être placées plus bas dans les résultats, même si la chaîne recherchée s’y trouve, ou du moins être accompagnées d’un avertissement. Évidemment, ce genre d’erreur est rare et il est donc probablement difficile de démontrer un avantage dans une étude à petite échelle. Cependant, dans une étude de simulation, il pourrait être possible d’élaborer un scénario où le risque de choisir une ordonnance inappropriée mais d’apparence similaire est plus élevé. Bref, je pense que malgré les résultats peu convaincants de cet article, l’approche présentée a du potentiel et ne devrait pas être écartée.