Machine learning non supervisé pour la détection d’anomalies dans les prescriptions de médicaments

Je crois beaucoup au potentiel de l’intelligence artificielle pour aider le pharmacien dans son travail de validation d’ordonnances. Le sujet n’est certainement pas parmi les plus populaires dans la littérature sur les applications de l’intelligence artificielle en santé mais on voit que l’analyse d’ordonnances de médicaments revient régulièrement dans les nouvelles publications. Un nouvel article d’une équipe du Brésil discute de ce sujet.

L’objectifs des chercheurs était d’identifier des combinaisons médicament-voie-fréquence atypiques (outliers) de manière non-supervisée, c’est-à-dire sans que les données fournies au modèle n’indiquent à l’avance si une ordonnance est atypique ou non. À cette fin, un nouvel algorithme a été développé permettant de représenter les ordonnances de chaque médicament à l’aide d’un vecteur bi-dimensionnel incorporant la dose et la fréquence. Un graphe est construit à partir des prescriptions d’un médicament ainsi représentées, l’objectif étant d’attribuer à chaque prescription un score de « centralité » indiquant à quel point la combinaison dose-fréquence est commune par rapport à l’historique des prescriptions de ce médicament. Après analyse par l’algorithme, un seuil attribué à chaque médicament permet de séparer les combinaisons dose-fréquence typiques de celles atypiques.

Le modèle a été développé et testé sur des données d’un hôpital brésilien collectées entre janvier et septembre 2017 à partir du prescripteur électronique de l’établissement. 2 millions d’ordonnances pour 16 000 patients sont incluses dans la banque de données. Les médicaments sont représentés en nom générique, et les doses et fréquences de médicaments ont été standardisées pour l’analyse. Les médicaments avec moins de 1000 occurrences dans l’historique de prescription ont été exclus. Des doses quotidiennes minimales et maximales ont été extraites de banques de données commerciales sur les médicaments; les médicaments sans ces données ont été exclus de l’analyse.

563 171 ordonnances pour 51 médicaments ont été inclus dans le jeu de données final. La section des résultats de l’article montre des images faciles à interpréter expliquant comment l’algorithme caractérise les combinaisons de dose et de fréquence pour un médicament et où sont les combinaisons atypiques. De même, un échantillon de 150 000 ordonnances pour 21 médicaments est disponible sur le GitHub du projet.

Les limites de doses extraites des banques de données ont été utilisées pour caractériser la performance du modèle pour identifier les surdosages et sous-dosages. L’algorithme développé par les auteurs a été comparé à 5 modèles « standards » pour la détection de outliers. La performance a été analysée à l’aide du score F1, une mesure de classification prenant en compte le fait que les ordonnances atypiques sont bien moins fréquentes que les ordonnances typiques.

Les résultats montrent que l’algorithme proposé par les auteurs offre la meilleure performance, se classant parmi les 3 meilleurs algorithmes pour la détection des dosages atypiques pour 31 des 51 médicaments, avec un score F1 de 0.68. Les méthodes classiques se sont avérées moins performantes sauf les forêts d’isolation avec un classement parmi les meilleurs 3 algorithmes pour 26/51 médicaments et un score F1 de 0.61. L’algorithme s’est aussi avéré plus stable lors de variation de ses paramètres d’entraînement.

Les auteurs notent que leur algorithme était vulnérable à des erreurs de dosage par rapport au choix de produit pharmaceutique, par exemple une prescription d’amlodipine en comprimés de 10 mg pour une dose de 5 mg, alors qu’il existe des comprimés de 5 mg. Ceci semble davantage être un symptôme de la configuration du système (j’en parlais en 2016) qui demande au prescripteur de choisir un produit plutôt qu’une molécule. On note aussi des détections d’atypicité pour des dosages impossibles selon la forme, comme 88 mcg de lévothyroxine avec des comprimés de 100 mcg, ainsi que des vraies détections de dosages atypiques (méropénem 2g une fois par jour, allopurinol 600 mg une fois par jour). Les auteurs notent que les médicament dont le dosage est intrinsèquement plus variable comme le chlorure de potassium oral, ou la carbamazépine par exemple, montraient une performance moins bonne.

Les auteurs indiquent que leur approche ne permet pas la prise en compte des doses en fonction du poids. Ceci affecte la généralisation d’une telle approche. Par exemple, dans un contexte d’hôpital avec une bonne proportion de patients pédiatriques, la plupart des médicaments peuvent être dosés en fonction du poids ou de la surface corporelle en plus de doses fixes pour les patients plus vieux ou les adultes, ce qui complexifie la tâche.

Je trouve cette étude très intéressante car elle rejoint mes propres intérêts de recherche. Je m’intéresse davantage à la détection de médicaments atypiques dans le contexte des autres médicaments d’un patient, tandis que cette étude s’intéresse au dosage d’un médicament en lien avec le médicament lui-même, indépendamment des autres médicaments actifs. Ceci ressemble aux travaux de Allen Flynn. Je trouve un peu étrange que cette nouvelle étude ne cite pas ces publications, qui ont sensiblement un objectif similaire malgré des méthodes un peu différentes. En tout cas, il y a définitivement un besoin pour ces deux volets d’analyse d’ordonnances automatisée, et cette étude est un pas de plus dans la bonne direction.

Charge de travail et performance des services pharmaceutiques

Plusieurs articles récents discutent du rôle du pharmacien en distribution et en services pharmaceutiques, ce que je trouve positif après un bon bout de temps avec peu de choses intéressantes dans la littérature. Un nouvel article provenant de Taiwan publié à la fin avril discute de la charge de travail de pharmaciens en distribution. Cette étude est une analyse secondaire de données collectées dans le cadre d’une étude observationnelle réalisée précédemment.

L’objectif de l’étude était d’examiner l’effet de la charge de travail de dispensation sur les taux d’erreurs médicamenteuse et sur les interventions pharmaceutiques, dans deux hôpitaux académiques taïwanais totalisant 6300 lits. Le début de l’article décrit le contexte de pratique des pharmaciens taïwanais et est intéressant à lire; il est quand même passablement différent du notre:

  • Il n’y a pas de techniciens ou d’assistants, tout le travail de dispensation est fait par des pharmaciens.
  • Les pharmaciens ont un incitatif financier à faire des interventions avec un montant offert par suggestion par rapport à une prescription. On pourrait comparer cela à l’opinion pharmaceutique en pharmacie communautaire au Québec, à la différence que ceci semble s’appliquer à la pratique hospitalière dans leur contexte.
  • Les pharmaciens ont une pénalité à leur évaluation de performance lorsqu’une erreur de dispensation n’est pas rapportée.

On comprend donc que le contexte de pratique rend les résultats plus difficiles à extrapoler à l’Amérique du Nord, il reste que la relation entre charge de travail, erreurs et interventions pourrait être similaire dans notre milieu.

Les hôpitaux à l’étude utilisaient un système de prescription électronique avec aide à la décision durant l’étude. Les erreurs de dispensation et les interventions des pharmaciens étaient toutes compilées prospectivement dans un logiciel. Le nombre de prescriptions traitées par pharmacien par mois entre 2012 et 2018 a été calculé. De même, le nombre de suggestions par 10 000 prescriptions par mois et le nombre d’erreurs de dispensation par 10 000 prescriptions par mois ont été extraits. La relation entre la charge de travail et les interventions et les erreurs a été analysée de manière à tenir compte de la corrélation entre les mois successifs dans un hôpital. Un terme d’interaction entre le temps et le centre a aussi été inclus dans l’analyse et deux périodes temporelles (2012-2015 et 2016-2018) ont été comparées.

L’étude a inclus des données provenant de 394 ± 17 pharmaciens par mois, avec une moyenne de 463 587 ± 32 898 prescriptions par mois. Les auteurs ont calculé une moyenne de 52 ± 3 prescriptions par jour par pharmacien. La moyenne de suggestions était de 1410 ± 324 par mois et la moyenne d’erreurs était de 388 ± 112 par mois. Les auteurs calculent 30 ± 7 suggestions et 8 ± 2 erreurs par 10 000 prescriptions. L’analyse a montré une association négative entre la charge de travail et le taux de suggestion, peu importe que la suggestion ait été acceptée ou non et peu importe si la source de l’intervention était une alerte du système électronique ou non. La magnitude de l’effet était une diminution de 2% du taux d’intervention pour chaque prescription par jour de plus traitée par un pharmacien. Donc, une charge de travail accrue menait à moins de suggestions. Il y avait cependant une association positive pour le sous-type de suggestions reliées aux erreurs d’entrées: plus la charge de travail augmentait, plus les pharmaciens devaient intervenir pour corriger des erreurs d’entrées. On observe aussi une association négative entre la charge de travail et le taux d’erreurs, un résultat potentiellement expliqué par la difficulté d’effectuer une déclaration dans un contexte de charge de travail élevée, même si le pharmacien s’en trouve pénalisé. On note que les auteurs ont observé un effet du temps sur la relation entre la charge de travail et les erreurs: l’effet était négatif de 2012 à 2015 et positif de 2016 à 2018. La charge de travail mensuelle par pharmacien a diminué entre ces deux périodes, permettant potentiellement aux pharmaciens de déclarer davantage.

On note dans cette étude que les auteurs mentionnent une limite imposée de 40 prescriptions par pharmacien par jour à l’hôpital ou 70 prescriptions par pharmacien par jour en externe. Ces chiffres ne me semblent n’avoir aucune ressemblance avec les charges de travail que l’on calcule ici, du moins en établissement de santé. Il y a probablement un effet de l’absence de techniciens et également des différences de définitions qui mènent à cet écart. Les auteurs discutent d’une augmentation du taux d’interventions observé à travers les années de l’étude, potentiellement lié à un changement du profil de la clientèle desservie et à une diminution globale de la charge de travail par pharmacien.

Malgré le contexte très différent duquel les données de cette étude proviennent, je pense qu’on peut en tirer des leçons. On voit que le contrôle de la charge de travail des pharmaciens a un impact sur la capacité d’intervenir et sur les erreurs, ou du moins sur la capacité de déclarer celles-ci. Il est dommage que les auteurs n’aient pas discuté de l’apport de pharmaciens travaillant en soins pharmaceutiques sur la charge de travail en distribution, car on peut facilement imaginer que cela aurait un impact. Du moins, les résultats viennent supporter le fait que les pharmaciens travaillant en pratique clinique ne devraient pas avoir une charge importante en validation d’ordonnance de façon concomitante pour optimiser leur capacité d’intervention.

Impact de la complexité d’une ordonnance sur son temps de validation

Cette étude avait pour objectif de caractériser le temps passé par des pharmaciens à valider 30 dyades courantes de médicament et voie d’administration en relation avec la complexité de ces ordonnances, dans une optique d’évaluer si le fait de ne plus exiger la vérifications d’ordonnances « simples » permettrait d’épargner du temps aux pharmaciens.

L’étude a été menée dans un centre académique tertiaire de 1000 lits situé aux États-Unis. Les pharmaciens travaillaient des quarts de travail de 8 heures et procédaient à la vérification des ordonnances de façon mixte avec d’autres activités comme la réponse à des questions téléphoniques et la vérification contenant-contenu des produits dispensés. À noter que l’établissement utilisait un dossier patient électronique intégré moderne et les pharmaciens travaillaient dans le module de pharmacie de ce système. Les chercheurs ont d’abord développé une classification d’ordonnances en catégories simple, modérée et complexe. Puis, ils ont implanté une technologie de capture d’écran pour suivre le travail des pharmaciens, et enfin ils ont extrapolé les données collectées à l’ensemble du volume d’activité de vérification d’ordonnances pour estimer le temps passé à valider chaque catégorie d’ordonnances.

La classification de la complexité des ordonnances était basée sur trois critères:

  • La présence sur la liste d’alerte élevée d’ISMP.
  • Le niveau « d’atypicité » de l’ordonnance basé sur la variabilité des doses et fréquences prescrites pour une combinaison de médicament + voie d’administration.
  • Le niveau de complexité cognitive de la validation des 30 dyades médicament + voie d’administration tel que déterminé par un sondage mené auprès des 60 pharmaciens du centre (27 ayant répondu).

Les résultats des dyades pour ces 3 critères ont été utilisés pour effectuer une classification par consensus en niveaux de complexité. Le logiciel de capture d’écran a été utilisé pour enregistrer le processus de validation de 12 pharmaciens expérimentés travaillant à la validation d’ordonnances et calculer le temps nécessaire à la validation. Chaque médicament a été observé 30 fois pour obtenir une puissance suffisante. Les vérifications d’ordonnances où il était possible que le pharmacien ait été interrompu (tel que déterminé par l’inactivité de la souris) ont été exclues et remplacées dans le jeu de données.

Un modèle de régression linéaire mixte a été utilisé pour comparer les temps de vérifications entre les ordonnances hautement complexes et faiblement complexes, modérément complexes et hautement complexes, et modérément complexes et faiblement complexes. L’analyse a pris en compte les mesures répétées pour un même pharmacien et les corrélations entre observations. Une analyse de sensibilité a aussi été menée en excluant deux antibiotiques qui se sont avérés aberrants dans leur groupe de complexité.

Les médicaments hautement complexes avait un temps de validation de 18,6 ± 23,1 secondes, les ordonnances modérément complexes un temps de 23,7 ± 23,3 secondes, et les ordonnances faiblement complexes un temps de 8,0 ± 14,4 secondes. L’analyse n’a pas démontré de différence statistiquement significative entre ces temps. L’analyse de sensibilité excluant la céfazoline et la pipéracilline + tazobactam qui avaient des temps de validation très longs malgré leur classification à faible complexité, a démontré une différence statistiquement significative entre les médicaments à haute complexité et ceux à faible complexité.

Les auteurs concluent que l’exclusion des médicaments à faible complexité de la validation des ordonnances par un pharmacien permettrait de récupérer 196 heures de temps de travail par année par pharmacien, temps qui pourrait être assigné à des activités avec davantage de valeur ajoutée. Cependant, en excluant la céfazoline dont les résultats s’apparentaient davantage à un médicament à complexité élevée, le temps récupéré diminue à 82 heures par année.

Je trouve cet article intéressant car il ramène dans l’actualité le sujet du temps passé par les pharmaciens à effectuer de la vérification prospective d’ordonnances et amène de nouvelles données sur l’impact clinique réel de cette activité. L’étude n’amène pas de réponses claires et c’est dommage, mais elle illustre bien la difficulté de bien caractériser l’activité cognitive des pharmaciens durant la validation d’ordonnances. La discussion de l’article est très bonne, elle met bien en perspective les résultats de l’étude et je vous invite à la lire. Je suis bien d’accord avec ce paragraphe en particulier, qui illustre bien selon moi la nécessité de repenser l’activité de vérification d’ordonnances à la lumière des outils technologiques modernes à la disposition des pharmaciens:

The verification of low complexity orders is a basic and repetitive drug distribution function that pharmacists frequently characterize as rote work due to the extremely low rate of problems. The most serious concerns, such as drug allergies, drug interactions, and dosing errors are generally identified using clinical decision support rules and alerts, while others would need to be identified through anomalous or important patient-specific factors that arise during routine profile review or clinical rounds. Verification of these low complexity orders may actually increase the risk of error due to the lack of vigilance by the pharmacist when reviewing these orders, similar to errors of omission seen with alert fatigue.