Une étude sur l’autovérification des prescriptions à haut volume et faible risque

L’arrivée de la prescription électronique et des dossiers électroniques intégrés affecte considérablement le travail du pharmacien, en particulier au niveau de la validation des ordonnances. Dans le mode de travail traditionnel de la prescription et de la validation d’ordonnances en établissement de santé, les ordonnances rédigées sur papier sont transmises à la pharmacie par fax ou par numérisation. Il s’agit actuellement du fonctionnement le plus fréquent au Québec. Dans ce mode, le pharmacien en distribution est tributaire de la transmission d’ordonnances par un tiers; il ne peut vérifier que les ordonnances qu’on lui envoie, et bien que techniquement « toutes » les ordonnances sont censées être vérifiées, un grand nombre d’ordonnances, notamment celles destinées à une utilisation en dose unique d’un médicament disponible directement sur l’unité de soins, ne sont jamais transmises à la pharmacie.

Avec le passage aux dossiers électroniques intégrés ou à la prescription électronique dans un logiciel dédié à cette fin interfacé avec la pharmacie, la barrière humaine à la transmission d’ordonnances n’existe plus, celle-ci devient automatique. Il devient possible pour le pharmacien d’avoir accès en temps réel à toutes les ordonnances, incluant un grand nombre qui n’étaient pas accessible avant. De ce changement découle un dilemme: les pharmaciens pourraient vouloir continuer à vérifier toutes les ordonnances, incluant celles nouvellement accessibles, mais cette charge de travail additionnelle demande un investissement en ressources, qui, en contexte de pénurie de personnel, risque d’entraîner des ruptures d’autres services dont la valeur ajoutée est potentiellement plus grande, notamment les soins pharmaceutiques. Pour beaucoup des ordonnances nouvellement transmises, comme le démontre la littérature sur le sujet et comme je constate dans ma propre expérience, la validation prospective par le pharmacien est d’une valeur ajoutée plutôt limitée.

Pourtant, dans plusieurs logiciels de dossiers électroniques, en particulier ceux basés sur les pratiques américaines, il est attendu que la majorité des ordonnances soient vérifiées prospectivement par un pharmacien. Ceci n’est pas étranger à plusieurs publications autour de 2010, le moment où le déploiement des dossiers électroniques intégrés a commencé aux États-Unis, qui parlaient des risques de submerger les pharmaciens d’ordonnances à vérifier ayant peu de valeur ajoutée et risquant d’affecter la capacité à offrir des soins cliniques. Cette inquiétude est toujours d’actualité, une publication en 2019 disait:

The verification of low complexity orders is a basic and repetitive drug distribution function that pharmacists frequently characterize as rote work due to the extremely low rate of problems. The most serious concerns, such as drug allergies, drug interactions, and dosing errors are generally identified using clinical decision support rules and alerts, while others would need to be identified through anomalous or important patient-specific factors that arise during routine profile review or clinical rounds. Verification of these low complexity orders may actually increase the risk of error due to the lack of vigilance by the pharmacist when reviewing these orders, similar to errors of omission seen with alert fatigue.

En réponse à cette inquiétude, plusieurs logiciels ont développé des fonctionnalités « d’autovérification » permettant de soustraire des ordonnances rencontrant certains critères à la vérification prospective du pharmacien. Paradoxalement, les standards de pratique américains, notamment les standards d’excellence de l’ASHP, découragent l’utilisation de cette fonction. Je crois que l’on peut assumer que ceci est bien intentionné, en encourageant les pharmaciens à limiter cette pratique au minimum à des fins de sécurité. De même, les normes d’agrément américaines de la Joint Commission demandent une vérification des ordonnances par un pharmacien avant que celles-ci deviennent disponibles pour retrait des cabinets et administration dans la FADM électronique, sauf pour des cas d’exception bien définis.

Une publication parue récemment dans l’AJHP, s’est penchée sur ce sujet dans le contexte de l’urgence. Elle avait pour objectif d’évaluer l’effet de la fonction d’autovérification d’ordonnances activée à l’urgence pour des ordonnances rencontrant des critères de haut volume et faible risque, sur la charge de travail de vérification d’ordonnances des pharmaciens. L’étude a eu lieu dans deux hôpitaux, le premier académique et le deuxième communautaire, au Wisconsin. Dans l’hôpital académique, un pharmacien était présent à l’urgence 24 heures sur 24, 7 jours sur 7, alors que l’hôpital communautaire ne disposait pas de pharmacien à l’urgence.

Une liste de médicaments éligibles à l’autovérification a été établie à l’aide d’une revue rétrospective de 3 mois de données de prescription (36 000 prescriptions de août à octobre 2019). 10 médicaments représentaient près de la moitié de toutes les ordonnances. Un comité multidisciplinaire incluant des médecins, infirmières, pharmaciens cliniciens et pharmaciens en informatique clinique ont établi des critères pour évaluer ces médicaments à partir de listes de l’ISMP dont la liste des médicaments à haut risque. Les antibiotiques, analgésiques à longue action et vaccins ont été exclus. Ensuite, une logique clinique a été programmée dans le logiciel de dossier électronique. Celle-ci est détaillée dans le texte complet, mais essentiellement l’ordonnance devait figurer à la liste prédéterminée, ne déclencher aucune alerte dans le système d’aide à la décision, être disponible dans les cabinets de l’urgence, et destinée à une administration à l’urgence pour un patient adulte.

Ensuite, toutes les ordonnances du 20 au 29 janvier 2020 ont été évaluées rétrospectivement pour vérifier si les critères ainsi établis étaient adéquats. Celles-ci ont été révisées indépendamment par deux pharmaciens pour déterminer si une intervention aurait été requise sur l’ordonnance au moment de sa vérification. 7433 ordonnances ont été émises durant la période, dont 3057 rencontrant les critères d’autovérification. 18 ont requis une intervention du pharmacien et 75 n’ont jamais été révisées par un pharmacien pour diverses raisons, pour un total de 93 qui ont été évaluées par les deux pharmaciens; 2 de ces 93 auraient requis une intervention, soit 0,07% du total. L’autovérification aurait permis de réduire la charge de travail de validation des ordonnances de 40%.

Les auteurs concluent donc que l’autovérification de médicaments à haut volume et faible risque est possible dans le contexte de l’urgence sans présenter de risque significatif pour les patients, et permet de diminuer significativement la charge de travail de vérification d’ordonnances.

Je trouve cet article très intéressant car dans le contexte québécois actuel, il s’agit de médicaments pour lesquels les ordonnances ne se rendent probablement pas à la pharmacie, je vous invite à consulter la liste dans l’article, mais on voit qu’il s’agit essentiellement de solutés sans additifs, d’analgésiques à courte action et d’antinauséeux. Dans ma pratique, je conste à peu près la même chose: la vaste majorité des ordonnances à haut volume nouvellement transmises suite au déploiement de la prescription électronique sont dans ces catégories. Dans le contexte de la prescription électronique, en plus, ces ordonnances sont souvent générées à l’aide de règles d’aide à la décision, notamment le calcul automatique de dose et les order sets, les rendant peu susceptibles de contenir une erreur. Avec le déploiement à venir à plus grande échelle de la prescription électronique, du circuit du médicament en boucle fermée et des dossiers électroniques intégrés au Québec, je pense que nous avons une opportunité de définir quelles ordonnances méritent vraiment une validation prospective par le pharmacien et de se servir des technologies pour éviter un accroissement indu de la charge de travail en distribution.

Une étude sur la fiabilité du DSQ après sa mise à jour en 2020

De nombreux articles ont été publiés sur les registres nationaux de médicaments pris par les patients à domicile, à l’international comme au Québec. Jusqu’à maintenant, on peut assez facilement constater que les enjeux vécus ici avec notre DSQ ne sont pas uniques. Essentiellement, un peu partout, on constate que les patients ne prennent pas réellement les médicaments de la même manière qu’indiqué dans ces registres, pour une variété de raisons. Certaines découlent de la manière dont ces registres sont alimentés, d’autres du simple fait que les patients peuvent décider par eux-mêmes de prendre leurs médicaments différemment de la prescription.

Un nouvel article, paru dans le numéro d’octobre 2022 du Pharmactuel, rapporte une étude réalisée sur la fiabilité du DSQ après des mises à jour réalisées en 2019 et 2020 au niveau du domaine médicament. Notamment, les médicaments prescrits mais non dispensés sont maintenant affichés au DSQ, de même que les médicaments d’annexe II et III (non prescrits mais dispensés sous supervision du pharmacien ou avec inscription au dossier pharmacologique).

L’étude a été réalisée aux hôpitaux de Chicoutimi, Jonquière et La Baie au Québec, de juin à juillet 2020. Les patients de 18 ans ou se présentant à l’urgence ou hospitalisés, pour lesquels un profil pharmacologique a été obtenu d’une pharmacie communautaire de même qu’un profil DSQ à moins de 72 heures d’écart, ont été inclus. Les patients sans DSQ, ceux hébergés en CHSLD et ceux transférés d’autres hôpitaux ont été exclus.

Pour des raisons légales, seuls les profils de DSQ consultés par les pharmaciens dans le cadre de leur travail « normal » (sans considération pour le projet de recherche) ont pu être inclus. Les données affichées sur le profil du DSQ ont été comparées aux données du profil pharmacologique. Les divergences ont été classées selon des catégories prédéterminées.

124 patients ont été inclus, avec un âge moyen de 71 ans et prenant une médiane de 12 médicaments; représentant au total 1488 ordonnances. 9,7% des ordonnances présentaient une divergence (48,4% des patients avaient au moins une divergence), dont 23% un ajout, 34% une omission, 0,7% une différence de dose, 12,5% une différence de posologie, 25,7% une duplication, et 4,2% une divergence autre. 10,4% des médicaments étaient à haut risque. Fait intéressant, 56% des patients recevant leurs médicaments en piluliers avaient au moins une divergence contre 41% pour les autres patients. On aurait pu s’attendre à ce que les patients recevant leurs médicaments en piluliers aient bien moins de divergences compte tenu de la rigueur de la tenue de dossier requise pour ce genre de modalité de service. Les deux médicaments avec le plus de divergences étaient l’acétaminophène et la vitamine D.

Les auteurs analysent en détail les causes des divergences observées, je vous invite à lire l’article au complet pour tous les détails. On peut en retenir que l’ajout au DSQ des médicaments prescrits mais non délivrés de même que des ajustements par rapport au délai avant qu’une ordonnance complétée ou cessée ne disparaisse du profil du patient, semblent avoir eu des effets bénéfiques. La présente étude démontre donc un taux de divergence de 9,7%, alors qu’une étude antérieure avait démontré un taux de divergence d’environ 12%. Les auteurs rapportent également des données non publiées précédemment collectées entre les deux mises à jour de 2019 et 2020. Donc, de façon générale, on peut constater que le DSQ est très fiable, d’autant plus que la majorité des divergences concernaient des médicaments (acétaminophène, vitamine D) pour lesquels les divergences sont inévitables et peu susceptibles d’être cliniquement significatives.

Comme les auteurs le mentionnent, l’étude a uniquement comparé le profil pharmacologique de la pharmacie communautaire au profil du DSQ. Il faut souligner que l’objectif de ces listes est d’aider à déterminer les médicaments que le patient prend réellement. Cependant, autant les profils de pharmacie communautaire que le profil du DSQ ne peuvent pas prendre en compte les cas où les patients prennent leurs médicaments différemment de ce qui a été prescrit (pour les médicaments d’annexe I) ou recommandé par le pharmacien (pour l’annexe II ou III). La seule source possible de cette information est une discussion avec le patient ou la ou les personne(s) qui s’occupent de ses médicaments. Citons notamment les cas où des instructions verbales d’ajustement de posologie sont transmises par un prescripteur sans prescription écrite à la pharmacie, les patients s’approvisionnant à plus d’une pharmacie, les patients obtenant des médicaments ailleurs qu’en pharmacie communautaire (programme d’accès spécial, recherche, sources hors Québec, échantillons, etc.), et les patients qui décident par eux-mêmes de prendre leurs médicaments différemment de ce qui est prescrit. Bien que ce soit toujours un enjeu en raison de l’effort et des ressources que cela requiert, rien ne peut remplacer une conversation avec le patient, lorsque possible bien sûr, pour déterminer ce qui est réellement pris.

Prédiction d’ordonnances de tests et examens à l’urgence par machine learning

On voit deux tendances qui se dessinent dans l’utilisation du machine learning dans le contexte d’ordonnances: la prédiction d’ordonnances et l’analyse d’ordonnances. Je vous parlais la semaine dernière de détection d’ordonnances atypiques, aujourd’hui je vous parle d’un nouvel article sur la prédiction d’ordonnances paru en octobre 2019 dans JAMIA.

L’étude s’est déroulée sur 3 sites, soit deux « urgent care centers » (on imagine des cliniques sans rendez-vous pour soins urgents) et une urgence d’hôpital du VA américain situés à Boston. Il s’agit d’une étude rétrospective, c’est à dire que des données du passé ont été extraites pour entraîner des modèles et faire des simulations, mais aucune utilisation prospective du modèle en vie réelle n’a eu lieu. L’objectif de l’étude était de déterminer s’il était possible de prédire les ordonnances de tests de laboratoire et examens (pas les médicaments) qui seraient prescrits durant une visite à l’urgence à partir des données disponibles au triage. L’objectif ultime était d’offrir des soins plus efficaces en diminuant le temps perdu à attendre la première évaluation médicale pour la prescription de tests et examens.

Les données du 12 avril 2012 au 31 décembre 2016 concernant les visites à l’urgence ont été extraites du dossier clinique informatisé des unités de soins à l’étude. Les patients qui ont quitté avant d’avoir été vus ou qui sont décédés à l’urgence ont été exclus. Ces données ont été traitées pour les transformer en représentations compatibles avec des modèles de machine learning. Les détails du traitement sont présentés dans l’article, mais consistent essentiellement en une préparation des variables suivantes:

  • La cote de sévérité attribuée au triage.
  • L’âge et le sexe du patient.
  • Les ordonnances de tests et examens demandés à la dernière visite à l’urgence.
  • Les listes de problèmes et de diagnostics codifiées.
  • Le quart de travail (jour/soir/nuit) à l’arrivée du patient.
  • Les signes vitaux (tension artérielle, pouls, saturation, fréquence respiratoire, température).
  • La présence de douleur.
  • La plainte principale du patient (chief complaint) à l’arrivée, traitée par analyse du langage naturel de manière très intéressante.

4 modèles de machine learning relativement simples (classification par régression des moindres carrés partiels, machines à vecteurs de support, forêts aléatoires et perceptron multicouche) ont été entraînés chacun selon deux méthodes, soit par prédiction binaire (prédire chaque test indépendamment) ou par prédiction multilabel (prédire tous les tests à réaliser d’un seul coup) . La performance de chaque modèle a été évaluée avec le score F1 et l’aire sous la courbe ROC. Les auteurs ont aussi effectué une simulation des coûts supplémentaires des tests qui seraient effectués « en surplus » sur la base des prédictions du modèle et en contrepartie ont aussi fait une simulation de la variation de la durée de séjour tenant à la fois compte du temps épargné par des tests demandés plus rapidement, et des délais supplémentaires occasionnés par l’attente de résultats de certains tests plus longs.

Les données de 140 855 visites ont été incluses dans le jeu de données. 2179 items uniques ont été prescrits, cependant 29 items représentaient 81% de toutes les ordonnances. Les auteurs se sont donc limités à ceux-ci dans leurs prédictions. La population de patients était composée de plus de 90% d’hommes, avec une minorité de ceux-ci âgés de moins de 45 ans. Les 5 raisons de visites les plus fréquentes étaient la douleur, des problèmes « thoraciques » (douleur, respiratoires, pulmonaires), des difficultés respiratoires, des problèmes abdominaux, et spécifiquement des douleurs thoraciques. Les 5 tests de laboratoire les plus fréquents étaient la créatinine, le glucose, l’urée, les électrolytes et la formule sanguine.

Le meilleur modèle était le perceptron multicouche (un réseau de neurones simples) avec prédiction binaire, avec un score F1 de 0,53 et une aire sous la courbe ROC de 0,70. On constate cependant que tous les modèles ont une performance proche les uns des autres avec des intervalles de confiance qui se chevauchent. Les auteurs soulignent que les prédictions semblaient largement corrélées avec la fréquence des tests, ainsi les modèles tendaient à surprédire les tests fréquents et à sous-prédire les tests rares. La cote de sévérité a été utilisée comme comparateur non machine learning, c’est-à-dire que les auteurs ont vérifié quelles seraient les métriques de performance d’un modèle qui prescrirait tous les tests aux patients avec cote élevée et aucun test aux patients avec une cote faible. Évidemment, ce type de modèle offrait une aire sous la courbe ROC et un rappel élevés à 0,76 et 0,95 respectivement, cependant on voit bien que la performance clinique d’un tel modèle serait très mauvaise avec un taux de faux positifs passant de 17% avec le meilleur modèle à 44% avec le score de sévérité. La simulation a démontré une augmentation du coût médian des tests de 21$ à 45$ par visite, avec une baisse de la durée de 158 à 151 minutes.

Je trouve que l’approche est intéressante, cependant la performance clinique ne semble pas particulièrement intéressante, avec un bénéfice clinique modeste pour un coût à toutes fins pratiques doublé en tests. Je trouve que le choix du score de sévérité au triage comme comparateur non machine learning est un peu trop simple. En effet, il serait très surprenant qu’une mesure aussi simple offre une performance intéressante, comme on le voit bien. Puisque les auteurs nous disent que le modèle tendait à surprédire les tests fréquents, je trouve que comparer à un top n de tests les plus fréquents (peut-être stratifié selon une sévérité faible ou élevée) aurait un comparateur plus près de la pratique réelle.

Je retiens de cette étude qu’il y a un potentiel à utiliser le machine learning pour apprendre les patrons de prescription dans des contextes où la rapidité de prescription pourrait apporter un bénéfice. Cependant, on voit que l’approche évaluée dans cet article, bien qu’étoffée, ne semble pas être au point. Les auteurs discutent dans l’article de l’utilisation d’une telle approche pour constituer des order sets pour les raisons de visite à l’urgence fréquentes plutôt qu’une approche manuelle. Cela rejoint les travaux d’autres groupes de chercheurs et je crois qu’il y a là une avenue à explorer.